1.安装规划
见大数据(一)-----HADOOP安装
2.mysql安装
- 创建mysql用户以及用户组
#创建mysql用户组 groupadd -g 5001 mysql #创建mysql用户 useradd -g mysql -d /home/mysql mysql #设置mysql用户密码 passwd mysql
- 用mysql登录在/home/mysql下创建mysql目录
mkdir mysql #上传数据库安装包 mysql-5.6.15.tar.gz并解压 tar -xzvf mysql-5.6.15.tar.g
- 安装cmake命令(root用户安装)
yum install -y cmake yum install -y ncurses-deve
- 编译mysql
cd /home/mysql/mysql-5.6.15 cmake -DCMAKE_INSTALL_PREFIX=/home/mysql/mysql -DMYSQL_UNIX_ADDR=/home/mysql/mysql/mysql.sock -DDEFAULT_CHARSET=utf8 -DDEFAULT_COLLATION=utf8_general_ci -DWITH_EXTRA_CHARSETS:STRING=utf8,gbk -DWITH_MYISAM_STORAGE_ENGINE=1 -DWITH_INNOBASE_STORAGE_ENGINE=1 -DWITH_READLINE=1 -DENABLED_LOCAL_INFILE=1 -DMYSQL_DATADIR=/home/mysql/mysql/data #如果mysql-5.6.15 下有 Makefile 文件 表示上边命令基本执行成功 否则检查一下是否有异常。执行make命令 make #执行安装命令 make install #进入scripts目录,给安装文件增加可执行权限 cd scripts #增加可执行权限 chmod +x mysql_install_d
- 初始化数据库
./scripts/mysql_install_db --user=mysql --defaults-file=/home/mysql/mysql/my.cnf --basedir=/home/mysql/mysql --datadir=/home/mysql/mysql/data
- 在/home/mysql/mysql下创建log文件夹,并启动数据库
nohup ./bin/mysqld_safe --defaults-file=/home/mysql/mysql/my.cnf >> /dev/null &
- 客户端连接与关闭
#连接 ./bin/mysql --defaults-file=/home/mysql/mysql/my.cnf -uroot #如果设置了密码,需要如下方式连接 ./bin/mysql --defaults-file=/home/mysql/mysql/my.cnf -uroot -p123456 #关闭 ./bin/mysqladmin --defaults-file=/home/mysql/mysql/my.cnf -uroot SHUTDOWN #如果设置root密码之后需要加上root密码关闭数据库 ./bin/mysqladmin --defaults-file=/home/mysql/mysql/my.cnf -uroot -p123456 SHUTDOWN
- 创建mysql数据库root用户
create user 'root'@'%' identified by '123456'; flush privileges; grant all privileges on *.* to 'root'@'%' identified by '123456' with grant option; flush privileges;
- 验证mysql数据库安装是否成功
show databases; use mysql;
3.hive安装
- 在mysql数据库中创建hive用户以及hive数据库
create user 'hive'@'%' identified by 'hive'; flush privileges; grant all privileges on *.* to 'hive'@'master' with grant option; grant all privileges on *.* to 'hive'@'master' identified by 'hive'; flush privileges; create database hive; alter database hive character set latin1;
- 将hive安装到目录/home/hadoop/apache-hive-2.1.1下,并修改 hive-site.xml文件
<configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://10.112.171.49:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>123456</value> </property> <property> <name>hive.metastore.schema.verification</name> <value>false</value> </property> <property> <name>hive.metastore.local</name> <value>false</value> </property> <property> <name>hive.exec.local.scratchdir</name> <value>/home/hadoop/apache-hive-2.1.1/tmp/${user.name}</value> <description>Local scratch space for Hive jobs</description> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/hive/warehouse</value> </property> <property> <name>hive.server2.authentication</name> <value>NONE</value> </property> </configuration>
- 修改hive-env.sh文件
export JAVA_HOME=/usr/java/jdk1.7.0_45 export HADOOP_HOME=/home/hadoop/hadoop-2.7.2 export HIVE_HOME=/home/hadoop/apache-hive-2.1.1 export HIVE_CONF_DIR=/home/hadoop/apache-hive-2.1.1/conf
- 拷贝mysql的jdbc驱动包到hive的lib目录下
- 将hive安装配置好的hive拷贝到集群其他机器的同样目录下,并配置相同的环境变量
- 在主节点上初始化数据库
cd /home/hadoop/apache-hive-2.1.1/bin schematool -dbType mysql -initSchema #执行完毕后,启动hive hive
mysql 5.7.21安装参考:http://blog.51cto.com/mofansheng/2110911
相关推荐
总结来说,“hive-testbench-hive14.zip”提供的测试工具和脚本,是评估和优化Hive在大数据环境下的性能的关键。通过对TPCDS 99条SQL查询的执行,我们可以深入理解Hive的性能特性,从而更好地支持企业的数据分析需求...
大数据之-hiveSQL
2. **Hive安装与配置**:安装Hive需要配置Hadoop环境,设置Hive的配置文件`hive-site.xml`,并连接到Hadoop的HDFS和MetaStore服务。 3. **HQL基础**:HQL类似于SQL,支持创建表、插入数据、查询数据等操作。例如,`...
大数据-hive-基础
目前最新版本是 Hive-2.0.0。 Hive 的设计特征 ----------------- Hive 设计了多种特征,旨在提高数据处理和查询效率: * 支持索引,加快数据查询 * 不同的存储类型,例如纯文本文件、HBase 中的文件 * 将元数据...
Hive大数据仓库知识点 Hive是一种基于Hadoop的大数据仓库工具,可以将结构化的数据文件映射为一个表,并提供类SQL查询功能。Hive的优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计。延迟较高,...
通常,这包括下载解压`apache-hive-2.3.9-bin.tar.gz`,配置环境变量,创建metastore服务,以及初始化Hive库。一旦设置完成,你就可以通过Hive命令行或HiveServer2接口进行数据操作了。 总之,Apache Hive 2.3.9 是...
大数据基础 - Hive 大数据处理是当前数据处理的热点,Hive 是 Hadoop 生态系统中的一部分,主要用于数据仓库和数据分析。下面将详细介绍 Hive 的基本概念和应用。 Hive 的基本概念 Hive 是一个数据仓库工具,基于...
Hive的配置需要修改配置文件,位于`$HIVE_HOME/conf`目录下的hive-site.xml, hdfs-site.xml, core-site.xml, mapred-site.xml等。 4. Hive与MySQL数据库配合使用,通常MySQL数据库存储Hive的元数据。因此在安装Hive...
小牛学堂-大数据24期-04-Hadoop Hive Hbase Flume Sqoop-12天适合初学者.txt
Apache Hive(apache-hive-3.1.3-bin.tar.gz、apache-hive-3.1.3-src.tar.gz)是一种分布式容错数据仓库系统,支持大规模分析,并使用 SQL 促进读取、写入和管理驻留在分布式存储中的 PB 级数据。Hive 构建在 Apache...
flink-sql-connector-hive-3.1.2-2.12-1.15.4.jar
3. `conf/`:默认的配置文件,如`hive-default.xml`和`hive-site.xml`,用户可以在此修改Hive的行为。 4. `scripts/`:包含Hive的一些初始化和管理脚本。 5. `metastore/`:元数据存储相关的库和脚本,Hive使用元...
本文档详细记录了一次从自建Hadoop集群到华为云MRS(Managed Service for Big Data)的大规模数据迁移项目,涉及到了Hive、Kudu和HBase这三种不同类型的数据存储系统。以下是针对这些系统的迁移策略、流程和解决方案...
在大数据分析项目中,Maven可以帮助开发者管理各种库和框架,如Hadoop、Spark等,确保项目运行所需的依赖得到正确安装和引用。 target目录通常包含项目构建后的输出文件,比如编译后的Java类文件、打包的JAR文件等...
Apache Hive(apache-hive-1.2.2-bin.tar.gz、apache-hive-1.2.2-src.tar.gz)是一种分布式容错数据仓库系统,支持大规模分析,并使用 SQL 促进读取、写入和管理驻留在分布式存储中的 PB 级数据。Hive 构建在 Apache...
赠送jar包:flink-connector-hive_2.11-1.13.2.jar; 赠送原API文档:flink-connector-hive_2.11-1.13.2-javadoc.jar; 赠送源代码:flink-connector-hive_2.11-1.13.2-sources.jar; 赠送Maven依赖信息文件:flink-...
5. **易于部署**:像"ranger-2.0.0-hive-plugin"这样的预编译包,可以快速部署到Hadoop集群,大大简化了安装流程。 6. **兼容性**:Ranger 2.0.0 版本通常与Hive的某个版本兼容,确保与集群现有组件的兼容性。 在...
`apache-hive-2.3.3-bin.tar.gz` 是Apache Hive 2.3.3版本的源码或二进制发行版的压缩包,通常包含了运行和管理Hive所需的所有文件。 在这个版本中,我们可能会发现以下关键组件和功能: 1. **Hive Metastore**:...
这使得Hive成为处理大数据的强大工具,特别适合进行数据分析和报告生成。通过Hive,用户可以方便地对海量数据进行复杂查询,而无需深入理解底层的MapReduce实现细节。 在实际应用中,Hive被广泛用于日志分析、用户...