续上一篇:
搭建Hadoop2.7.3+Hive2.1.1及MySQL(配置Hive)(二)
准备工作下载最新连接器地址
https://dev.mysql.com/downloads/connector/j/
例子:下载mysql-connector-java-5.1.41.tar
1、解压连接器 connector 文件
1.1、解压
[root@localhost Software]# tar xzfmysql-connector-java-5.1.41.tar.gz
[root@localhost Software]# cd mysql-connector-java-5.1.41/
1.2、查看文件夹
[root@localhostmysql-connector-java-5.1.41]# ll
1.3、Copy到hive/lib路径下
[root@localhost Software]# cpmysql-connector-java-5.1.41/mysql-connector-java-5.1.41-bin.jar/usr/hive/lib/mysql-connector-java-5.1.41-bin.jar
2、登陆MySQL创建数据库:hive_db(注意配置hive-site.xml时有指定)
2.1、用户名:root 密码:password,另开一个终端登陆MySQL,创建数据库hive_db
[root@localhost hive]# mysql -u root -ppassword
mysql> create database hive_db;
3、改配置文件hive-site.xml
以下只列出 改动的 配置项,其它保留默认
<configuration>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/usr/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
<description>Use false if a production metastore server is used</description>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp/hive</value>
<description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive_db?createDatabaseIfNoExist=true</value>
<description> Roy
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>User-Defined(Roy) Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>User-defined(Roy)Username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>password</value>
<description>User-defined(Roy)password to use against metastore database</description>
</property>
</configuration>
4、使用schematool初始化
[root@localhost hive]# schematool -dbTypemysql -initSchema
--显示成功
schemaTool completed
5、 启动hive服务端程序
5.1、启动 hive服务端
[root@localhost hive]# hive --servicemetastore &
-- 屏幕提示信息不显示时,按ctrl+c退出
5.2、查看进程信息
[root@localhost hive]# jps
--显示进程信息多了(RunJar)
51280 Jps 5985 SecondaryNameNode 6226 ResourceManager 45766 DataNode 5753 NameNode 51194 RunJar 6348 NodeManager
5.3、有需要时,可启动hive 远程服务 (端口号10000)
[root@localhost hive]# hive --servicehiveserver &
6、测试环境配置是否成功
6.1、准备导入文本文件/root/桌面/Test/wc-in/a.txt
格式:
1,h
2,i
3,v
4,e
6.2、登陆hive成功后,测试创建表
root@localhost hadoop]# hive
6.2.1、创建表及指定逗号(,)为分隔符
hive> create table a(id int,name string)
> row format delimited fields terminated by ',';
--显示信息
OK
Time taken: 0.288 seconds
6.2.2、导入文件a.txt
hive> load data local inpath '/root/桌面/Test/wc-in/a.txt' into table a;
--显示信息
Loading data to table default.a
OK
Time taken: 0.763 seconds
6.2.3、查看效果
hive> select * from a;
--显示信息
OK
1 h
2 i
3 v
4 e
Time taken: 0.309 seconds, Fetched: 4row(s)
6.3、在Hive内使用dfs命令
6.3.1、查看a表dfs存储路径
hive> dfs -ls /usr/hive/warehouse/a;
--显示信息
Found 1 items
-rw-r--r-- 1 root supergroup 16 2017-03-08 17:46/usr/hive/warehouse/a/a.txt
6.3.2、查看文件内容
hive> dfs -cat /usr/hive/warehouse/a/*;
--显示信息
1,h
2,i
3,v
4,e
7、登陆MySQL查看创建表
[root@localhost conf]# mysql -u root -ppassword
mysql> use hive_db;
mysql> select TBL_ID, CREATE_TIME,DB_ID, OWNER, TBL_NAME,TBL_TYPE from TBLS;
--显示信息
+--------+-------------+-------+-------+----------+---------------+
| TBL_ID | CREATE_TIME | DB_ID | OWNER |TBL_NAME | TBL_TYPE |
+--------+-------------+-------+-------+----------+---------------+
| 37 | 1488966386 | 1 | root | a | MANAGED_TABLE |
+--------+-------------+-------+-------+----------+---------------+
1 row in set (0.03 sec)
8、在hdfs查看生成文件(同上步骤[6.3])
8.1、查看a表存储路径
[root@localhost hadoop]# hdfs dfs -ls/usr/hive/warehouse/a
-- 显示信息
Found 1 items
-rw-r--r-- 1 root supergroup 162017-03-08 17:46 /usr/hive/warehouse/a/a.txt
8.2、查看内容
[root@localhost hadoop]# hdfs dfs -cat /usr/hive/warehouse/a/*
--显示信息
1,h
2,i
3,v
4,e
常见问题处理:
1、启动hive时报错
[root@localhost hive]# hive
--显示报错信息
Caused by:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException):Cannot create directory /tmp/hive/root/24f1d91f-f32b-47e1-824d-ba26b02bd13e.Name node is in safe mode.
原因:hadoop为安全模式
--解决方法:
关闭安全模式
[root@localhost hadoop]# hadoop dfsadmin-safemode leave
--显示信息
DEPRECATED: Use of this script to executehdfs command is deprecated.
Instead use the hdfs command for it.
Safe mode is OFF
2、在导入数据时出错信息
hive> load data local inpath '/root/桌面/Test/wc-in/a.txt' into table a;
--显示报错信息
FAILED: Execution Error, return code 1 fromorg.apache.hadoop.hive.ql.exec.MoveTask.org.apache.hadoop.ipc.RemoteException(java.io.IOException): File/usr/hive/warehouse/a/a_copy_2.txt could only be replicated to 0 nodes insteadof minReplication (=1). There are 0datanode(s) running and no node(s) are excluded in this operation.
原因:hadoop没有启动datanote
解决方法:
[root@localhost hive]# start-dfs.sh
[root@localhost hive]# jps
--显示信息
51152 Jps
5985 SecondaryNameNode
6226 ResourceManager
45766 DataNode
5753 NameNode
6348 NodeManager
http://www.tuicool.com/articles/fQZnAnf
相关推荐
在安装Hive 2.1.1和Hadoop 2.7.3时,需要注意的是,需要确保Hadoop集群已经正确配置并稳定运行,然后按照官方文档的步骤安装Hive,包括设置环境变量、配置Hive-site.xml等。同时,为了使用HiveDrive,需要在Kettle的...
描述中提到“DataGrip连接Hive 2.1.1所需Jar包整理”,这说明这个压缩包是为使用JetBrains的DataGrip IDE连接到Hive 2.1.1版本而准备的。DataGrip是一款强大的数据库和SQL开发工具,支持多种数据库系统,包括Hive。...
在最新的10.0.7版本中,为了能够成功连接到Hive 2.1.1实例,你需要确保你拥有与Hadoop 2.7.3兼容的所有必要JAR文件。这些JAR文件包含了与Hive交互所需的API和库,比如Hive客户端、Hadoop Common、HDFS、MapReduce...
1.2 Hive 和 Hadoop 关系 7 1.3 Hive 和普通关系数据库的异同 8 1.4 HIVE元数据库 9 1.4.1 DERBY 9 1.4.2 Mysql 10 1.5 HIVE的数据存储 11 1.6 其它HIVE操作 11 2. HIVE 基本操作 12 2.1 create table 12 2.1.1 总述...
7. **实验环境**:实验在3台虚拟机上进行,操作系统为Centos 7.5,Hadoop版本为2.7.3,MySQL版本为5.7.30,Hive版本为2.1.1。这些软件版本的选择是为了保证兼容性和稳定性。 通过这个实验,学习者不仅可以掌握Hive...
Hadoop和Hive在Facebook的应用 概要介绍 Hadoop a Facebook 假想的使用情况案例 Hive 问题与未来工作计划 Nutch 搜索引擎 背景介绍 数据结构 Nutch系统利用Hadoop进行数据处理的精选实例 总结...
hive-2.1.1 zookeeper-3.5.6 jdk-8u77-linux-x64 mysql-connector-java-5.1.36-bin.jar spark-2.0.0-bin-hadoop2.7 flume-1.9.0-bin hive-2.3.6-bin hadoop-2.7.3 mysql-5.7.25-1.el7.x86_64.rpm-bundle...
第1章 初识Hadoop 数据!数据! 数据存储与分析 与其他系统相比 关系型数据库管理系统 网格计算 志愿计算 1.3.4 Hadoop 发展简史 Apache Hadoop和Hadoop生态圈 第2章 关于MapReduce 一个气象数据集 数据的格式 使用...
#### 一、Hive概述及架构 **1.1 Hive架构** Hive架构主要由以下几个部分组成: - **用户接口**:主要包括CLI(命令行界面)、Client(客户端)以及WUI(Web用户界面)。其中CLI是最常用的用户接口,启动时会同时...
例如,Hadoop 2.7.3提供了一个可靠的分布式存储和处理框架,而Spark 2.1.1通过其快速的内存计算能力加速了数据处理速度。 在数据准备阶段,数据集被上传到HDFS,这一步骤是数据处理的起点。数据预处理是关键,包括...
apache-hive-2.1.1-bin.tar.gz hadoop-2.7.3.tar.gz hbase-1.2.4-bin.tar.gz jdk-8u171-linux-x64.tar.gz zookeeper-3.4.10.tar.gz
2.1.1 系统架构 18 2.1.2 容错机制 20 2.1.3 系统管理技术 20 2.2 分布式数据处理MapReduce 21 2.2.1 产生背景 21 2.2.2 编程模型 22 2.2.3 实现机制 22 2.2.4 案例分析 24 2.3 分布式锁服务Chubby 25 2.3.1 Paxos...