`
m635674608
  • 浏览: 5031359 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

搭建Hadoop2.7.3+Hive2.1.1及MySQL(配置Hive)(三)

 
阅读更多

续上一篇:

搭建Hadoop2.7.3+Hive2.1.1及MySQL(配置Hive)(二)

准备工作下载最新连接器地址

https://dev.mysql.com/downloads/connector/j/

例子:下载mysql-connector-java-5.1.41.tar

1、解压连接器 connector 文件

1.1、解压

[root@localhost Software]# tar xzfmysql-connector-java-5.1.41.tar.gz
[root@localhost Software]# cd mysql-connector-java-5.1.41/

1.2、查看文件夹

[root@localhostmysql-connector-java-5.1.41]# ll

1.3、Copy到hive/lib路径下

[root@localhost Software]# cpmysql-connector-java-5.1.41/mysql-connector-java-5.1.41-bin.jar/usr/hive/lib/mysql-connector-java-5.1.41-bin.jar

2、登陆MySQL创建数据库:hive_db(注意配置hive-site.xml时有指定)

2.1、用户名:root 密码:password,另开一个终端登陆MySQL,创建数据库hive_db

[root@localhost hive]# mysql -u root -ppassword

mysql> create database hive_db;

3、改配置文件hive-site.xml

以下只列出 改动的 配置项,其它保留默认

<configuration>
	<property>
		<name>hive.metastore.warehouse.dir</name>
		<value>/usr/hive/warehouse</value>
		<description>location of default database for the warehouse</description>
	</property>
	<property>
		<name>hive.metastore.local</name>
		<value>true</value>
		<description>Use false if a production metastore server is used</description>
	</property>
	<property>
		<name>hive.exec.scratchdir</name>
		<value>/tmp/hive</value>
		<description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://localhost:3306/hive_db?createDatabaseIfNoExist=true</value>
		<description> Roy
      JDBC connect string for a JDBC metastore.
      To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
      For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
    </description>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.jdbc.Driver</value>
		<description>User-Defined(Roy) Driver class name for a JDBC metastore</description>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>root</value>
		<description>User-defined(Roy)Username to use against metastore database</description>
	</property>
	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>password</value>
		<description>User-defined(Roy)password to use against metastore database</description>
	</property>
</configuration>

4、使用schematool初始化

[root@localhost hive]# schematool -dbTypemysql  -initSchema

--显示成功

schemaTool completed

5、 启动hive服务端程序

5.1、启动 hive服务端

[root@localhost hive]# hive --servicemetastore &

-- 屏幕提示信息不显示时,按ctrl+c退出

5.2、查看进程信息

[root@localhost hive]# jps

--显示进程信息多了(RunJar)

51280 Jps
5985 SecondaryNameNode
6226 ResourceManager
45766 DataNode
5753 NameNode
51194 RunJar
6348 NodeManager

5.3、有需要时,可启动hive  远程服务 (端口号10000)

[root@localhost hive]# hive --servicehiveserver &

6、测试环境配置是否成功

6.1、准备导入文本文件/root/桌面/Test/wc-in/a.txt

格式:

1,h
2,i
3,v
4,e

6.2、登陆hive成功后,测试创建表

root@localhost hadoop]# hive

6.2.1、创建表及指定逗号(,)为分隔符

hive> create table a(id int,name string)
   > row format delimited fields terminated by ',';

--显示信息

OK
Time taken: 0.288 seconds

6.2.2、导入文件a.txt

hive> load data local inpath '/root/桌面/Test/wc-in/a.txt' into table a;

--显示信息

Loading data to table default.a
OK
Time taken: 0.763 seconds

6.2.3、查看效果

hive> select * from a;

--显示信息

OK
1     h
2     i
3     v
4     e
Time taken: 0.309 seconds, Fetched: 4row(s)

6.3、在Hive内使用dfs命令

6.3.1、查看a表dfs存储路径

hive> dfs -ls /usr/hive/warehouse/a;

--显示信息

Found 1 items
-rw-r--r--  1 root supergroup         16 2017-03-08 17:46/usr/hive/warehouse/a/a.txt

6.3.2、查看文件内容

hive> dfs -cat /usr/hive/warehouse/a/*;

--显示信息

1,h
2,i
3,v
4,e

7、登陆MySQL查看创建表

[root@localhost conf]# mysql -u root -ppassword
mysql> use hive_db;
mysql> select TBL_ID, CREATE_TIME,DB_ID, OWNER, TBL_NAME,TBL_TYPE from TBLS;

--显示信息

+--------+-------------+-------+-------+----------+---------------+
| TBL_ID | CREATE_TIME | DB_ID | OWNER |TBL_NAME | TBL_TYPE      |
+--------+-------------+-------+-------+----------+---------------+
|    37 |  1488966386 |     1 | root | a        | MANAGED_TABLE |
+--------+-------------+-------+-------+----------+---------------+
1 row in set (0.03 sec)

8、在hdfs查看生成文件(同上步骤[6.3])

8.1、查看a表存储路径

[root@localhost hadoop]# hdfs dfs -ls/usr/hive/warehouse/a

-- 显示信息

Found 1 items
-rw-r--r--  1 root supergroup         162017-03-08 17:46 /usr/hive/warehouse/a/a.txt

8.2、查看内容

[root@localhost hadoop]# hdfs dfs -cat  /usr/hive/warehouse/a/*

--显示信息

1,h
2,i
3,v
4,e

常见问题处理:

1、启动hive时报错

[root@localhost hive]# hive

--显示报错信息

Caused by:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException):Cannot create directory /tmp/hive/root/24f1d91f-f32b-47e1-824d-ba26b02bd13e.Name node is in safe mode.

原因:hadoop为安全模式

--解决方法:

关闭安全模式

[root@localhost hadoop]# hadoop dfsadmin-safemode leave

--显示信息

DEPRECATED: Use of this script to executehdfs command is deprecated.
Instead use the hdfs command for it.
 
Safe mode is OFF

2、在导入数据时出错信息

hive> load data local inpath '/root/桌面/Test/wc-in/a.txt' into table a;

--显示报错信息

FAILED: Execution Error, return code 1 fromorg.apache.hadoop.hive.ql.exec.MoveTask.org.apache.hadoop.ipc.RemoteException(java.io.IOException): File/usr/hive/warehouse/a/a_copy_2.txt could only be replicated to 0 nodes insteadof minReplication (=1).  There are 0datanode(s) running and no node(s) are excluded in this operation.

原因:hadoop没有启动datanote

解决方法:

[root@localhost hive]# start-dfs.sh
[root@localhost hive]# jps

--显示信息

51152 Jps
5985 SecondaryNameNode
6226 ResourceManager
45766 DataNode
5753 NameNode
6348 NodeManager

http://www.tuicool.com/articles/fQZnAnf
分享到:
评论

相关推荐

    Hive2.1.1+hadoop2.7.3

    在安装Hive 2.1.1和Hadoop 2.7.3时,需要注意的是,需要确保Hadoop集群已经正确配置并稳定运行,然后按照官方文档的步骤安装Hive,包括设置环境变量、配置Hive-site.xml等。同时,为了使用HiveDrive,需要在Kettle的...

    hive-jdbc.zip

    描述中提到“DataGrip连接Hive 2.1.1所需Jar包整理”,这说明这个压缩包是为使用JetBrains的DataGrip IDE连接到Hive 2.1.1版本而准备的。DataGrip是一款强大的数据库和SQL开发工具,支持多种数据库系统,包括Hive。...

    DbVisualizer最新版本连接hive所需全部jar包

    在最新的10.0.7版本中,为了能够成功连接到Hive 2.1.1实例,你需要确保你拥有与Hadoop 2.7.3兼容的所有必要JAR文件。这些JAR文件包含了与Hive交互所需的API和库,比如Hive客户端、Hadoop Common、HDFS、MapReduce...

    分布式数据仓库Hive大全

    1.2 Hive 和 Hadoop 关系 7 1.3 Hive 和普通关系数据库的异同 8 1.4 HIVE元数据库 9 1.4.1 DERBY 9 1.4.2 Mysql 10 1.5 HIVE的数据存储 11 1.6 其它HIVE操作 11 2. HIVE 基本操作 12 2.1 create table 12 2.1.1 总述...

    课程综合实验1

    7. **实验环境**:实验在3台虚拟机上进行,操作系统为Centos 7.5,Hadoop版本为2.7.3,MySQL版本为5.7.30,Hive版本为2.1.1。这些软件版本的选择是为了保证兼容性和稳定性。 通过这个实验,学习者不仅可以掌握Hive...

    Hadoop权威指南 第二版(中文版)

     Hadoop和Hive在Facebook的应用  概要介绍  Hadoop a Facebook  假想的使用情况案例  Hive  问题与未来工作计划  Nutch 搜索引擎  背景介绍  数据结构  Nutch系统利用Hadoop进行数据处理的精选实例  总结...

    hadoop相关资源.txt

    hive-2.1.1 zookeeper-3.5.6 jdk-8u77-linux-x64 mysql-connector-java-5.1.36-bin.jar spark-2.0.0-bin-hadoop2.7 flume-1.9.0-bin hive-2.3.6-bin hadoop-2.7.3 mysql-5.7.25-1.el7.x86_64.rpm-bundle...

    Hadoop权威指南(中文版)2015上传.rar

    第1章 初识Hadoop 数据!数据! 数据存储与分析 与其他系统相比 关系型数据库管理系统 网格计算 志愿计算 1.3.4 Hadoop 发展简史 Apache Hadoop和Hadoop生态圈 第2章 关于MapReduce 一个气象数据集 数据的格式 使用...

    hive操作指南

    #### 一、Hive概述及架构 **1.1 Hive架构** Hive架构主要由以下几个部分组成: - **用户接口**:主要包括CLI(命令行界面)、Client(客户端)以及WUI(Web用户界面)。其中CLI是最常用的用户接口,启动时会同时...

    在线拍卖数据分析详细阅读

    例如,Hadoop 2.7.3提供了一个可靠的分布式存储和处理框架,而Spark 2.1.1通过其快速的内存计算能力加速了数据处理速度。 在数据准备阶段,数据集被上传到HDFS,这一步骤是数据处理的起点。数据预处理是关键,包括...

    大数据开发各基础组件(Linux)

    apache-hive-2.1.1-bin.tar.gz hadoop-2.7.3.tar.gz hbase-1.2.4-bin.tar.gz jdk-8u171-linux-x64.tar.gz zookeeper-3.4.10.tar.gz

    云计算第二版

    2.1.1 系统架构 18 2.1.2 容错机制 20 2.1.3 系统管理技术 20 2.2 分布式数据处理MapReduce 21 2.2.1 产生背景 21 2.2.2 编程模型 22 2.2.3 实现机制 22 2.2.4 案例分析 24 2.3 分布式锁服务Chubby 25 2.3.1 Paxos...

Global site tag (gtag.js) - Google Analytics