前提是 hive客户端和zk没在一台机器,hive只是作为客户端使用,没有和hadoop集群在一起。
hive 和 hbase 整合(integration) 的时候,在创建hive关联Hbase表的时候出现如下 zk始终连接localhost:2181,
建表语句如下:
---------------------------------------------------------------------------------------------------
create external table h_table_user3(key int,
name string,age int,city string)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES('hbase.columns.mapping'=':key,info:name,info:age,address:city') TBLPROPERTIES ("hbase.table.name" = "user");
-----------------------------------------------------------------------------------------------------
hive目录 conf下的hive-site.xml里面和zk相关的全部都已经改过后还是无效。
----------------------------------------------------------------------------------------------------------
<property>
<name>hive.cluster.delegation.token.store.zookeeper.connectString</name>
<value>l-hdfsgl2.bi.prod.cn1:2181</value>
<description>The ZooKeeper token store connect string.</description>
</property>
<property>
<name>hive.zookeeper.quorum</name>
<value>l-hdfsgl1.bi.prod.cn1,l-hdfsgl2.bi.prod.cn1,l-hdfscc1.bi.prod.cn1</value>
<description>The list of zookeeper servers to talk to. This is only needed for read/write locks.</description>
</property>
<property>
<name>hive.zookeeper.client.port</name>
<value>2181</value>
<description>The port of zookeeper servers to talk to. This is only needed for read/write locks.</description>
</property>
--------------------------------------------------------------------------------------------------------------------------
以上3个配置全部配置了还是依旧出现连接 localhost:2181
...............................................................................................................................................................
b/stax-api-1.0.1.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/stringtemplate-3.2.1.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/tempus-fugit-1.1.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/velocity-1.5.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/xz-1.0.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/zookeeper-3.4.5-cdh5.1.2.jar::/usr/local/hadoop-2.3.0-cdh5.1.2/contrib/capacity-scheduler/*.jar
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:java.library.path=/usr/local/hadoop-2.3.0-cdh5.1.2/lib/native
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:java.io.tmpdir=/tmp
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:java.compiler=<NA>
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:os.name=Linux
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:os.arch=amd64
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:os.version=2.6.32-358.23.2.el6.x86_64
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:user.name=hadoop
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:user.home=/home/hadoop
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:user.dir=/home/hadoop
15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Initiating client connection, connectString=localhost:2181 sessionTimeout=90000 watcher=hconnection-0x4b8264fb, quorum=localhost:2181, baseZNode=/hbase
15/03/11 18:19:04 DEBUG zookeeper.ClientCnxn: zookeeper.disableAutoWatchReset is false
15/03/11 18:19:04 INFO zookeeper.RecoverableZooKeeper: Process identifier=hconnection-0x4b8264fb connecting to ZooKeeper ensemble=localhost:2181
15/03/11 18:19:04 INFO zookeeper.ClientCnxn: Opening socket connection to server localhost/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error)
15/03/11 18:19:04 INFO zookeeper.ClientCnxn: Socket connection established to localhost/127.0.0.1:2181, initiating session
15/03/11 18:19:04 DEBUG zookeeper.ClientCnxn: Session establishment request sent on localhost/127.0.0.1:2181
15/03/11 18:19:04 INFO zookeeper.ClientCnxn: Session establishment complete on server localhost/127.0.0.1:2181, sessionid = 0x24bee862026002d, negotiated timeout = 40000
15/03/11 18:19:04 DEBUG zookeeper.ZooKeeperWatcher: hconnection-0x4b8264fb, quorum=localhost:2181, baseZNode=/hbase Received ZooKeeper Event, type=None, state=SyncConnected, path=null
15/03/11 18:19:04 DEBUG zookeeper.ClientCnxn: Reading reply sessionid:0x24bee862026002d, packet:: clientPath:null serverPath:null finished:false header:: 1,3 replyHeader:: 1,4294978417,-101 request:: '/hbase/hbaseid,F response::
15/03/11 18:19:04 DEBUG zookeeper.ZooKeeperWatcher: hconnection-0x4b8264fb-0x24bee862026002d connected
15/03/11 18:19:04 INFO client.ZooKeeperRegistry: ClusterId read in ZooKeeper is null
.....................................................................................................................................................
最后发现两种解决方案
1(不推荐)
将该机器的 hosts里面的localhost 指向 真实 zk的ip地址(只能是一个临时方案)
vi /etc/hosts
--------------------------------------------------------------------------------------------------------
#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
#::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
10.1.29.1 l-hdfsgl1.bi.prod.cn1
10.1.29.1 localhost
-------------------------------------------------------------------------------------------------------
2(推荐)
需要在hive的conf hive-site.xml加入一个hbase zk的属性
------------------------------------------------------------------------------------------------------
<property>
<name>hbase.zookeeper.quorum</name>
<value>l-hdfsgl1.bi.prod.cn1,l-hdfsgl2.bi.prod.cn1,l-hdfscc1.bi.prod.cn1</value>
<description></description>
</property>
--------------------------------------------------------------------------------------------------------
退出hive后重新进入执行建表语句即可执行成功。
相关推荐
1. HBASE表的设计:HBASE表的设计需要考虑到数据的存储和访问需求,确保表的结构合理和高效。 2. 字段映射关系:HIVE表和HBASE表之间的字段映射关系需要明确,确保数据的正确性和一致性。 3. 数据类型:HIVE和HBASE...
【Hive与HBase整合详解】 Hive和HBase是两个大数据处理的重要组件。Hive提供了基于SQL的查询语言(HQL)来处理大规模的数据,适合于离线批处理;而HBase则是一个NoSQL数据库,它基于Google的Bigtable设计,提供高...
3. **安装HBase的Hive连接器**:例如,安装`Hive-HBase-Connector`,这是一个允许Hive与HBase通信的库。将其添加到Hive的类路径中。 4. **创建HBase表**:在HBase中创建所需的数据表,并定义列族和列。 5. **在...
Hive与Hbase的整合,集中两者的优势,使用HiveQL语言,同时具备了实时性
### Hive整合HBase知识点解析 #### 一、HBase简介及特性 HBase是一个构建在Hadoop分布式文件系统(HDFS)之上的分布式、可扩展的列式存储系统。它被设计用来处理海量数据,提供了高可靠性和高性能的数据访问能力。...
### 大数据工具篇之Hive与HBase整合完整教程 #### 一、引言 在大数据处理领域,Hive 和 HBase 是两种非常重要的工具。Hive 是一种数据仓库工具,可以用来进行数据提取、转换和加载(ETL),同时提供了一种 SQL ...
- **解决的问题**:HBase解决了Hadoop在处理实时数据需求方面的不足。虽然Hadoop非常适合处理批量数据,但在需要快速响应时间的在线应用中表现不佳。HBase通过提供低延迟的随机读写访问能力,满足了实时数据处理的...
标题 "Hive整合HBase资源文件.zip" 指向的是一个关于如何将Apache Hive与Apache HBase集成的教程或工具包。Hive是大数据处理领域的一个重要组件,主要用于结构化数据的查询和分析,而HBase则是一个分布式、列式存储...
整合Hive与HBase后,可以在Hive中进行数据的插入、查询、连接(JOIN)、分组(GROUPBY)操作。而HBase则可以处理实时数据更新,以及提供高速的键值访问。整合后的系统结构包括Hive的元数据管理、HBase的存储和检索...
3. **HBase**:HBase是Google Bigtable的开源实现,是一个分布式的、面向列的NoSQL数据库。它构建于Hadoop之上,可以存储海量半结构化数据,支持快速随机读取,适合实时查询。HBase提供了强一致性的读写操作,适用于...
### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...
被编译的hive-hbase-handler-1.2.1.jar,用于在Hive中创建关联HBase表的jar,解决创建Hive关联HBase时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. org.apache.hadoop....
hive和hbase整合的时候,如果出现不兼容的情况需要手动编译:hive-hbase-hander-1.2.2.jar把这个jar替换掉hive/lib里的那个jar包
大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...
Hive 数据导入 HBase 的方法 Hive 是一个基于 Hadoop 的数据仓库工具,而 HBase 是一个基于 Hadoop 的 NoSQL 数据库。它们都是大数据处理的重要组件。在数据处理过程中,经常需要将数据从 Hive 导入到 HBase 中。...
小牛学堂-大数据24期-04-Hadoop Hive Hbase Flume Sqoop-12天适合初学者.txt
### Hadoop、Hive、HBase 的安装配置详解 #### 一、Hadoop 安装配置 ##### 1. 创建用户与安装 JDK 在安装 Hadoop 前,首先需要创建一个专用的用户账户用于运行 Hadoop 相关服务,并确保 Java 环境已经正确安装。 ...