`
lucky_xingxing
  • 浏览: 119447 次
  • 性别: Icon_minigender_1
  • 来自: 成都
社区版块
存档分类
最新评论

Hive Hbase integration (整合) 出现zk始终连接 localhost:2181

阅读更多

前提是 hive客户端和zk没在一台机器,hive只是作为客户端使用,没有和hadoop集群在一起。

hive 和 hbase 整合(integration) 的时候,在创建hive关联Hbase表的时候出现如下 zk始终连接localhost:2181,

 

建表语句如下:

---------------------------------------------------------------------------------------------------

 create external table h_table_user3(key int,

     name string,age int,city string)

     STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

     WITH SERDEPROPERTIES('hbase.columns.mapping'=':key,info:name,info:age,address:city') TBLPROPERTIES ("hbase.table.name" = "user");

 

-----------------------------------------------------------------------------------------------------

hive目录 conf下的hive-site.xml里面和zk相关的全部都已经改过后还是无效。

----------------------------------------------------------------------------------------------------------

<property>

  <name>hive.cluster.delegation.token.store.zookeeper.connectString</name>

  <value>l-hdfsgl2.bi.prod.cn1:2181</value>

  <description>The ZooKeeper token store connect string.</description>

</property>

<property>

  <name>hive.zookeeper.quorum</name>

  <value>l-hdfsgl1.bi.prod.cn1,l-hdfsgl2.bi.prod.cn1,l-hdfscc1.bi.prod.cn1</value>

  <description>The list of zookeeper servers to talk to. This is only needed for read/write locks.</description>

</property>

 

<property>

  <name>hive.zookeeper.client.port</name>

  <value>2181</value>

  <description>The port of zookeeper servers to talk to. This is only needed for read/write locks.</description>

</property>

--------------------------------------------------------------------------------------------------------------------------

以上3个配置全部配置了还是依旧出现连接 localhost:2181

...............................................................................................................................................................

b/stax-api-1.0.1.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/stringtemplate-3.2.1.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/tempus-fugit-1.1.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/velocity-1.5.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/xz-1.0.jar:/usr/local/hive-0.12.0-cdh5.1.2/lib/zookeeper-3.4.5-cdh5.1.2.jar::/usr/local/hadoop-2.3.0-cdh5.1.2/contrib/capacity-scheduler/*.jar

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:java.library.path=/usr/local/hadoop-2.3.0-cdh5.1.2/lib/native

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:java.io.tmpdir=/tmp

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:java.compiler=<NA>

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:os.name=Linux

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:os.arch=amd64

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:os.version=2.6.32-358.23.2.el6.x86_64

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:user.name=hadoop

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:user.home=/home/hadoop

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Client environment:user.dir=/home/hadoop

15/03/11 18:19:04 INFO zookeeper.ZooKeeper: Initiating client connection, connectString=localhost:2181 sessionTimeout=90000 watcher=hconnection-0x4b8264fb, quorum=localhost:2181, baseZNode=/hbase

15/03/11 18:19:04 DEBUG zookeeper.ClientCnxn: zookeeper.disableAutoWatchReset is false

15/03/11 18:19:04 INFO zookeeper.RecoverableZooKeeper: Process identifier=hconnection-0x4b8264fb connecting to ZooKeeper ensemble=localhost:2181

15/03/11 18:19:04 INFO zookeeper.ClientCnxn: Opening socket connection to server localhost/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error)

15/03/11 18:19:04 INFO zookeeper.ClientCnxn: Socket connection established to localhost/127.0.0.1:2181, initiating session

15/03/11 18:19:04 DEBUG zookeeper.ClientCnxn: Session establishment request sent on localhost/127.0.0.1:2181

15/03/11 18:19:04 INFO zookeeper.ClientCnxn: Session establishment complete on server localhost/127.0.0.1:2181, sessionid = 0x24bee862026002d, negotiated timeout = 40000

15/03/11 18:19:04 DEBUG zookeeper.ZooKeeperWatcher: hconnection-0x4b8264fb, quorum=localhost:2181, baseZNode=/hbase Received ZooKeeper Event, type=None, state=SyncConnected, path=null

15/03/11 18:19:04 DEBUG zookeeper.ClientCnxn: Reading reply sessionid:0x24bee862026002d, packet:: clientPath:null serverPath:null finished:false header:: 1,3  replyHeader:: 1,4294978417,-101  request:: '/hbase/hbaseid,F  response::  

15/03/11 18:19:04 DEBUG zookeeper.ZooKeeperWatcher: hconnection-0x4b8264fb-0x24bee862026002d connected

15/03/11 18:19:04 INFO client.ZooKeeperRegistry: ClusterId read in ZooKeeper is null

.....................................................................................................................................................

 

最后发现两种解决方案

1(不推荐)

  将该机器的 hosts里面的localhost 指向 真实 zk的ip地址(只能是一个临时方案)

vi /etc/hosts

--------------------------------------------------------------------------------------------------------

#127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

#::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

10.1.29.1   l-hdfsgl1.bi.prod.cn1

 

10.1.29.1   localhost

-------------------------------------------------------------------------------------------------------

 

2(推荐)

需要在hive的conf hive-site.xml加入一个hbase zk的属性

------------------------------------------------------------------------------------------------------

<property>

     <name>hbase.zookeeper.quorum</name>

    <value>l-hdfsgl1.bi.prod.cn1,l-hdfsgl2.bi.prod.cn1,l-hdfscc1.bi.prod.cn1</value>

      <description></description>

 </property>

--------------------------------------------------------------------------------------------------------

 

退出hive后重新进入执行建表语句即可执行成功。

 

   

  

 

 

 

分享到:
评论

相关推荐

    HIVE和HBASE的整合

    1. HBASE表的设计:HBASE表的设计需要考虑到数据的存储和访问需求,确保表的结构合理和高效。 2. 字段映射关系:HIVE表和HBASE表之间的字段映射关系需要明确,确保数据的正确性和一致性。 3. 数据类型:HIVE和HBASE...

    hive和hbase整合

    【Hive与HBase整合详解】 Hive和HBase是两个大数据处理的重要组件。Hive提供了基于SQL的查询语言(HQL)来处理大规模的数据,适合于离线批处理;而HBase则是一个NoSQL数据库,它基于Google的Bigtable设计,提供高...

    hive与hbase整合经验谈

    3. **安装HBase的Hive连接器**:例如,安装`Hive-HBase-Connector`,这是一个允许Hive与HBase通信的库。将其添加到Hive的类路径中。 4. **创建HBase表**:在HBase中创建所需的数据表,并定义列族和列。 5. **在...

    Hive与Hbase的整合

    Hive与Hbase的整合,集中两者的优势,使用HiveQL语言,同时具备了实时性

    hive 整合 hbase

    ### Hive整合HBase知识点解析 #### 一、HBase简介及特性 HBase是一个构建在Hadoop分布式文件系统(HDFS)之上的分布式、可扩展的列式存储系统。它被设计用来处理海量数据,提供了高可靠性和高性能的数据访问能力。...

    大数据工具篇之Hive与HBase整合完整教程

    ### 大数据工具篇之Hive与HBase整合完整教程 #### 一、引言 在大数据处理领域,Hive 和 HBase 是两种非常重要的工具。Hive 是一种数据仓库工具,可以用来进行数据提取、转换和加载(ETL),同时提供了一种 SQL ...

    Hadoop Hive HBase Spark Storm概念解释

    - **解决的问题**:HBase解决了Hadoop在处理实时数据需求方面的不足。虽然Hadoop非常适合处理批量数据,但在需要快速响应时间的在线应用中表现不佳。HBase通过提供低延迟的随机读写访问能力,满足了实时数据处理的...

    Hive整合HBase资源文件.zip

    标题 "Hive整合HBase资源文件.zip" 指向的是一个关于如何将Apache Hive与Apache HBase集成的教程或工具包。Hive是大数据处理领域的一个重要组件,主要用于结构化数据的查询和分析,而HBase则是一个分布式、列式存储...

    hive与hbase整合经验谈.pdf

    整合Hive与HBase后,可以在Hive中进行数据的插入、查询、连接(JOIN)、分组(GROUPBY)操作。而HBase则可以处理实时数据更新,以及提供高速的键值访问。整合后的系统结构包括Hive的元数据管理、HBase的存储和检索...

    scala-hive-HBASE-Api.7z

    3. **HBase**:HBase是Google Bigtable的开源实现,是一个分布式的、面向列的NoSQL数据库。它构建于Hadoop之上,可以存储海量半结构化数据,支持快速随机读取,适合实时查询。HBase提供了强一致性的读写操作,适用于...

    hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结

    ### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...

    hive-hbase-handler-1.2.1.jar

    被编译的hive-hbase-handler-1.2.1.jar,用于在Hive中创建关联HBase表的jar,解决创建Hive关联HBase时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. org.apache.hadoop....

    hive-hbase-handler-1.2.2.jar

    hive和hbase整合的时候,如果出现不兼容的情况需要手动编译:hive-hbase-hander-1.2.2.jar把这个jar替换掉hive/lib里的那个jar包

    Hadoop hbase hive sqoop集群环境安装配置及使用文档

    大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...

    Hive数据导入HBase的方法.docx

    Hive 数据导入 HBase 的方法 Hive 是一个基于 Hadoop 的数据仓库工具,而 HBase 是一个基于 Hadoop 的 NoSQL 数据库。它们都是大数据处理的重要组件。在数据处理过程中,经常需要将数据从 Hive 导入到 HBase 中。...

    小牛学堂-大数据24期-04-Hadoop Hive Hbase Flume Sqoop-12天适合初学者

    小牛学堂-大数据24期-04-Hadoop Hive Hbase Flume Sqoop-12天适合初学者.txt

    hadoop hive hbase安装过程

    ### Hadoop、Hive、HBase 的安装配置详解 #### 一、Hadoop 安装配置 ##### 1. 创建用户与安装 JDK 在安装 Hadoop 前,首先需要创建一个专用的用户账户用于运行 Hadoop 相关服务,并确保 Java 环境已经正确安装。 ...

Global site tag (gtag.js) - Google Analytics