`
wbj0110
  • 浏览: 1602866 次
  • 性别: Icon_minigender_1
  • 来自: 上海
文章分类
社区版块
存档分类
最新评论

Hive如何加载和导入HBase的数据

阅读更多
  • 当我们用HBase 存储实时数据的时候, 如果要做一些数据分析方面的操作, 就比较困难了, 要写MapReduce Job。 Hive 主要是用来做数据分析的数据仓库,支持标准SQL 查询, 做数据分析很是方便,于是便很自然地想到用Hive来载入HBase的数据做分析, 但是很奇怪地是, 上网查了一下, 只看到以下两种情况:

    1. 如何用Hive 往HBase里面插入大量的数据。

    2. Hive 与HBase集成, 直接从Hive里面连HBase的数据库进行查询。参考链接: https://cwiki.apache.org/confluence/display/Hive/HBaseIntegration

    选项1是我们需求的逆操作, 直接忽略, 选项2,  虽然没有做专门的Benchmark, 但总感觉直接对HBase进行查询操作不怎么靠谱, 如果我们要频繁做很多类型的数据分析, 那HBase的压力一定会倍增。

    难道没有把HBase里面的数据直接导入到Hive当中的工具或者方法吗?

    找了一会, 似乎没找到, 那么只好自己想一个解决方案了。

    思路:

    利用选项2,  先打通Hive对HBase指定表的全表访问, 再建立一个新的空表, 把查询出来的数据全部导入到新表当中, 以后的所有数据分析操作在新表中完成。

    说干就干, 让我们试一个简单的例子。

    首先在HBase里面建一个表, 名为 student, 包含 id 和 name 两个column.

    1.hbase shell
    2. 
    3.create 'student', 'id', 'name'
     

    向表中插入两行数据

    1.put 'student', 'row1', 'id:val', '1'
    2.put 'student', 'row1', 'name:val', 'Tony'
    3.put 'student', 'row2', 'id:val', '2'
    4.put 'student', 'row2', 'name:val', 'Mike'
     

    注意:在插入数据的时候一定要指定column (如id:val, name:val) 直接使用column family (如 id, name) 去存数据会导致后面Hive 建表的时候有问题。

    扫描此表, 确定数据已经插入

    1.scan 'student'
    2.ROW                               COLUMN+CELL                                                                                    
    3.row1                             column=id:val, timestamp=1384939342989, value=1                                                
    4.row1                             column=name:val, timestamp=1384939365511, value=Tony                                           
    5.row2                             column=id:val, timestamp=1384939351444, value=2                                                
    6.row2                             column=name:val, timestamp=1384939379245, value=Mike
     

     

    建立Hive 对HBase的访问

    参考: https://cwiki.apache.org/confluence/display/Hive/HBaseIntegration

    这里我们使用的是Pivotal 公司的Pivotal Hadoop, 

    1.hive --auxpath /usr/lib/gphd/hive/lib/hive-hbase-handler-0.11.0-gphd-2.1.1.0.jar,/usr/lib/gphd/hbase/hbase.jar,/usr/lib/gphd/zookeeper/zookeeper.jar,/usr/lib/gphd/hbase/lib/guava-11.0.2.jar -hiveconf hbase.zookeeper.quorum=centos62-3,centos62-4,centos62-5
     

    解释一下参数:

    后面三个jar 包主要是Hive 访问时需要用到的, hhbase.zookeeper.quorum=centos62-3,centos62-4,centos62-5 是指hbase使用的是这三个zookeeper, 这样就不用指定hbase master了。

    这个命令运行完以后会打开Hive 的输入终端。

    从Hive建立可以访问HBase的外部表

    1.CREATE EXTERNAL TABLE student(key string, id int, name string)
    2.STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
    3.WITH SERDEPROPERTIES ("hbase.columns.mapping" "id:val,name:val")
    4.TBLPROPERTIES("hbase.table.name" "student");
     

    扫描student表, 确认访问成功:

    1.hive&gtselect * from student;
    2.OK
    3.row1    1    Tony
    4.row2    2    Mike
     

    但是此时这个表实际上是一个虚拟表, 实际的数据还在HBase中。 下面需要在Hive中另建一个结构一样的空表, 再把数据导出来。

    Hive中建立一个新的空表

    1.CREATE TABLE new_student (
    2.key string,
    3.id INT,
    4.name STRING)
    5.ROW FORMAT DELIMITED
    6.FIELDS TERMINATED BY '\t'
    7.STORED AS TEXTFILE;
     

    将数据从HBase中导入到新的Hive表中

    1.hive> INSERT OVERWRITE TABLE new_student SELECT * FROM student;
     

    确认新表中数据正确:

    1.hive&gtselect * from new_student;
    2.OK
    3.row1    1    Tony
    4.row2    2    Mike
     

    至此大功告成!

    以后所有复杂的数据查询和数据分析都可以在new_student表中完成。

     

分享到:
评论

相关推荐

    Hive数据导入HBase的方法.docx

    Hive 数据导入 HBase 的方法 Hive 是一个基于 Hadoop 的数据仓库工具,而 HBase 是一个基于 Hadoop 的 NoSQL 数据库。它们都是大数据处理的重要组件。在数据处理过程中,经常需要将数据从 Hive 导入到 HBase 中。...

    Hive、MySQL、HBase数据互导

    【Hive、MySQL、HBase数据互导】是大数据领域常见的数据处理操作,涉及三个不同的数据存储系统。Hive是一个基于Hadoop的数据仓库工具,它允许使用类SQL的查询语言HiveQL对大规模数据进行批处理和分析。MySQL是一种...

    hive和hbase整合

    Hive和HBase是两个大数据处理的重要组件。Hive提供了基于SQL的查询语言(HQL)来处理大规模的数据,适合于离线批处理;而HBase则是一个NoSQL数据库,它基于Google的Bigtable设计,提供高并发、低延迟的实时数据访问...

    java解决hive快速导数据到Hbase代码

    总之,Java在Hive和HBase的数据交互中起到桥梁作用,通过精心设计的数据处理流程和合理的利用HBase的Bulk Load特性,可以高效地将Hive中的大量数据导入到HBase,满足实时查询的需求。在大数据场景下,这种方案具有很...

    建立Hive和Hbase的映射关系,通过Spark将Hive表中数据导入ClickHouse

    本话题关注的是如何建立Hive与HBase之间的映射关系,并利用Spark将Hive中的数据高效地导入到ClickHouse数据库。以下将详细介绍这一过程的关键步骤和涉及的技术点。 首先,Hive是基于Hadoop的数据仓库工具,用于存储...

    大数据-数据迁移-hive、hbase、kudu迁移

    可能的策略是先导出数据到HDFS,然后使用脚本或工具如Kudu Bulk Import进行数据加载。在新环境中,需要重新创建表结构,并确保主键和副本分布策略的匹配。 再者,**HBase迁移方案**:HBase是NoSQL数据库,适用于高...

    mapreduce方式入库hbase hive hdfs

    mapreduce方式入库hbase hive hdfs,速度很快,里面详细讲述了代码的编写过程,值得下载

    datax数据从hive导入mysql数据缺失解决

    ### DataX 数据从 Hive 导入 MySQL 数据缺失解决 #### 背景介绍 在大数据处理领域,Hive 和 MySQL 分别作为数据仓库与关系型数据库的重要组成部分,在数据流转过程中承担着关键角色。Hive 通常用于存储海量数据并...

    hive和HBASE.zip

    【描述】:本压缩包包含Apache Hive 1.2.2和HBase 1.2.6的安装包,旨在介绍如何在大数据处理环境中将这两个组件结合使用,实现高效的数据存储和查询。 【标签】:Hive、HBase、大数据、数据仓库、NoSQL数据库、集成...

    hadoop,hive,hbase学习资料

    4. **Hive学习笔记.pdf**:Hive的学习笔记通常会涵盖HQL(Hive Query Language)、表的创建与管理、数据加载与查询优化等内容,适用于数据分析人员。 5. **分布式并行数据库集群在海量数据处理上的应用.pdf**:这份...

    sqoop把mysql数据导入hbase2.1.6

    【sqoop将MySQL数据导入Hbase2.1.6】...总的来说,将MySQL数据导入Hbase2.1.6涉及的关键步骤包括设置正确的Sqoop参数,创建HBase表和列族,以及处理好复合主键。在操作过程中,要注意这些细节,以便顺利完成数据迁移。

    Hive的HBase存储接口.doc

    Hive的HBase存储接口就是为了解决这个问题,它使得数据可以在Hive和HBase之间无缝地交互。 Hive的Storage Handler机制是自Hive 6.0版本引入的,其目的是扩展Hive的功能,使其能够支持除HDFS之外的存储系统。Hive-...

    hive与hbase整合经验谈.pdf

    在整合后的使用方法中,Hive主要用于数据的批量操作,例如将数据从文本文件批量导入HBase。具体操作包括在Hive中创建一个表(通常称为“pokes”),这个表用于临时存储数据,之后使用Hive的INSERT OVERWRITE TABLE...

    大数据工具篇之Hive与HBase整合完整教程

    3. **查询HBase数据**: - 通过 Hive 查询 HBase 表中的数据,就像查询普通的 Hive 表一样。 ```sql SELECT * FROM hbase_table WHERE row_key = 'row1'; ``` #### 五、总结 通过以上步骤,我们实现了 Hive ...

    hbase备份和数据恢复

    也可以使用HBaseSerDe来解析HBase数据。 三、HBase和HDFS互导 1. HBase到HDFS:可以通过HBase的Export工具,将HBase表的数据导出到HDFS文件,然后进行进一步处理或备份。 2. HDFS到HBase:可以使用HBase的Import...

    Sqoop数据采集工具简介、安装、使用学习笔记(配合Hive和Hbase)

    对于 Sqoop2,可以通过先将数据导入 HDFS,然后再使用 Load 或 Put 命令将数据加载到 Hive 或 HBase 中来解决。 - **Hive/HBase -> RDBMS**:两者均不支持直接转换,但可以通过以下步骤实现:先将数据从 Hive 或 ...

    HADOOP+HBASE+HIVE整合工程和文档

    2. **HBase配置与数据加载**:设置HBase的集群环境,包括Master、RegionServer等节点,然后根据业务需求创建表结构,将预处理后的数据导入HBase。 3. **Hive元数据管理**:Hive需要知道HBase中的表结构,所以要在...

    hbase导出csv,文本,html文件

    4. **数据导入关系型数据库**:创建一个与Hive表结构匹配的关系型数据库表,然后使用ETL(提取、转换、加载)工具或SQL语句将Hive中的数据导入该数据库。 5. **数据导出**:在关系型数据库中,使用`SELECT INTO ...

    hbase与hive数据同步共4页.pdf.zip

    而Hive则是一个基于Hadoop的数据仓库工具,用于数据ETL(提取、转换、加载)以及查询和分析。两者在大数据处理场景中常常结合使用,以便于数据的实时查询和批量分析。 【标签】"**hbase与hive数据同步共4**"进一步...

Global site tag (gtag.js) - Google Analytics