将对
hbase-0.90.6
和
hive-0.8.1
进行集成,使用的
hadoop-0.20.2
1.
首先将
hbase-0.90.6.jar
和
zookeeper-3.3.2.jar
复制到
hive/lib
目录下
注意:如果
hive/lib
下已经存在这两个文件的其他版本(例如
zookeeper-3.3.1.jar
),建议删除后使用
hbase
下的相关版本
2.
在
hive/conf
下
hive-site.xml
文件中添加如下的内容:
<property>
<name>hive.aux.jars.path</name>
<value>file:///home/hadoop/hadoop/hive-0.8.1/lib/hive-hbase-handler-0.8.1.jar,file:///home/hadoop/hadoop/hive-0.8.1/lib/hbase-0.90.6.jar,file:///home/hadoop/hadoop/hive-0.8.1/lib/zookeeper-3.3.2.jar</value>
</property>
这个需要根据自己的具体文件路径指定
3.
拷贝
hbase-0.90.6.jar
到所有
hadoop
节点
(
包括
master)
的
hadoop/lib
下
4.
拷贝
hbase/conf
下的
hbase-site.xml
文件到所有
hadoop
节点
(
包括
master)
的
hadoop/conf
下
5.
单结点启动
hive
,伪分布式属于单结点:
bin/hive
-hiveconf hbase.master=localhost:60000
集群启动:
bin/hive
-hiveconf hbase.zookeeper.quorum=slave
如何
hive-site.xml
文件中没有配置
hive.aux.jars.path
,则可以按照如下方式启动。
bin/hive
--auxpath /usr/local/hive/lib/hive-hbase-handler-0.8.0.jar,
/usr/local/hive/lib/hbase-0.90.5.jar,
/usr/local/hive/lib/zookeeper-3.3.2.jar
-hiveconf
hbase.zookeeper.quorum=slave
6.
创建
hbase
识别的数据,这个操作在
hive
下进行:
create
table hive_hbase(key string,age int,sex int) STORED BY
'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with
SERDEPROPERTIES("hbase.columns.mapping" =
":key,cf1:age,cf1:sex")tblproperties("hbase.table.name"
= "hbase_hive");
7.
在
hbase
下面查看数据:
list
8.
创建临时表
person
:
create
table person(name string, age int, sex int) row format delimited
fields terminated by '\t' stored as textfile;
9.
往临时表中添加数据:
load
data local inpath '/home/hadoop/Desktop/data.txt' overwrite into
table person;
10.
往
hive_hbase
表中添加数据:
insert
overwrite table hive_hbase select * from person;
11.
查看表中数据:
select
* from person limit 5;
12.hbase
中查看数据:
scan
'hbase_hive'
分享到:
相关推荐
本文将详细介绍Hadoop、HBase和Hive的版本整合兼容性,以及如何确保它们在不同版本间顺畅协作。 首先,Hadoop作为基础平台,其版本选择会直接影响到HBase和Hive的运行。Hadoop的主要组件包括HDFS(分布式文件系统)...
由于HIVE和HBASE的特点不同,导致它们在处理数据时存在一定的差异,但通过整合HIVE和HBASE,可以发挥它们各自的优势,实现更好的数据处理和存储。 在HIVE中创建HBASE的外表,是实现HIVE和HBASE整合的关键步骤。外表...
本文将介绍Hadoop、HBase、Hive以及ZooKeeper的版本整合兼容性,以及如何根据版本找到兼容性信息。 首先,Hadoop是一个开源的分布式存储和计算框架,它由HDFS和MapReduce两部分组成。HDFS用于存储大数据,而...
《HBase与Hive整合及效率对比分析》 在大数据处理领域,HBase和Hive分别扮演着不同的角色。HBase是一款基于Hadoop的分布式数据库,适用于实时查询和大规模数据存储,而Hive则是一个数据仓库工具,侧重于离线批处理...
jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...
【Hive与HBase整合详解】 Hive和HBase是两个大数据处理的重要组件。Hive提供了基于SQL的查询语言(HQL)来处理大规模的数据,适合于离线批处理;而HBase则是一个NoSQL数据库,它基于Google的Bigtable设计,提供高...
6. **监控与优化**:整合工程中需要监控Hadoop、HBase和Hive的性能,通过Ambari等工具进行资源调度、故障排查和性能调优。 在实际应用中,还会遇到如数据安全、容错机制、备份恢复、性能优化等挑战。对于开发者来说...
Hive与Hbase的整合,集中两者的优势,使用HiveQL语言,同时具备了实时性
将Hive与HBase整合,主要是为了结合两者的优点,实现批量处理和实时查询的无缝对接。整合的关键在于Hive的外部表功能,通过创建指向HBase表的外部表,我们可以用Hive的HQL查询HBase中的数据。 整合步骤如下: 1. *...
- 整合Hive与HBase需要特定的API接口,如`hive_hbase-handler.jar`,这个工具类帮助两者之间的通信。 - 整合的前提是已经正确安装Hadoop、HBase和Hive。Hive的版本需要支持与HBase对接,例如,Hive 0.6.0及以上...
整合部署Hadoop、HBase和Hive涉及到多个步骤: 1. **环境准备**:首先确保所有服务器上安装了JDK,设置好JAVA_HOME环境变量,并关闭防火墙。 2. **主机名和IP映射**:为每台服务器设置独特的主机名,更新`/etc/hosts...
6. Hive与HBase整合需要做哪些准备工作? **详细解答:** **1. MySQL的使用:** - 不需要在每个客户端安装MySQL,只需在服务器端安装即可。 - MySQL用于存储Hive的元数据,提高性能和可靠性。 **2. 客户端与...
mapreduce方式入库hbase hive hdfs,速度很快,里面详细讲述了代码的编写过程,值得下载
整合Hive与HBase的过程是通过Hive提供的外部表存储处理程序HiveStorageHandlers(通常依赖于hive-hbase-handler.jar工具包)来实现的,使得Hive能够直接操作HBase中的表。整合后的系统中,Hive能够执行数据的批量...
个或多个维表没有直接连接到事实表上,而是通过其他维表连接到事实表上时,其图解就像多个雪花连接在一起,故称雪花模型。雪花模型是对星型模型的扩展。它对星型模型的维表进一步层次化,原有的各维表可能被扩展为小...
**3.3 Hive与HBase整合** - **添加通信包**: 将`mysql-connector-java-5.1.10-bin.jar`和`hive-hbase-handler-0.13.0.jar`复制到Hive安装目录下的`lib`文件夹。 - **配置Hive与HBase的连接**: 在`hive-site.xml`中...
进行Hive与HBase整合时,需要准备的工具有HBase的配置文件、Hive的配置文件以及MySQL数据库。 从内容中可以看出,本安装文档在整合Hadoop、HBase和Hive时提供了实践过程中的总结和注意事项,并提供了相关问题导读,...
"HIVE和HBASE区别" HIVE和HBASE是两种基于Hadoop的不同技术,分别是数据仓库和Key/Value系统。它们之间有很多区别,包括设计理念、应用场景、查询语言等方面。 HIVE HIVE是一个构建在Hadoop基础设施之上的数据...
### Hive整合HBase知识点解析 #### 一、HBase简介及特性 HBase是一个构建在Hadoop分布式文件系统(HDFS)之上的分布式、可扩展的列式存储系统。它被设计用来处理海量数据,提供了高可靠性和高性能的数据访问能力。...