`
sunqi
  • 浏览: 230402 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

Hive与HBase

 
阅读更多

hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。

Hive与HBase的整合功能的实现是利用两者本身对外的API接口互相进行通信,相互通信主要是依靠hive_hbase-handler.jar工具类

 

 

1 .Hadoop和Hbase都已经成功安装了

Hadoop集群配置:http://sunqi.iteye.com/blog/1432015

hbase安装配置:http://sunqi.iteye.com/blog/1434355

2 . 拷贝hbase-0.90.4.jar和zookeeper-3.3.2.jar到hive/lib下。

注意:如果hive/lib下已经存在这两个文件的其他版本(例如zookeeper-3.3.2.jar),建议删除后使用hbase下的相关版本。

3. 修改hive/conf下hive-site.xml文件,在底部添加如下内容:

  1.  
  2. <property>    
  3.   <name>hive.exec.scratchdir</name>     
  4.   <value>/home/hadoop/hive-0.8.0-bin/tmp</value>     
  5.   
  6. </property>     
  7.   
  8.     
  9. <property>     
  10.   <name>hive.querylog.location</name>     
  11.   <value>/home/hadoop/hive-0.8.0-bin/logs</value>     
  12. </property>     
  13.     
  14. <property>    
  15.   <name>hive.aux.jars.path</name>     
  16.   <value>file:///home/hadoop/hive-0.8.0-bin/lib/hive-hbase-handler-0.8.0.jar,file:///home/hadoop/hive-0.8.0-bin/lib/hbase-0.90.4.jar,file:///home/hadoop/hive-0.8.0-bin/lib/zookeeper-3.3.2.jar</value> 
  17. </property> 
  18.    

 

注意:如果hive-site.xml不存在则自行创建,或者把hive-default.xml.template文件改名后使用。

同时修改其中配置

 

  1.  
  2. <property>
  3.   <name>hive.zookeeper.quorum</name>
  4.   <value>node1,node2,node3</value>
  5.   <description>The list of zookeeper servers to talk to. This is only needed for read/write locks.</description>
  6. </property>
  7.    

 

 

 

1.单节点启动

#bin/hive -hiveconf hbase.master=master:490001

2 集群启动:

#bin/hive



1.创建hbase识别的数据库:

 

  1. CREATE TABLE hbase_table_1(key int, value string)  
  2. STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'  
  3. WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,cf1:qualifier")  
  4. TBLPROPERTIES ("hbase.table.name" = "sunqi");    

 

hbase.table.name 定义在hbase的table名称

hbase.columns.mapping 定义在hbase的列族 


2. 查看数据

hive> select * from  hbase_table_1;  

这时可以登录Hbase去查看数据了
#bin/hbase shell
hbase(main):001:0> describe 'sunqi'  
hbase(main):002:0> scan 'sunqi'  
hbase(main):003:0> put 'sunqi','100','cf1:qualifier','aaaa'


这时在Hive中可以看到刚才在Hbase中插入的数据了。

3 hive访问已经存在的hbase

使用CREATE EXTERNAL TABLE:

  1. CREATE EXTERNAL TABLE hbase_table_2(key int, value string)        
  2. STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'  
  3. WITH SERDEPROPERTIES ("hbase.columns.mapping" = "cf1:qualifier已存在的列族与 qualifier ")  
  4. TBLPROPERTIES("hbase.table.name" = "已存在的hbase表名"); 

hive> select count(*) from  hbase_table_1;  

 

Total MapReduce jobs = 1

Launching Job 1 out of 1

Number of reduce tasks determined at compile time: 1

In order to change the average load for a reducer (in bytes):

  set hive.exec.reducers.bytes.per.reducer=<number>

In order to limit the maximum number of reducers:

  set hive.exec.reducers.max=<number>

In order to set a constant number of reducers:

  set mapred.reduce.tasks=<number>

Starting Job = job_201205231120_0004, Tracking URL = http://node1:50030/jobdetails.jsp?jobid=job_201205231120_0004

Kill Command = /home/hadoop/hadoop-0.20.203.0/bin/../bin/hadoop job  -Dmapred.job.tracker=node1:49001 -kill job_201205231120_0004

Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 1

2012-05-23 14:20:35,542 Stage-1 map = 0%,  reduce = 0%

2012-05-23 14:20:41,592 Stage-1 map = 100%,  reduce = 0%

2012-05-23 14:20:53,685 Stage-1 map = 100%,  reduce = 100%

Ended Job = job_201205231120_0004

MapReduce Jobs Launched: 

Job 0: Map: 1  Reduce: 1   HDFS Read: 239 HDFS Write: 2 SUCESS

Total MapReduce CPU Time Spent: 0 msec

OK

1

Time taken: 29.128 seconds

 

 

 

自动会在hadoop上创建Map/Reduce任务,执行统计数据

 

 

 

 

 

 

 

创建表

 

hive> CREATE TABLE pokes (foo INT, bar STRING); 

 

创建表并创建索引字段ds

 

hive> CREATE TABLE invites (foo INT, bar STRING) PARTITIONED BY (ds STRING); 

 

显示所有表

 

hive> SHOW TABLES;

 

按正条件(正则表达式)显示表,

 

hive> SHOW TABLES '.*s';

 

表添加一列 

 

hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);

 

添加一列并增加列字段注释

 

hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');

 

更改表名

 

hive> ALTER TABLE events RENAME TO 3koobecaf;

 

删除列

 

hive> DROP TABLE pokes;

 

元数据存储

 

将文件中的数据加载到表中

 

hive> LOAD DATA LOCAL INPATH './examples/files/kv1.txt' OVERWRITE INTO TABLE pokes; 

 

加载本地数据,同时给定分区信息

 

hive> LOAD DATA LOCAL INPATH './examples/files/kv2.txt' OVERWRITE INTO TABLE invites PARTITION (ds='2008-08-15');

 

加载DFS数据 ,同时给定分区信息

 

hive> LOAD DATA INPATH '/user/myname/kv2.txt' OVERWRITE INTO TABLE invites PARTITION (ds='2008-08-15');

 

The above command will load data from an HDFS file/directory to the table. Note that loading data from HDFS will result in moving the file/directory. As a result, the operation is almost instantaneous. 

 

SQL 操作

 

按先件查询

 

hive> SELECT a.foo FROM invites a WHERE a.ds='<DATE>';

 

将查询数据输出至目录

 

hive> INSERT OVERWRITE DIRECTORY '/tmp/hdfs_out' SELECT a.* FROM invites a WHERE a.ds='<DATE>';

 

将查询结果输出至本地目录

 

hive> INSERT OVERWRITE LOCAL DIRECTORY '/tmp/local_out' SELECT a.* FROM pokes a;

 

选择所有列到本地目录 

 

hive> INSERT OVERWRITE TABLE events SELECT a.* FROM profiles a;

 

hive> INSERT OVERWRITE TABLE events SELECT a.* FROM profiles a WHERE a.key < 100; 

 

hive> INSERT OVERWRITE LOCAL DIRECTORY '/tmp/reg_3' SELECT a.* FROM events a;

 

hive> INSERT OVERWRITE DIRECTORY '/tmp/reg_4' select a.invites, a.pokes FROM profiles a;

 

hive> INSERT OVERWRITE DIRECTORY '/tmp/reg_5' SELECT COUNT(1) FROM invites a WHERE a.ds='<DATE>';

 

hive> INSERT OVERWRITE DIRECTORY '/tmp/reg_5' SELECT a.foo, a.bar FROM invites a;

 

hive> INSERT OVERWRITE LOCAL DIRECTORY '/tmp/sum' SELECT SUM(a.pc) FROM pc1 a;

 

将一个表的统计结果插入另一个表中

 

hive> FROM invites a INSERT OVERWRITE TABLE events SELECT a.bar, count(1) WHERE a.foo > 0 GROUP BY a.bar;

 

hive> INSERT OVERWRITE TABLE events SELECT a.bar, count(1) FROM invites a WHERE a.foo > 0 GROUP BY a.bar;

 

JOIN

 

hive> FROM pokes t1 JOIN invites t2 ON (t1.bar = t2.bar) INSERT OVERWRITE TABLE events SELECT t1.bar, t1.foo, t2.foo;

 

将多表数据插入到同一表中

 

FROM src

 

INSERT OVERWRITE TABLE dest1 SELECT src.* WHERE src.key < 100

 

INSERT OVERWRITE TABLE dest2 SELECT src.key, src.value WHERE src.key >= 100 and src.key < 200

 

INSERT OVERWRITE TABLE dest3 PARTITION(ds='2008-04-08', hr='12') SELECT src.key WHERE src.key >= 200 and src.key < 300

 

INSERT OVERWRITE LOCAL DIRECTORY '/tmp/dest4.out' SELECT src.value WHERE src.key >= 300;

 

将文件流直接插入文件

 

hive> FROM invites a INSERT OVERWRITE TABLE events SELECT TRANSFORM(a.foo, a.bar) AS (oof, rab) USING '/bin/cat' WHERE a.ds > '2008-08-09';

 

This streams the data in the map phase through the script /bin/cat (like hadoop streaming). Similarly - streaming can be used on the reduce side (please see the Hive Tutorial or examples) 

 

实际示例

 

创建一个表

 

CREATE TABLE u_data (

 

userid INT,

 

movieid INT,

 

rating INT,

 

unixtime STRING)

 

ROW FORMAT DELIMITED

 

FIELDS TERMINATED BY '\t'

 

STORED AS TEXTFILE;

 

下载示例数据文件,并解压缩

 

wget http://www.grouplens.org/system/files/ml-data.tar__0.gz

 

tar xvzf ml-data.tar__0.gz

 

加载数据到表中

 

LOAD DATA LOCAL INPATH 'ml-data/u.data'

 

OVERWRITE INTO TABLE u_data;

 

统计数据总量

 

SELECT COUNT(1) FROM u_data;

 

现在做一些复杂的数据分析

 

创建一个 weekday_mapper.py: 文件,作为数据按周进行分割 

 

import sys

 

import datetime

 

for line in sys.stdin:

 

line = line.strip()

 

userid, movieid, rating, unixtime = line.split('\t')

 

生成数据的周信息

 

weekday = datetime.datetime.fromtimestamp(float(unixtime)).isoweekday()

 

print '\t'.join([userid, movieid, rating, str(weekday)])

 

使用映射脚本

 

//创建表,按分割符分割行中的字段值

 

CREATE TABLE u_data_new (

 

userid INT,

 

movieid INT,

 

rating INT,

 

weekday INT)

 

ROW FORMAT DELIMITED

 

FIELDS TERMINATED BY '\t';

 

//将python文件加载到系统

 

add FILE weekday_mapper.py;

 

将数据按周进行分割

 

INSERT OVERWRITE TABLE u_data_new

 

SELECT

 

TRANSFORM (userid, movieid, rating, unixtime)

 

USING 'python weekday_mapper.py'

 

AS (userid, movieid, rating, weekday)

 

FROM u_data;

 

SELECT weekday, COUNT(1)

 

FROM u_data_new

 

GROUP BY weekday;

分享到:
评论

相关推荐

    基于springboot+Javaweb的二手图书交易系统源码数据库文档.zip

    基于springboot+Javaweb的二手图书交易系统源码数据库文档.zip

    Linux课程设计.doc

    Linux课程设计.doc

    课程考试的概要介绍与分析

    课程考试资源描述 本资源是为应对各类课程考试而精心准备的综合性学习包。它包含了多门学科的考试指南、历年真题、模拟试题以及详细的答案解析。这些资源旨在帮助学生系统复习课程内容,理解考试要点,提高解题技巧,从而在考试中取得优异成绩。 资源中不仅包含了基础的考试资料,还特别加入了考试技巧讲解和备考策略分析。学生可以通过这些资源了解不同题型的解题方法和思路,学会如何在有限的时间内高效答题。此外,还有针对弱项科目和难点的专项训练,帮助学生攻克学习瓶颈。 为了确保资源的时效性和准确性,我们会定期更新考试资料和模拟试题,及时反映最新的考试动态和趋势。同时,也提供了在线交流平台,方便学生之间互相讨论、分享学习心得。 项目源码示例(简化版,Python) 以下是一个简单的Python脚本示例,用于生成包含选择题和答案的模拟试题: python import random # 定义选择题题库 questions = [ {"question": "Python的创始人是谁?", "options": ["A. 林纳斯·托瓦兹", "B. 巴纳姆", "C. 比尔·盖茨", "D.

    基于Django的食堂点餐系统

    基于 MySQL+Django 实现校园食堂点餐系统。 主要环境: PowerDesigner MySQL Workbench 8.0 CE Python 3.8 Django 3.2.8 BootStrap 3.3.7 Django-simpleui

    基于SpringBoot的同城宠物照看系统源码数据库文档.zip

    基于SpringBoot的同城宠物照看系统源码数据库文档.zip

    value_at_a_point.ipynb

    GEE训练教程

    基于springboot+Web的心理健康交流系统源码数据库文档.zip

    基于springboot+Web的心理健康交流系统源码数据库文档.zip

    kotlin 实践微信插件助手, 目前支持抢红包(支持微信最新版本 7.0.0及7.0.3).zip

    微信小程序 kotlin 实践微信插件助手, 目前支持抢红包(支持微信最新版本 7.0.0及7.0.3).zip

    N32G45X运放电路检测电压

    N32G45X运放电路检测电压

    梦幻西游道人20241121数据

    梦幻西游道人是梦幻西游里面的一个NPC,主要是刷全服最实惠的高级兽决和其他很好用的比较贵的东西,在长安城、傲来国、长寿村中的任意一个场景出现,一般会出现30分钟,不过东西一般都被秒刷。 梦幻西游道人出现时间解析如下: 1.梦幻西游道人出现时间一直都保持着一年出现两次的规律,即2、3月份的元宵节期间来一次,9月份的教师节期间出现一次。 2.云游道人每个整点(0:00至7:00不出现)会在长安城、傲来国、长寿村中的任意一个场景出现,每次出现后停留时间为30分钟。

    tables-3.7.0-cp38-cp38-win_amd64.whl

    tables-3.7.0-cp38-cp38-win_amd64.whl

    基于springboot旧物回收管理系统源码数据库文档.zip

    基于springboot旧物回收管理系统源码数据库文档.zip

    MariaDB集群部署手册word版最新版本

    MariaDB数据库管理系统是MySQL的一个分支,主要由开源社区在维护,采用GPL授权许可 MariaDB的目的是完全兼容MySQL,包括API和命令行,使之能轻松成为MySQL的代替品。在存储引擎方面,使用XtraDB(英语:XtraDB)来代替MySQL的InnoDB。 本文档介绍了MariaDB 10.1的集群部署,至少三台机器做成集群,每台可以同时提供读和写,感兴趣的小伙伴们可以参考一下

    JavaScript语言教程:基础语法、DOM操作、事件处理及新特性详解

    内容概要:本文档全面介绍了JavaScript作为一种轻量级的、解释型的语言及其在前端开发中的广泛应用。从JavaScript的基本概念出发,详尽讲解了基础语法(如变量、数据类型、运算符、流程控制)、函数和闭包、对象和原型、DOM操作(如获取、修改、添加和删除元素)、事件处理(如事件监听器、事件对象)、AJAX与Fetch API、ES6+的新特性(如箭头函数、模板字符串、解构赋值)以及前端框架和库(React、Vue、Angular)。除此之外,文章还涉及了代码优化技巧(如减少DOM操作、选择适当的算法和数据结构、使用工具提升代码性能),并对JavaScript的应用场景和发展趋势进行了展望。 适用人群:适用于初学者或具有少量编程经验的学习者,旨在帮助他们系统掌握JavaScript基础知识和前沿技术。 使用场景及目标:通过本教程的学习,读者不仅可以学会基本语法,还能理解并掌握高级概念和技术,如DOM操纵、事件处理机制、异步编程及最新的ECMAScript规范。这不仅有助于改善用户体验、增强网站互动性和响应速度,也能有效提升自身的编码水平和项目开发能力。 其他说明:此文档不仅涵盖了JavaScript的传统功能,还有现代前端技术和最佳实践指导,确保读者能够紧跟行业发展步伐,成为合格甚至优秀的Web开发人员。

    毕业设计&课设_安卓公交线路查询 app(含架构技术、数据格式及数据库相关说明).zip

    该资源内项目源码是个人的课程设计、毕业设计,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! ## 项目备注 1、该资源内项目代码都经过严格测试运行成功才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。

    基于springboot高考志愿智能推荐系统源码数据库文档.zip

    基于springboot高考志愿智能推荐系统源码数据库文档.zip

    经典-FPGA时序约束教程

    经典-FPGA时序约束教程

    mcu交互实验整体文件

    mcu交互实验整体文件

    Collins COBUILD (CN).mdx

    Collins COBUILD (CN).mdx

    自定义springboot starter,提供HelloService

    自定义springboot starter

Global site tag (gtag.js) - Google Analytics