`
zhangxiong0301
  • 浏览: 359397 次
社区版块
存档分类
最新评论

hbase结合hive和sqoop实现导数据到mysql

阅读更多
hive整合hbase表的两点好处:
   1.实现数据导入到MYSQL。
   2.实现hbase表转换为另外一张hbase表。



三个操作环节:
    1.hbase关联hive作为外部表:
CREATE EXTERNAL TABLE hive_device_app(row_key string,genera_type string,install_type string,label string,meid string,model string,pkg_name string,specific_type string) 
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,cf:genera_type,cf:install_type,cf:label,cf:meid,cf:model,cf:pkg_name,cf:specific_type") 
TBLPROPERTIES("hbase.table.name" = "tb_yl_device_app_info1");


   2.hbase真正关联hive,hive的插入更新等操作直接影响hbase中的数据
 
CREATE  TABLE hbase_device_app(row_key string,genera_type string,install_type string,label string,meid string,model string,pkg_name string,specific_type string) 
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,cf:genera_type,cf:install_type,cf:label,cf:meid,cf:model,cf:pkg_name,cf:specific_type") 
TBLPROPERTIES("hbase.table.name" = "tb_yl_device_app_info2");

  
   3.创建一张hive表
CREATE TABLE hive_device_app_real(row_key string,genera_type string,install_type string,label string,meid string,model string,pkg_name string,specific_type string) 


   4.外部表数据导入hive实表
   
insert overwrite table hive_device_app_real select * from hive_device_app 

    5.sqoop导出hive的数据到mysql
   
sqoop export --connect jdbc:mysql://Hadoop48/toplists -m 1 --table hive_device_app_real --export-dir /user/hive/warehouse/hive_device_app_real/000000_0 --input-null-string "\\\\N" --input-null-non-string "\\\\N" --input-fields-terminated-by "\\01" --input-lines-terminated-by "\\n"

   
   6.habse(关联hive)中一张表转到另外一张表当然可以利用hive的内置函数实现数据处理
  
insert overwrite table another_hive_hbase_related_table select * from hbase_device_app 



导出hbase中数据到mysql需要经过步骤:1345
hbase中一张表到另外一张表(中间可以利用hive内置函数做数据处理):226


分享到:
评论

相关推荐

    hadoop搭建 zookeeper_hbase_hive_sqoop_mysql_spark_hdfs.doc

    MySQL作为Hive的元数据存储,需要安装MySQL服务器,创建Hive相关的数据库和表,并配置Hive连接MySQL的连接参数。 5. **Kafka**: Kafka是一个高吞吐量的分布式消息系统,常用于实时数据流处理。在Hadoop环境中,...

    全分布式集群Hadoop全套组件解压即可使用包含(Ubuntu-HDFS-HBASE-HIve-Sqoop-mysql....)

    1.集群配置,包含三个结点,主节点控制所有的子节点 2.集群已经搭建好了,解压之后...3.包含全套组件:hdfs,hbase,hive,sqoop,mysql,pig,spark等大数据组件 4.如果不知道如何使用,或者需要做Hadoop项目可以私信博主

    sqoop把mysql数据导入hbase2.1.6

    首先,Sqoop不仅支持将数据从关系型数据库如MySQL导入到HDFS或Hive,还能直接导入到HBase。关键在于正确使用参数: 1. `--hbase-table`:此参数用于指定导入的数据应存储在哪个HBase表中。不指定的话,数据将被导入...

    flume、hive和sqoop的实用案例

    flume、hive和sqoop的实用案例:flume收集日志hive负责处理数据sqoop负责将数据导出到mysql中供页面展示

    hadoop安装文件.rar,内涵hadoop安装的步骤word,hadoop、hive、hbase、sqoop、mysql等

    通过Sqoop,我们可以将结构化的数据导入到Hadoop的HDFS中,或者将Hadoop中的数据导出到关系数据库。安装Sqoop需要确保已安装Hadoop和JDBC驱动,配置相关环境变量,如SQOOP_HOME,然后下载并解压Sqoop的源码或二进制...

    Hive、MySQL、HBase数据互导

    【Hive、MySQL、HBase数据互导】是大数据领域常见的数据处理操作,涉及三个不同的数据存储系统。Hive是一个基于Hadoop的数据仓库工具,它允许使用类SQL的查询语言HiveQL对大规模数据进行批处理和分析。MySQL是一种...

    zookeeper+hadoop+hbase+hive(集成hbase)安装部署教程(超详细).docx

    mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 :sudo mkdir -p /export/server 创建好目录后要改变该目录的属主和属...

    Sqoop数据采集工具简介、安装、使用学习笔记(配合Hive和Hbase)

    - **Hive/HBase -> RDBMS**:两者均不支持直接转换,但可以通过以下步骤实现:先将数据从 Hive 或 HBase 导出到 HDFS,再从 HDFS 导出到 RDBMS。 #### 三、Sqoop1 的安装 - **版本选择**:选择 Sqoop 1.4.6 版本。...

    hbase导出csv,文本,html文件

    描述中提到的方法是首先通过HBase的条件查询功能筛选出所需的数据,然后将这些数据导出到Hive中。Hive提供了更灵活的数据处理能力,可以方便地对数据进行聚合、筛选、排序等操作。一旦数据在Hive中准备就绪,可以将...

    分布式数据库课程设计+基于Hbase的滴滴出行数据分析+Hive+Hadoop+Mysql+Sqoop+可视化

    使用 Sqoop 将 Hive 中处理后的数据导出到 MySQL 数据库,这样可以将大数据分析的结果与传统的业务系统结合,方便进行报表展示和业务决策。 4. 数据可视化展示 最后,通过 Python 编程实现对 MySQL 中数据的可视化...

    Sqoop安装及MySQL、HDFS、Hive、HBase 数据迁移实验

    文中介绍了通过 Sqoop 在 MySQL 和 HDFS 之间、MySQL 和 Hive 之间以及 MySQL 和 HBase 之间的数据互导过程,包括如何处理常见的错误。同时,也详细记录了 MySQL 用户创建、授权、数据插入和 Sqoop 配置的相关细节。...

    大数据实例:网站用户行为分析.docx

    本资源摘要信息旨在总结网站用户行为分析的相关知识点,涵盖大数据处理、Linux系统、MySQL、Hadoop、HBase、Hive、Sqoop、R、Eclipse等系统和软件的安装和使用方法。 一、案例简介 本案例涉及数据预处理、存储、...

    基于HBase和Hive的芒果TV综艺弹幕数据分析

    8. **Sqoop**:Sqoop是一个用于在Hadoop和传统数据库之间传输数据的工具,它可以将数据从MySQL等关系数据库导入到Hadoop的HDFS,或者将HDFS中的数据导出到数据库。 9. **HDFS(Hadoop Distributed File System)**...

    Sqoop安装与使用

    Sqoop 工具是 Hadoop 下连接关系型数据库和 Hadoop 的桥梁,支持关系型数据库和 hive、hdfs、hbase 之间数据的相互导入。 Sqoop 的安装与使用可以分为以下几个步骤: 首先,需要安装 Sqoop 工具,Sqoop 工具的...

    spark大作业.zip

    1、熟悉Linux系统、MySQL、Spark、HBase、Hive、Sqoop、R、Eclipse、IntelliJ Idea等系统和软件的安装和使用; 2、了解大数据处理的基本流程; 3、熟悉数据预处理方法; 4、熟悉在不同类型数据库之间进行数据相互...

    23-Sqoop数据导入导出1

    本篇将详细介绍Sqoop的导入和导出过程,以及在MySQL、HDFS、Hive和HBase之间的具体操作。 ### Sqoop导入原理 1. **JDBC检查**:在开始导入前,Sqoop通过JDBC连接数据库,获取表结构和列信息,如数据类型,将其映射...

    Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署

    配置Flume涉及定义source、sink和channel,以实现数据流动。 Flink是另一种高性能的流处理框架,它在低延迟和状态管理方面有出色表现。Flink可以与Kafka集成,实现实时数据处理。 Elasticsearch是一个实时的分布式...

    Sqoop数据库数据导入导出教程PDF

    把关系型数据库的数据导入到Hadoop系统(如HDFS,Hbase和Hive中) 把数据从Hadoop系统里面抽取并导出到关系型数据库中 利用MapReduce加快数据处理速度 ·批处理方式进行数据传输 Sqoop 优势 ·¬高效、可控地利用资源 ...

    Hadoop+Hive+Mysql+Zookeeper+Hbase+Sqoop安装文档

    Hadoop+Hive+Mysql+Zookeeper+Hbase+Sqoop详细安装手册

    大数据实践-sqoop数据导入导出.doc

    在大数据处理中,Sqoop扮演着关键角色,它使得传统数据库中的数据可以方便地导入到Hadoop的HDFS(Hadoop Distributed File System)中,同时也支持将Hadoop的数据导回数据库,实现数据的双向流动。 ### 一、Sqoop的...

Global site tag (gtag.js) - Google Analytics