`

sqoop1: import to hive partitioned table

 
阅读更多

mysql table user



 

hive metastore table

 



sqoop import scripts

 

import --verbose --connect jdbc:mysql://192.168.122.1:3306/sample 
--username zhaohj --password 123456 
--table user 
--split-by user_id 
-m 2 
--hive-import 
--hive-database user 
--hive-partition-key first_letter
--create-hive-table

 


Imported Failed: Partition key first_letter cannot be a column to import.

 

 

 --------------------

 

 

import --verbose --connect jdbc:mysql://192.168.122.1:3306/inok 
--username zhaohj --password 123456 
--table user --split-by user_id 
-m 2 
--hive-database user 
--hive-table user 
--hive-import

 

 

 Need to specify partition columns because the destination table is partitioned

 

 -----------------------------------------

dynamic partition

1. set hive-site.xml

hive.exec.dynamic.partition=true

hive.exec.dynamic.partition.mode=nonstrict

 

2.create partition table in hive

 

 

3.import data from mysql to hive dynamic partition table

 

 

 

References

https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL

https://issues.apache.org/jira/browse/SQOOP-312

http://www.2cto.com/kf/201207/144807.html

https://cwiki.apache.org/confluence/display/Hive/DynamicPartitions

https://cwiki.apache.org/confluence/display/Hive/Tutorial#Tutorial-DynamicpartitionInsert

http://docs.hortonworks.com/HDPDocuments/HDP1/HDP-1.3.2/bk_dataintegration/content/ch_using-sqoop-hcat-integration.html

 

blogs

http://www.qubole.com/5-tips-for-efficient-hive-queries/

https://gist.github.com/bugcy013/7188933

  • 大小: 15 KB
  • 大小: 14.1 KB
分享到:
评论

相关推荐

    Sqoop导Oracle数据到Hive

    sqoop import --connect jdbc:oracle:thin:@192.168.91.4:1521:ORCL --username JIAOTONG --password dsjyjy123456 --table HADOOP_EVENT_INFO --hive-import -m 1 --fields-terminated-by '\n' --lines-terminated-...

    数据同步Sqoop用法之mysql与Hive导入导出.docx

    Sqoop 用法之 MySQL 与 Hive 导入导出 Sqoop 是一个专门用于将 Hadoop 和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如:MySQL、Oracle、Postgres 等)中的数据导进到 Hadoop 的 HDFS 中,也...

    sqoop-1.4.7.zip

    1. 将`sqoop-1.4.7.jar`复制到`$SQOOP_HOME/lib`目录下,其中`$SQOOP_HOME`是你的Sqoop安装目录。 2. 如果有其他依赖JAR,也应一并放入`lib`目录。 3. 更新环境变量`CLASSPATH`,包括`$SQOOP_HOME/lib`目录。 4. ...

    Sqoop通过Phoenix导hbase数据到hive

    at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:515) at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:621) at org.apache.sqoop.Sqoop.run(Sqoop.java:147) at org.apache.hadoop...

    Sqoop中文文档

    Sqoop的使用主要分为四个方面:codegen、create-hive-table、eval和 import。 2. codegen codegen是Sqoop中的一个重要功能,该功能可以将关系数据库中的表映射为一个Java文件、Java class类以及相关的jar包。...

    sqoop-1.4.6.2.3.99.0-195.jar..zip

    编译Atlas用 sqoop-1.4.6.2.3.99.0-195.jar 内含安装jar包以及maven手动安装命令 详情可参考我的博客: https://blog.csdn.net/qq_26502245/article/details/108008070

    Hadoop hbase hive sqoop集群环境安装配置及使用文档

    大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...

    sqoop导入数据到hive中,数据不一致

    在大数据处理领域,Sqoop和Hive是两个重要的工具,分别用于数据迁移和数据仓库管理。当使用Sqoop将数据导入Hive时,有时可能会遇到数据不一致的问题,这可能是由于多种原因引起的。本文将深入探讨这个问题,并提供...

    HBbase HIVE Sqoop介绍说明

    Hadoop HBbase HIVE Sqoop概念介绍说明,及和RDBMS的比较

    sqoop1使用必备

    sqoop import –connect jdbc:mysql://localhost:3306/hive –username root –password 123456 –table user –split-by id –hive-import ``` - **连接字符串**:同上。 - **表名**:user,即要导入的数据库表。 ...

    Sqoop数据采集工具简介、安装、使用学习笔记(配合Hive和Hbase)

    基于这些考量,最终选择了 Sqoop1 版本,并直接将数据导入到 Hive 或 HBase 中。 ### Sqoop1 与 Sqoop2 区别 - **RDBMS -> Hive/HBase**:Sqoop1 支持此功能,而 Sqoop2 不支持。对于 Sqoop2,可以通过先将数据...

    bdp2hive:生成hive分区表、sqoop导入数据至hive

    bdp2hive项目介绍一、概述项目主要是集成生成sqoop脚本和创建hive分区表组件。生成sqoop脚本组件主要通过传递的数据库信息查询数据库获取表字段与数据集之间的对照关系SQL语句,通过模板拼接成sqoop脚本,上传服务器...

    2、sqoop导入(RMDB-mysql、sybase到HDFS-hive)

    sqoop import --direct --connect jdbc:mysql://<hostname>:<port>/<database> --username <username> --password <password> --table my_mysql_table --hive-import --hive-overwrite --hive-table my_hive_table ...

    yinian_hive_increase_sqoop:sqoop从mysql同步数据到hive

    【标题】"yinian_hive_increase_sqoop:sqoop从mysql同步数据到hive" 描述了一种使用Apache Sqoop工具将数据从MySQL数据库高效地导入到Hadoop的Hive数据仓库的过程。这个过程在大数据处理中至关重要,因为它允许用户...

    Atlas2.3.0依赖: org.restlet/sqoop-1.4.6.2.3.99.0-195

    在IT行业中,我们经常涉及到各种库和框架的集成与使用,这次我们关注的是"Atlas2.3.0"依赖的组件:"org.restlet/sqoop-1.4.6.2.3.99.0-195"。这个依赖包含了三个关键的JAR文件:`sqoop-1.4.6.2.3.99.0-195.jar`,`...

    java连接sqoop源码-docker-hive:docker-hive

    java连接sqoop源码 hive 的安装依赖于hadoop ,上节基于docker的hadoop安装参见 所以hive的安装是在hadoop的image基础上进行的。 第一步 完成hadoop的iamge构建 按照 完成hadoop 的image 构建 第二步 完成mysql的...

    sqoop从mysql中导入数据到parquet格式的hive中

    sqoop导入数据到hive

    sqoop学习文档(2){Sqoop import、Sqoop export}.docx

    Sqoop 还可以直接将数据导入到 Hive,通过 `--hive-import` 开启此功能。可以使用 `--hive-overwrite` 覆盖现有数据,`--hive-table` 设置目标 Hive 表名。导入数据会先存放在默认的 HDFS 用户目录,然后迁移至 ...

Global site tag (gtag.js) - Google Analytics