`

sqoop1.4.6安装

 
阅读更多

sqoop1.4.6安装

http://blog.csdn.net/linlinv3/article/details/49589615

 

 sqoop import --connect jdbc:mysql://u13:3306/hive --username hive --password hive --table test --hive-import --hive-overwrite --hive-table testt --fields-terminated-by '\t'

 

Sqoop-1.4.4工具import和export使用详解

http://shiyanjun.cn/archives/624.html

 

sqoop导入数据至hive

http://lookqlp.iteye.com/blog/1666449

使用query导入hive表 
    sqoop import --connect jdbc:postgresql://ip/db_name --username user_name  --query "select ,* from retail_tb_order where \$CONDITIONS"  --hive-import -m 5 --hive-table hive_table_name  (--hive-partition-key partition_name --hive-partition-value partititon_value); 
    注意:$CONDITIONS条件必须有,query子句若用双引号,则$CONDITIONS需要使用\转义,若使用单引号,则不需要转义。

 

从mysql增量导入hive

一通过where条件

sqoop import --connect jdbc:mysql://120.132.117.159:33306/protruly_mall_test --username inputuser --password inputpass --table mall_brand \

--where "DATE_FORMAT(CreatedDtm, '%Y-%m-%d')='2016-12-22'" --hive-import --hive-partition-key inputperiod  --hive-partition-value 2016-12-22 \

--hive-overwrite --hive-table aggregate_data.mall_brand --fields-terminated-by '\t'

 

二通过lastValue

sqoop import --connect jdbc:mysql://120.132.117.159:33306/protruly_mall_test --username inputuser --password inputpass --table mall_brand \

--hive-import --hive-overwrite --hive-table aggregate_data.mall_brand --fields-terminated-by '\t' --hive-partition-key inputperiod  --hive-partition-value 2017-03-16 \

--incremental append --check-column CreatedDtm --last-value '2017-03-15 00:00:01'

 

注意lastValue方式根据sqoop新旧版本不同参数

--incremental lastmodified -check-column (高)

--incremental append --check-column (低)

 

导出数据

 sqoop export --connect jdbc:mysql://192.168.7.22:3306/bigdata_qu?characterEncoding=utf-8  --username inputuser --password inputpass --table fact_aggregate_useractivity --export-dir /user/hive/warehouse/aggregate_data.db/fact_aggregate_useractivity/inputperiod=$partition --input-fields-terminated-by '\001' --input-lines-terminated-by '\n'  --input-fields-terminated-by '\t' --input-null-string '\\N' --input-null-non-string '\\N'  

分享到:
评论

相关推荐

    sqoop-1.4.6.bin-hadoop-2.0.4-alpha版本的压缩包,直接下载到本地,解压后即可使用

    Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,...

    sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz

    在 Hadoop 2.0.4-alpha 环境下安装 Sqoop 1.4.6,你需要按照以下步骤进行: 1. 解压下载的压缩包:`tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz` 2. 配置环境变量:在 `~/.bashrc` 或相应 shell 配置文件...

    sqoop-1.4.6.bin__hadoop-2.0.4-alpha.zip

    这个压缩包 "sqoop-1.4.6.bin__hadoop-2.0.4-alpha.zip" 包含的是Sqoop 1.4.6版本,针对Hadoop 2.0.4-alpha版本优化的二进制发行版。 **Sqoop 的核心功能:** 1. **数据导入**:Sqoop 提供了命令行接口,可以将结构...

    sqoop-1.4.6.jar.zip

    sqoop框架开发工具使用的jar sqoop-1.4.6.jar 手动安装到maven <groupId>org.apache.sqoop <artifactId>sqoop <version>1.4.6 </dependency>

    sqoop-1.4.6.jar

    sqoop-1.4.6.jar,sqoop报错找不到加载类的时候 将该文件放入sqoop的lib文件夹下

    sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.zip

    在解压 "sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz" 文件后,你将得到 Sqoop 的安装目录,其中包含以下关键文件和目录: 1. **bin**:存放 Sqoop 的可执行脚本,如 `sqoop` 命令行工具。 2. **conf**:配置文件,...

    sqoop-1.4.6

    sqoop1.4.6安装包 sqoop1.4.安装包 sqoop1.4.安装包 sqoop1.4.6安装包 sqoop1.4.安装包 sqoop1.4.安装包sqoop1.4.6安装包 sqoop1.4.安装包 sqoop1.4.安装包

    sqoop-1.4.6-cdh5.14.0

    在这个版本 "sqoop-1.4.6-cdh5.14.0" 中,它已经集成到 Cloudera Distribution Including Hadoop (CDH) 的 5.14.0 版本中,提供了更稳定和高效的数据导入导出功能。 一、Sqoop 的核心功能 1. 数据导入:Sqoop 可以...

    Sqoop_1.4.6安装包.rar

    以下是一些关于安装和使用 Sqoop 1.4.6 的关键知识点: 1. **系统需求**:确保你的系统已经安装了Hadoop环境,包括HDFS、MapReduce和YARN,以及Java开发环境(JDK)。 2. **下载和解压**:从官方仓库或第三方源...

    sqoop-1.4.6-cdh5.13.2.tar

    mv /usr/local/sqoop-1.4.6-cdh5.13.2/conf/sqoop-env.template.sh /usr/local/sqoop-1.4.6-cdh5.13.2/conf/sqoop-env.sh vi /usr/local/sqoop-1.4.6-cdh5.13.2/conf/sqoop-env.sh export HADOOP_COMMON_HOME=/usr/...

    sqoop-1.4.6-cdh5.5.0.tar.gz

    安装 Sqoop 时,通常我们会下载类似 "sqoop-1.4.6-cdh5.5.0.tar.gz" 的压缩包。这个文件包含了 Sqoop 源代码、库文件、配置文件等所有必要组件,用于在 CDH 集群上构建和部署 Sqoop。解压这个压缩包后,我们可以通过...

    sqoop-1.4.6.bin__hadoop-2.0.4-alpha安装包

    Sqoop是一个用于在Hadoop和关系数据库或大型机之间传输数据的工具。您可以使用Sqoop将关系数据库管理系统(RDBMS)中的数据导入Hadoop分布式文件系统(HDFS),转换Hadoop MapReduce中的数据,然后将数据导出回RDBMS...

    sqoop-1.4.6.tar.gz

    在这个特定的压缩包文件 "sqoop-1.4.6.tar.gz" 中,我们可以预见到 Sqoop 的 1.4.6 版本的完整源代码和相关构建文件。 Sqoop 的主要功能包括: 1. **数据导入**:它允许用户从传统的 RDBMS 导入数据到 HDFS...

    sqoop-1.4.6-cdh5.7.6.tar.gz

    大数据环境cdh5.7.6版本的sqoop压缩包 Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的...

    sqoop-1.4.6-cdh5.14.2.tar.gz

    Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也...

    sqoop-1.4.6.bin__hadoop-2.0.4-alpha

    "sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz" 表明这个文件是一个经过Gzip压缩的tar归档文件,包含了Sqoop 1.4.6版本的二进制文件,以及可能的配置文件和文档,用于在Hadoop 2.0.4-alpha环境中安装和使用。...

    sqoop-1.4.6-hadoop-2.6最小资源包

    这个"sqoop-1.4.6-hadoop-2.6 最小资源包"是针对 Sqoop 1.4.6 版本,专为运行在 Hadoop 2.6 环境优化的精简版安装包。 Sqoop 的主要功能包括: 1. **数据导入**:通过 SQL 查询语句, Sqoop 可以选择性地从数据库...

    Linkis-sqoop1.4.6引擎(已编译)

    Linkis 在上层应用程序和底层引擎之间构建了一层计算中间件。通过使用Linkis 提供的REST/WebSocket/JDBC 等标准接口,上层应用可以方便地连接访问MySQL/Spark/Hive/Presto/Flink 等底层引擎,同时实现变量、脚本、...

Global site tag (gtag.js) - Google Analytics