`

sqoop2 使用实例

 
阅读更多

启动Client

/usr/hadoop/sqoop-1.99.5-cdh5.5.1-bin-hadoop200/bin/sqoop.sh client

 

为客户端配置服务器:set server --host node3--port 12000 --webapp sqoop 【红色部分为 本机hostname 主机名和端口号】

sqoop:000> set server --host node3--port 12000 --webapp sqoop

 

使用 show version --all 查看服务器配置

sqoop:000> show version --all

 

1、 使用 show connector  查看sqoop的所有连接,sqoop1.99.5 所有的连接固定为四个,如下:

sqoop:000> show connector 
+----+------------------------+-----------------+------------------------------------------------------+----------------------+
| Id |          Name          |     Version     |                        Class                         | Supported Directions |
+----+------------------------+-----------------+------------------------------------------------------+----------------------+
| 1  | kite-connector         | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.kite.KiteConnector        | FROM/TO              |
| 2  | kafka-connector        | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.kafka.KafkaConnector      | TO                   |
| 3  | hdfs-connector         | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.hdfs.HdfsConnector        | FROM/TO              |
| 4  | generic-jdbc-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | FROM/TO              |
+----+------------------------+-----------------+------------------------------------------------------+----------------------+

 2、 在向hdfs导入导出数据时,需要依赖以上四个连接创建link (在1.99.4版本之后 用户不需要再创建连接)

首先 查看 当前的所有link

sqoop:000> show link
+----+---------------------+--------------+------------------------+---------+
| Id |        Name         | Connector Id |     Connector Name     | Enabled |
+----+---------------------+--------------+------------------------+---------+
| 1  | hdfs_link           | 3            | hdfs-connector         | true    |
| 2  | mysql_openfire_link | 4            | generic-jdbc-connector | true    |
+----+---------------------+--------------+------------------------+---------+

 查看job

sqoop:000> show job
+----+-------------------------+----------------+--------------+---------+
| Id |          Name           | From Connector | To Connector | Enabled |
+----+-------------------------+----------------+--------------+---------+
| 1  | openfire_properties_job | 4              | 3            | true    |
+----+-------------------------+----------------+--------------+---------+

 

3、 创建 link

   创建hdfs连接

sqoop:000> create link --cid 3
Creating link for connector with id 1
Please fill following values to create new link object
Name: hdfs_link --设置连接名称
Link configuration
HDFS URI: hdfs://ns1/ --HDFS访问地址
New link was successfully created with validation status OK and persistent id 2

 创建 mysql 连接

sqoop:000> create link --cid 4
Creating link for connector with id 2
Please fill following values to create new link object
Name: mysql_openfire_link --设置连接名称
Link configuration
JDBC Driver Class: com.mysql.jdbc.Driver --驱动
JDBC Connection String: jdbc:mysql://mysql.server/database --JDBC连接
Username: sqoop --数据库用户
Password: ***** --数据库密码
JDBC Connection Properties:
There are currently 0 values in the map:
entry#protocol=tcp --之后按回车
New link was successfully created with validation status OK and persistent id 1

 

5、 创建job

sqoop:000> create job -f 2 -t 1
Creating job for links with from id 1 and to id 6
Please fill following values to create new job object
Name: mysql_openfire--设置 任务名称
FromJob configuration
Schema name:(Required)sqoop --库名:必填
Table name:(Required)sqoop --表名:必填
Table SQL statement:(Optional) --选填
Table column names:(Optional) --选填
Partition column name:(Optional) id --选填
Null value allowed for the partition column:(Optional) --选填
Boundary query:(Optional) --选填
ToJob configuration
Output format:
0 : TEXT_FILE
1 : SEQUENCE_FILE
Output format:
0 : TEXT_FILE
1 : SEQUENCE_FILE
Choose: 0 --选择文件压缩格式
Compression format:
0 : NONE
1 : DEFAULT
2 : DEFLATE
3 : GZIP
4 : BZIP2
5 : LZO
6 : LZ4
7 : SNAPPY
8 : CUSTOM
Choose: 0 --选择压缩类型
Custom compression format:(Optional) --选填
Output directory:hdfs:/ns1/sqoop --HDFS存储目录(目的地)
Driver Config
Extractors: 2 --提取器
Loaders: 2 --加载器
New job was successfully created with validation status OK and persistent id 1

 

查看job

sqoop:000> show job
+----+-------------------------+----------------+--------------+---------+
| Id |          Name           | From Connector | To Connector | Enabled |
+----+-------------------------+----------------+--------------+---------+
| 1  | openfire_properties_job | 4              | 3            | true    |
+----+-------------------------+----------------+--------------+---------+

 

 

 常用命令列表

sqoop:001> show link 显示所有链接

sqoop:001> carete link --cid 1床架连接

sqoop:000> delete link --lid 1 删除link
sqoop:001> show job 显示所有job

sqoop:001> create job --f 2 --t 1 创建job ( 从link 2 向link 1导入数据)
sqoop:000> start job --jid 1 启动job
sqoop:000> status job --jid 1 查看导入状态

sqoop:000> delete job --jid 1 删除job

 

 

 

 

 

 

 

 

 

 

 

  • 大小: 4.8 KB
  • 大小: 13.2 KB
分享到:
评论

相关推荐

    sqoop2-1.99.7 documentation 英文文档

    ### Sqoop2-1.99.7 文档概述 #### 一、Sqoop简介 Apache Sqoop 是一个工具,用于高效地在结构化、半结构化和非结构化数据源之间传输数据。例如,关系型数据库是具有明确数据模式的结构化数据源的示例;Cassandra ...

    sqoop的例子

    本文详细的介绍了sqoop应用中的一个例子,让你快速掌握sqoop入门

    sqoop-1.4.2.bin__hadoop-2.0.0-alpha.tar

    总的来说,"sqoop-1.4.2.bin__hadoop-2.0.0-alpha.tar" 提供了一个与 Hadoop 2.0.0-alpha 兼容的 Sqoop 实例,是进行大数据分析前数据预处理的重要工具。理解和熟练掌握 Sqoop 的使用,能极大地提升数据导入和导出的...

    sqoop配置.docx

    本文详细介绍了如何在Hadoop2.6伪分布环境中安装配置Sqoop1.4.6,并通过具体的实例演示了如何将数据从MySQL导入到HDFS以及从HDFS导出到MySQL的过程。通过这些步骤,您可以更深入地理解Sqoop的工作原理及其在大数据...

    Apache Sqoop Cookbook

    此外,书中还详细解释了如何使用Sqoop进行数据导入和导出,如使用`import`和`export`命令,以及如何处理复杂的数据类型和分隔符。 对于数据转换,Sqoop提供了丰富的转换操作,如使用自定义MapReduce任务进行数据...

    Sqoop用户指南

    ### Sqoop用户指南知识点概述 #### 一、引言与版本支持 ...通过以上知识点的详细介绍, 用户可以全面了解如何使用Sqoop进行数据导入导出、数据验证、调度管理和高级特性等操作, 并能够解决实际应用中遇到的各种问题。

    sqooputil.zip

    2. **创建Sqoop连接器实例**:使用`org.apache.sqoop.ConnFactory`创建一个连接器实例,然后用上面的数据库连接信息初始化。 ```java Properties props = new Properties(); props.setProperty("connection....

    java连接sqoop源码-sqoop-v2:sqoop支持多数据源导出

    1. **构建连接**:在Java中,我们需要使用`SqoopClient`接口来建立与Sqoop服务的连接。这个接口定义了一系列方法,用于执行导入、导出和其他操作。连接通常通过提供Sqoop服务器的URL和认证信息(如果需要)来初始化...

    sqoop安装手册

    在这个例子中,使用的版本是 sqoop-1.4.4.bin__hadoop-2.0.4-alpha.tar.gz。你可以通过 SCP 命令将安装包上传到服务器,并使用 SSH 登录到服务器进行解压。解压后,为了方便管理,通常会重命名目录,例如这里将其...

    java大数据案例_7Flume、Kafka、Sqoop、Lucene

    ### Java大数据案例详解:Flume、Kafka、Sqoop、Lucene #### 一、Flume日志收集至HDFS 在大数据处理流程中,数据的收集与传输是非常关键的一环。Apache Flume是一个分布式的、可靠的、高可用的系统,用于有效地...

    大数据处理技术中Sqoop与HBase的数据交互详解

    使用场景及目标:旨在帮助技术人员熟练掌握利用 Sqoop 实现大规模数据在异构存储系统间迁移的最佳实践,从而提高数据处理效率。通过具体实例的操作,使用户能够在生产环境中安全稳定地应用这些技能。 其他说明:文档...

    《Hadoop大数据开发实战》教学教案—10Sqoop.pdf

    安装完成后,要学习使用 Sqoop 命令行工具进行操作,包括连接数据库、查看数据库表、创建导入导出作业等。 在数据导入部分,学生需要掌握如何使用 Sqoop 将 MySQL 等 RDBMS 中的数据导入到 HDFS。这涉及到选择合适...

    java-json.jar.zip

    首先,我们关注到标签提及了"Sqoop报错 Java",这暗示了可能是在使用Apache Sqoop进行数据迁移时遇到了与Java和JSON相关的错误。Sqoop是一款工具,用于将结构化数据从关系数据库导入到Hadoop,或者反向导出数据。在...

    精品课程推荐 大数据与云计算教程课件 优质大数据课程 25.Sqoop(共19页).pptx

    课程中详细阐述了Sqoop的安装、使用,包括连接器的概念,以及如何使用Sqoop进行数据导入和导出的实例。 课程还涵盖了Flume,一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。Kafka是一个分布式流...

    大数据实例:网站用户行为分析.docx

    本资源摘要信息旨在总结网站用户行为分析的相关知识点,涵盖大数据处理、Linux系统、MySQL、Hadoop、HBase、Hive、Sqoop、R、Eclipse等系统和软件的安装和使用方法。 一、案例简介 本案例涉及数据预处理、存储、...

    commons-lang3-3.9-bin.tar.gz

    在这里,我们了解到使用的是sqoop1的1.4.7版本,这是一个较早但稳定版本的工具。 关于Apache Commons Lang 3.9,这个库包含了许多实用的工具类,例如字符串处理、数组操作、日期和时间函数、数学运算、反射辅助类等...

Global site tag (gtag.js) - Google Analytics