启动Client
/usr/hadoop/sqoop-1.99.5-cdh5.5.1-bin-hadoop200/bin/sqoop.sh client
为客户端配置服务器:set server --host node3--port 12000 --webapp sqoop 【红色部分为 本机hostname 主机名和端口号】
sqoop:000> set server --host node3--port 12000 --webapp sqoop
使用 show version --all 查看服务器配置
sqoop:000> show version --all
1、 使用 show connector 查看sqoop的所有连接,sqoop1.99.5 所有的连接固定为四个,如下:
sqoop:000> show connector +----+------------------------+-----------------+------------------------------------------------------+----------------------+ | Id | Name | Version | Class | Supported Directions | +----+------------------------+-----------------+------------------------------------------------------+----------------------+ | 1 | kite-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.kite.KiteConnector | FROM/TO | | 2 | kafka-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.kafka.KafkaConnector | TO | | 3 | hdfs-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.hdfs.HdfsConnector | FROM/TO | | 4 | generic-jdbc-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | FROM/TO | +----+------------------------+-----------------+------------------------------------------------------+----------------------+
2、 在向hdfs导入导出数据时,需要依赖以上四个连接创建link (在1.99.4版本之后 用户不需要再创建连接)
首先 查看 当前的所有link
sqoop:000> show link +----+---------------------+--------------+------------------------+---------+ | Id | Name | Connector Id | Connector Name | Enabled | +----+---------------------+--------------+------------------------+---------+ | 1 | hdfs_link | 3 | hdfs-connector | true | | 2 | mysql_openfire_link | 4 | generic-jdbc-connector | true | +----+---------------------+--------------+------------------------+---------+
查看job
sqoop:000> show job +----+-------------------------+----------------+--------------+---------+ | Id | Name | From Connector | To Connector | Enabled | +----+-------------------------+----------------+--------------+---------+ | 1 | openfire_properties_job | 4 | 3 | true | +----+-------------------------+----------------+--------------+---------+
3、 创建 link
创建hdfs连接
sqoop:000> create link --cid 3 Creating link for connector with id 1 Please fill following values to create new link object Name: hdfs_link --设置连接名称 Link configuration HDFS URI: hdfs://ns1/ --HDFS访问地址 New link was successfully created with validation status OK and persistent id 2
创建 mysql 连接
sqoop:000> create link --cid 4 Creating link for connector with id 2 Please fill following values to create new link object Name: mysql_openfire_link --设置连接名称 Link configuration JDBC Driver Class: com.mysql.jdbc.Driver --驱动 JDBC Connection String: jdbc:mysql://mysql.server/database --JDBC连接 Username: sqoop --数据库用户 Password: ***** --数据库密码 JDBC Connection Properties: There are currently 0 values in the map: entry#protocol=tcp --之后按回车 New link was successfully created with validation status OK and persistent id 1
5、 创建job
sqoop:000> create job -f 2 -t 1 Creating job for links with from id 1 and to id 6 Please fill following values to create new job object Name: mysql_openfire--设置 任务名称 FromJob configuration Schema name:(Required)sqoop --库名:必填 Table name:(Required)sqoop --表名:必填 Table SQL statement:(Optional) --选填 Table column names:(Optional) --选填 Partition column name:(Optional) id --选填 Null value allowed for the partition column:(Optional) --选填 Boundary query:(Optional) --选填 ToJob configuration Output format: 0 : TEXT_FILE 1 : SEQUENCE_FILE Output format: 0 : TEXT_FILE 1 : SEQUENCE_FILE Choose: 0 --选择文件压缩格式 Compression format: 0 : NONE 1 : DEFAULT 2 : DEFLATE 3 : GZIP 4 : BZIP2 5 : LZO 6 : LZ4 7 : SNAPPY 8 : CUSTOM Choose: 0 --选择压缩类型 Custom compression format:(Optional) --选填 Output directory:hdfs:/ns1/sqoop --HDFS存储目录(目的地) Driver Config Extractors: 2 --提取器 Loaders: 2 --加载器 New job was successfully created with validation status OK and persistent id 1
查看job
sqoop:000> show job +----+-------------------------+----------------+--------------+---------+ | Id | Name | From Connector | To Connector | Enabled | +----+-------------------------+----------------+--------------+---------+ | 1 | openfire_properties_job | 4 | 3 | true | +----+-------------------------+----------------+--------------+---------+
常用命令列表
sqoop:001> show link 显示所有链接
sqoop:001> carete link --cid 1床架连接
sqoop:000> delete link --lid 1 删除link
sqoop:001> show job 显示所有job
sqoop:001> create job --f 2 --t 1 创建job ( 从link 2 向link 1导入数据)
sqoop:000> start job --jid 1 启动job
sqoop:000> status job --jid 1 查看导入状态
sqoop:000> delete job --jid 1 删除job
相关推荐
### Sqoop2-1.99.7 文档概述 #### 一、Sqoop简介 Apache Sqoop 是一个工具,用于高效地在结构化、半结构化和非结构化数据源之间传输数据。例如,关系型数据库是具有明确数据模式的结构化数据源的示例;Cassandra ...
本文详细的介绍了sqoop应用中的一个例子,让你快速掌握sqoop入门
总的来说,"sqoop-1.4.2.bin__hadoop-2.0.0-alpha.tar" 提供了一个与 Hadoop 2.0.0-alpha 兼容的 Sqoop 实例,是进行大数据分析前数据预处理的重要工具。理解和熟练掌握 Sqoop 的使用,能极大地提升数据导入和导出的...
本文详细介绍了如何在Hadoop2.6伪分布环境中安装配置Sqoop1.4.6,并通过具体的实例演示了如何将数据从MySQL导入到HDFS以及从HDFS导出到MySQL的过程。通过这些步骤,您可以更深入地理解Sqoop的工作原理及其在大数据...
此外,书中还详细解释了如何使用Sqoop进行数据导入和导出,如使用`import`和`export`命令,以及如何处理复杂的数据类型和分隔符。 对于数据转换,Sqoop提供了丰富的转换操作,如使用自定义MapReduce任务进行数据...
### Sqoop用户指南知识点概述 #### 一、引言与版本支持 ...通过以上知识点的详细介绍, 用户可以全面了解如何使用Sqoop进行数据导入导出、数据验证、调度管理和高级特性等操作, 并能够解决实际应用中遇到的各种问题。
2. **创建Sqoop连接器实例**:使用`org.apache.sqoop.ConnFactory`创建一个连接器实例,然后用上面的数据库连接信息初始化。 ```java Properties props = new Properties(); props.setProperty("connection....
1. **构建连接**:在Java中,我们需要使用`SqoopClient`接口来建立与Sqoop服务的连接。这个接口定义了一系列方法,用于执行导入、导出和其他操作。连接通常通过提供Sqoop服务器的URL和认证信息(如果需要)来初始化...
在这个例子中,使用的版本是 sqoop-1.4.4.bin__hadoop-2.0.4-alpha.tar.gz。你可以通过 SCP 命令将安装包上传到服务器,并使用 SSH 登录到服务器进行解压。解压后,为了方便管理,通常会重命名目录,例如这里将其...
### Java大数据案例详解:Flume、Kafka、Sqoop、Lucene #### 一、Flume日志收集至HDFS 在大数据处理流程中,数据的收集与传输是非常关键的一环。Apache Flume是一个分布式的、可靠的、高可用的系统,用于有效地...
使用场景及目标:旨在帮助技术人员熟练掌握利用 Sqoop 实现大规模数据在异构存储系统间迁移的最佳实践,从而提高数据处理效率。通过具体实例的操作,使用户能够在生产环境中安全稳定地应用这些技能。 其他说明:文档...
安装完成后,要学习使用 Sqoop 命令行工具进行操作,包括连接数据库、查看数据库表、创建导入导出作业等。 在数据导入部分,学生需要掌握如何使用 Sqoop 将 MySQL 等 RDBMS 中的数据导入到 HDFS。这涉及到选择合适...
首先,我们关注到标签提及了"Sqoop报错 Java",这暗示了可能是在使用Apache Sqoop进行数据迁移时遇到了与Java和JSON相关的错误。Sqoop是一款工具,用于将结构化数据从关系数据库导入到Hadoop,或者反向导出数据。在...
课程中详细阐述了Sqoop的安装、使用,包括连接器的概念,以及如何使用Sqoop进行数据导入和导出的实例。 课程还涵盖了Flume,一个分布式、可靠且可用于有效收集、聚合和移动大量日志数据的系统。Kafka是一个分布式流...
本资源摘要信息旨在总结网站用户行为分析的相关知识点,涵盖大数据处理、Linux系统、MySQL、Hadoop、HBase、Hive、Sqoop、R、Eclipse等系统和软件的安装和使用方法。 一、案例简介 本案例涉及数据预处理、存储、...
在这里,我们了解到使用的是sqoop1的1.4.7版本,这是一个较早但稳定版本的工具。 关于Apache Commons Lang 3.9,这个库包含了许多实用的工具类,例如字符串处理、数组操作、日期和时间函数、数学运算、反射辅助类等...