`

sqoop2 常见问题 以及处理方式

 
阅读更多
一、报错:The specified function "connection" is not recognized.
原因是版本不一样,SQOOP 1.99.4以后命令就变了: 具体看这
里:https://sqoop.apache.org/docs/1.99.4/CommandLineClient.html#create-link-function

 二、sqoop端口冲突

要注意一下$SQOOP_HOME/server/conf/server.xml中的tomcat端口问题,确保这些端口不会和你其他tomcat服务器冲突。

 

三、在start job(如:start job --jid 2)时常见错误:

Exception has occurred during processing command
Exception: org.apache.sqoop.common.SqoopException Message: CLIENT_0001:Server has returned exception

 

在sqoop客户端设置查看job详情:

set option --name verbose --value true
start job --jid 2

四、 使用 status job --jid 1 查看job状态时, 报错:

java.io.IOException: java.net.ConnectException: Call from node3 /192.168.182.100 to 0.0.0.0:10020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

 

出现这样的问题有两方面原因:

1、 在hadoop的配置文件mapper-site.xml文件中没有指定mapreduce.jobhistory.address属性,该属性确定MR的记录访问的目标主机以及端口号,原因知道了就好办了,在mapper-site.xml文件中添加上这个属性

<property>
                <name>mapreduce.jobhistory.address</name>
                <value>node3:10020</value>
 </property>

 

2、JobHistoryServer进程没有启动, 通过mr-jobhistory-daemon.sh启动即可
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/sbin/mr-jobhistory-daemon.sh start historyserver


 

 

 

分享到:
评论
1 楼 ghostband 2016-11-08  
sqoop:000> start job -j 3 -s
Exception has occurred during processing command
Exception: org.apache.sqoop.common.SqoopException Message: CLIENT_0001:Server has returned exception


您好,请问一下,每次执行job出现这种错误是什么问题呢

日志中是这样
Exception in PUT http://localhost:12000/sqoop/v1/job/3/start
org.apache.sqoop.common.SqoopException: GENERIC_JDBC_CONNECTOR_0005:No column is found to partition data

在分区数据中找不到列 

这里定义job的时候,
Job with id 4 and name mysql-hdfs (Enabled: true, Created by stb at 11/7/16 6:02 PM, Updated by stb at 11/7/16 6:02 PM)
Using link id 1 and Connector id 4
  From database configuration
    Schema name: mytest
    Table name: student
    Table SQL statement:
    Table column names:
    Partition column name:
    Null value allowed for the partition column:
    Boundary query:
  Throttling resources
    Extractors: 2
    Loaders: 2
  ToJob configuration
    Override null value:
    Null value:
    Output format: TEXT_FILE
    Compression format: NONE
    Custom compression format:
    Output directory: /user/stb/student

Schema name 和 table name 都是填的mysql的。

相关推荐

    sqoop连接db2的驱动包

    2. **放置驱动包**:为了使Sqoop能够识别并使用这些驱动,你需要将它们复制到Hadoop生态系统的lib目录。对于Hive,这通常是`HIVE_HOME/lib`;对于Sqoop,这通常是`SQOOP_HOME/lib`。确保这两个JAR文件都放入正确的...

    sqoop2 java API从oracle导数据到HDFS开发总结

    本文档旨在帮助读者理解如何使用sqoop2的Java API将数据从Oracle数据库迁移至HDFS(Hadoop Distributed File System),同时分享了作者在实践中遇到的一些问题及解决方案。为确保能够顺利地运行示例代码,建议先按照...

    sqoop-javabean-sqoop脚本分隔符失效问题

    在问题解决过程中,利用 Sqoop 提供的调试工具和日志信息是非常有帮助的。对于“F_TM_TRADEMARK.java”这个文件,它可能是一个由Sqoop生成的Java Bean类,用于表示数据库表`F_TM_TRADEMARK`的数据结构,这也可能是...

    sqoop1-1.4.6 documentation 英文文档

    ### Sqoop 1.4.6 用户指南 ...总结起来,Sqoop 1.4.6 提供了一套全面的数据迁移解决方案,涵盖了从数据导入、导出、验证到自动化作业等功能。无论是对于初学者还是高级用户来说,都是一款强大而实用的工具。

    sqoop-1.4.5

    下面我们将深入探讨Sqoop的功能、架构以及如何在Hadoop 2.x环境中配置和使用它。 1. **Sqoop功能**: - 数据导入: Sqoop可以将结构化数据从传统的关系型数据库迁移到Hadoop的分布式文件系统(HDFS)。 - 数据...

    sqoop-1.4.6-cdh5.14.0

    4. 日志监控:关注 Sqoop 运行日志,及时发现并解决问题。 总的来说,Sqoop 是连接 Hadoop 生态系统与传统数据库的重要桥梁,它的高效、灵活和易用性使其在大数据处理领域扮演着不可或缺的角色。理解并熟练掌握 ...

    sqoop 使用手册

    通过这份Sqoop手册,你可以深入理解 Sqoop 的使用方法,掌握如何配置和调优 Sqoop 任务,以及如何解决常见问题。对于需要在 Hadoop 和 RDBMS 之间进行数据交换的场景,Sqoop 是一个非常实用的工具。

    sqoop-1.4.6.tar.gz

    2. **数据导出**:同样,Sqoop 也支持将处理后的数据从 Hadoop 回写到 RDBMS,这使得 Hadoop 的结果可以用于企业现有的业务系统。 3. **元数据迁移**:Sqoop 可以迁移 RDBMS 的表结构和索引信息,帮助在 Hadoop 中...

    sqoop1.4.7

    下面我们将深入探讨Sqoop的功能、架构、工作原理以及如何使用 Sqoop-1.4.7.bin__hadoop-2.6.0 这个压缩包进行数据迁移。 **一、Sqoop的功能** 1. **数据导入**:Sqoop可以将结构化数据从传统的关系型数据库如MySQL...

    sqoop把mysql数据导入hbase2.1.6

    在本文中,我们将详细介绍如何进行这个操作,以及解决可能出现的问题。 首先,Sqoop不仅支持将数据从关系型数据库如MySQL导入到HDFS或Hive,还能直接导入到HBase。关键在于正确使用参数: 1. `--hbase-table`:此...

    sqoop免费版

    在安装和配置Sqoop时,可能会遇到一些常见的问题,比如环境变量未正确设置、Hadoop依赖未正确配置、数据库连接参数错误等。这些问题通常可以通过检查和修正以下几点来解决: 1. **环境变量配置**:确保你的系统环境...

    Sqoop 导入数据异常处理

    写在前面 我在直接下载...问题2. Exception in thread “main” java.lang.NoClassDefFoundError: org/json/JSONObject 解决方法: 这是因为sqoop缺少java-json.jar包 下载java-json.jar包: http

    sqoop-1.4.6.bin__hadoop-0.23.tar.gz

    它弥补了传统 ETL 工具在大数据处理场景下的不足,提供了一种简单、灵活的方式来将结构化数据迁移至 Hadoop 生态系统中进行分析。 Sqoop-1.4.6.bin__hadoop-0.23.tar.gz 是一个包含 Sqoop 版本 1.4.6 和与之兼容的...

    sqoop1.4.5用户手册.docx

    对于非 Linux 系统(如 Windows 或 Mac OS X),可能需要使用 Cygwin 或解决特定平台的兼容性问题。Linux 系统通常被认为是运行 Sqoop 的最佳选择。 在实际操作中,理解基本的计算机知识、命令行操作、RDBMS 和 ...

    Apache Sqoop Cookbook

    #### 六、Apache Sqoop常见问题及解决方法 1. **连接数据库失败**:检查数据库连接字符串是否正确,确保数据库服务器处于运行状态。 2. **数据类型不匹配**:在执行数据导入操作前,应仔细核对源表和目标表之间的...

    Sqoop安装及MySQL、HDFS、Hive、HBase 数据迁移实验

    文中介绍了通过 Sqoop 在 MySQL 和 HDFS 之间、MySQL 和 Hive 之间以及 MySQL 和 HBase 之间的数据互导过程,包括如何处理常见的错误。同时,也详细记录了 MySQL 用户创建、授权、数据插入和 Sqoop 配置的相关细节。...

    mysql-connector-5.1.39,配合sqoop1.4.7和hive2.1.1使用

    这个连接器遵循JDBC(Java Database Connectivity)标准,使得Java开发者能够方便地执行SQL查询,管理数据,以及实现事务处理等功能。 `sqoop1.4.7`是一款开源工具,专门设计用来在Apache Hadoop和关系型数据库之间...

    Apache Hadoop---Sqoop.docx

    Apache Hadoop 中的 Sqoop 是一个专门为大数据处理设计的数据交换工具,它主要负责在Hadoop的分布式文件系统(HDFS)和关系型数据库管理系统(RDBMS)之间进行数据迁移。由于其简单高效的特性,Sqoop 成为了在大数据...

    Sqoop将SQLServer数据表导入HDFS

    #### 五、常见问题及解决方法 ##### 1. Java Runtime Environment (JRE)版本不支持问题 在执行Sqoop操作时可能会遇到类似错误提示:“Java Runtime Environment (JRE) version 1.7 is not supported by this driver...

Global site tag (gtag.js) - Google Analytics