使用 sqoop-1.99.3-bin-hadoop200
配置如下
1.解压
tar -xvf sqoop--bin-hadoop.tar.gz
2.加入配置文件 server/conf/catalina.properties 中的common.loader 属性加入hadoop2的lib
因为hadoop_home 下的lib是空的 所以指向
/home/hadoop-2.3.0/share/hadoop/common/*.jar
/home/hadoop-2.3.0/share/hadoop/common/lib/*.jar
/home/hadoop-2.3.0/share/hadoop/yarn/*.jar
/home/hadoop-2.3.0/share/hadoop/hdfs/*.jar
/home/hadoop-2.3.0/share/hadoop/mapreduce/*.jar
启动后发现有问题, 查看 sqoop_home/server/log 报错了
Mar 19, 2014 8:08:55 AM org.apache.catalina.core.StandardContext listenerStart
SEVERE: Exception sending context initialized event to listener instance of class org.apache.sqoop.server.ServerInitializer
java.lang.RuntimeException: Failure in server initialization
at org.apache.sqoop.core.SqoopServer.initialize(SqoopServer.java:57)
Caused by: org.apache.sqoop.common.SqoopException: MAPREDUCE_0002:Failure on submission engine initialization - Invalid Hadoop configuration directory (not a directory or permission issues): /etc/hadoop/conf/
at org.apache.sqoop.submission.mapreduce.MapreduceSubmissionEngine.initialize(MapreduceSubmissionEngine.java:94)
at org.apache.sqoop.framework.JobManager.initialize(JobManager.java:215)
at org.apache.sqoop.core.SqoopServer.initialize(SqoopServer.java:53)
... 25 more
找到了 server/conf/sqoop.properties 里面的属性要改成
# Hadoop configuration directory
#org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/etc/hadoop/conf/
org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/home/hadoop-2.3.0/etc/hadoop
查看log 没有错误.进入./bin/sqoop.sh client
show version --all 查看有没错误。再次确认启动成功.
建立一个connection 根据提示输入
create connection --cid 1 (connection id为1)
Creating connection for connector with id 1
Please fill following values to create new connection object
Name: VPRCFJTBCOBI-02
Connection configuration
JDBC Driver Class: com.microsoft.sqlserver.jdbc.SQLServerDriver
JDBC Connection String: jdbc:sqlserver://VPRCFJTBCOBI-02\\BOE140:62064;DatabaseName=AdventureWorksDW2008R2;useUnicode=true;characterEncoding=UTF-8
Username: sa
Password: ********
JDBC Connection Properties:
There are currently 0 values in the map:
entry#
Security related configuration options
Max connections: 0
New connection was successfully created with validation status FINE and persistent id 2
查看下成果
show connector
+----+------------------------+---------+------------------------------------------------------+
| Id | Name | Version | Class |
+----+------------------------+---------+------------------------------------------------------+
| 1 | generic-jdbc-connector | 1.99.3 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector |
show connection
+----+-----------------+-----------+---------+
| Id | Name | Connector | Enabled |
+----+-----------------+-----------+---------+
| 2 | VPRCFJTBCOBI-02 | 1 | true |
+----+-----------------+-----------+---------+
PS 建错了connection 就删了 delete connection --xid 1 也可以update connection --xid 1
相关推荐
apache-atlas-2.3.0-hbase-hook.tar.gz Apache Atlas 框架是一组可扩展的核心基础治理服务,使企业能够有效且高效地满足 Hadoop 内的合规性要求,并允许与整个企业数据生态系统集成。这将通过使用规范和取证模型、...
Apache Sqoop 是另一个重要的组件,它是用来高效地在关系型数据库和Hadoop之间导入导出数据的工具。而Zookeeper则是Apache的一个分布式协调服务,它为分布式应用程序提供了可靠的同步、命名服务等。 `apache-atlas-...
在IT行业中,我们经常涉及到各种库和框架的集成与使用,这次我们关注的是"Atlas2.3.0"依赖的组件:"org.restlet/sqoop-1.4.6.2.3.99.0-195"。这个依赖包含了三个关键的JAR文件:`sqoop-1.4.6.2.3.99.0-195.jar`,`...
在大数据处理领域,Oozie是一个非常重要的工作流调度系统,它被广泛应用于Hadoop生态系统中,用于管理和调度Hadoop相关的任务,如MapReduce、Pig、Hive、Sqoop等。Oozie的核心功能是协调工作流程,监控作业状态,并...
软件版本列表包括了搭建Hadoop生态系统所需的关键组件版本,例如JDK 1.7.0_67、MySQL 5.1、Hadoop 2.3.0、HBase 0.96、Hive 0.12、SolrCloud 4.4、Storm 0.92、Kafka 2.8.0、Flume-ng 1.4.0、Sqoop 1.4.4等。...
【大数据平台搭建实验手册-罗登1】是关于构建大数据处理环境的一份详细指南,主要涵盖了Hadoop生态系统中的多个组件的安装与配置。本实验由罗登同学在信息科学与技术专业的计算机科学与技术课程中完成,使用了章鱼...
* Ambari 的作用是创建、管理、监视 Hadoop 的集群,包括 Hadoop 整个生态圈(例如 Hive、HBase、Sqoop、Zookeeper 等)。 * Ambari 现在所支持的平台组件也越来越多,例如流行的 Spark、Storm 等计算框架,以及资源...
使用Python的爬虫技术可以自动化地从中国电影网等平台抓取历史票房数据。这些数据包括但不限于电影名称、上映日期、首日票房、每日票房变化等,为后续的分析和预测提供了基础。爬虫技术通常会涉及到如BeautifulSoup...
开发环境:IDEA+Pycharm+Python3+hadoop2.8+hive2.3.0+mysql5.7+sqoop+spark 1.数据采集(pachong.py)、预处理: 采集豆瓣电影top250电影信息,采集电影名称、电影简介、电影评分、其他信息、电影连接等字段,抓取...
开发环境:IDEA+Pycharm+Python3+hadoop2.8+hive2.3.0+mysql5.7+sqoop+spark 1.数据采集(pachong.py)、预处理: 采集豆瓣电影top250电影信息,采集电影名称、电影简介、电影评分、其他信息、电影连接等字段,抓取...