`

sqoop2 安装部署、源码编译

 
阅读更多

 

 


 

1.安装准备工作:
已经装好的 hadoop 环境是cdh版本 hadoop-2.6.0 64位
下载的sqoop安装包 (不知道这个安装包支不支持64位,所以我下载的源码,然后自己编译源码)
http://archive.cloudera.com/cdh5/cdh/5/sqoop2-1.99.5-cdh5.5.1.tar.gz

源码下载地址:
http://archive.cloudera.com/cdh5/cdh/5/sqoop2-1.99.5-cdh5.5.1-src.tar.gz

编译源码

 

编译环境与hadoop的编译环境一致,详细配置请查看《Hadoop学习笔记 6 Hadoop源码编译

 


maven编译命令:
mvn clean package -Pbinary -DskipTests

如果报内存溢出:

set MAVEN_OPTS=-XX:MaxPermSize=128M

 


编译好的安装包在 sqoop2-1.99.5-cdh5.5.1/dist/target/

2.解压文件到工作目录:
tar -xzvf sqoop-1.99.5-bin-hadoop200.tar.gz -C /usr/hadoop

3.修改环境变量:
vim /etc/profile
添加如下内容:
#sqoop
export SQOOP_HOME=/usr/hadoop/sqoop-1.99.5-bin-hadoop200
export PATH=SQOOPHOME/bin:PATH
export CATALINA_HOME=SQOOPHOME/server
LOGDIR=SQOOP_HOME/logs

保存退出即时生效:
source /etc/profile


4.修改sqoop配置:
vim /usr/hadoop/sqoop-1.99.5-bin-hadoop200/server/conf/sqoop.properties
#修改指向我的hadoop安装目录
org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/usr/hadoop/hadoop-2.6.0-cdh5.5.1
#把hadoop目录下的jar包都引进来
vim /usr/hadoop/sqoop-1.99.4-bin-hadoop200/server/conf/catalina.properties
common.loader=/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/common/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/common/lib/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/hdfs/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/hdfs/lib/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/mapreduce/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/mapreduce/lib/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/tools/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/tools/lib/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/yarn/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/yarn/lib/*.jar,
/usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/httpfs/tomcat/lib/*.jar

或者
在$SQOOP_HOME中建个文件夹例如hadoop_lib,然后将这些jar包cp到此文件夹中,最后将此文件夹路径添加到common.loader属性
中,这种方法更加直观些
5.下载mysql驱动包
mysql-connector-java-5.1.32-bin.jar
并放到 /usr/hadoop/hadoop-2.6.0-cdh5.5.1/share/hadoop/httpfs/tomcat/lib/ 目录下

6.启动/停止sqoop2
/usr/hadoop/sqoop-1.99.5-bin-hadoop200/bin/sqoop.sh server start/stop
查看启动日志:
tail -500 /usr/hadoop/sqoop-1.99.5-bin-hadoop200/server/logs/catalina.out
7.进入客户端交互目录
/usr/hadoop/sqoop-1.99.5-bin-hadoop200/bin/sqoop.sh client

 

 

分享到:
评论

相关推荐

    Ambari2.75安装及HDP3.1.5集群搭建.pdf

    Ambari2.75安装及HDP3.1.5集群搭建的文档为我们详细介绍了在Linux系统中部署Ambari和HDP集群的准备工作与步骤。以下知识点将根据给定文件中提及的内容进行展开: ### 系统环境准备 在安装Ambari之前,需要对系统...

    大数据安装文档

    10. Spark安装:从spark介质下载开始,到安装maven,配置环境变量,编译源码,安装spark软件,配置环境变量和启动集群,最后进行测试。Apache Spark是一个快速、通用、可扩展的大数据处理引擎。 11. 集群监控部署:...

    oozie-5.2.1-distro.tar.gz

    **源码编译与安装:** 解压"oozie-5.2.1"后,开发者需要按照特定步骤编译和安装Oozie。首先,需要配置环境,包括设置Java环境变量,安装Maven构建工具,以及确保所有依赖库的可用性。然后,使用Maven的`mvn install`...

    oozie 4.0.1 hadoop2.3.0 安装

    3. **Maven** 已安装并且配置正确,以便于编译Oozie源代码。 4. **MySQL或其他数据库** 已准备好用于存储Oozie的工作流元数据。 #### 三、Oozie 4.0.1 的安装步骤 ##### 1. 下载Oozie源码 - 访问官方镜像站点:...

    Hadoop配置文档

    5. **源码编译与安装**: 对于开发者来说,了解Hadoop源码结构和编译过程至关重要。这通常包括获取源码、修改配置、编译和打包,以及最后的安装部署。使用Apache Maven或Gradle等构建工具可以简化这一过程。 6. **...

    HADOOP学习

    #### 十二、Hadoop源码编译 - **准备环境**:确保系统已安装JDK 1.7和Maven 3.0。 - **依赖下载与配置**:下载并配置Protobuf、FindBugs等依赖。 - **编译流程**:进入Hadoop源码目录,遵循编译文档进行编译。 以上...

Global site tag (gtag.js) - Google Analytics