首先:版本号
sqoop1.99.6 (也就是sqoop2)
hadoop2.6.0
。。。。
之前说过了hadoop的安装和配置。在这就不多说了。
sqoop的安装和配置我也是照的文档一步步来的。。。。下面是几张比较有用飞机票:
sqoop2安装
sqoop2安装(较详细)
基本差不多;;;
下面啰嗦一下我遇到的一些问题(俗话说得好:有问题看日志。日志路径:${sqoop_home}/logs/sqoop.log 和 ${sqoop_home}/server/logs/catalina.out)
1. jdbc问题
安装完sqoop,进入客户端。
输入以下命令 show connector 可以清楚地看到
link config 1:
Name: linkConfig
Label: Link configuration
Help: You must supply the information requested in order to create a link object.
Input 1:
Name: linkConfig.jdbcDriver
Label: JDBC Driver Class
Help: Enter the fully qualified class name of the JDBC driver that will be used for establishing this connection.Note: The driver jar must be in the sqoop lib directory.
也就是说,要将 jar包放到 sqoop/lib 文件夹下。没有的话新建一个。按理说就可以了。。。但是我还是报错
,大体意思就是找不到ojdbc.jar。上网找了半天,我就试着把jar包在webapps里面也放了一个。结果可以了。 路径是:sqoop/server/sqoop/webapps/web_inf/lib (论坛那群老玻璃,发个帖半天不回
)
2.hdfs向oracle导数据(export)
问题1 文件的分隔符
只能是‘,’分隔。不要问为什么,,,代码中写死了
。如果要改,只能是改代码,重新编译
问题2 master:10020 拒绝访问
这个问题不常见。是服务未开启。飞机票:10020号端口
3.oracle向hdfs导数据(import)
主要问题就是create job的时候参数填写。
下面给官方的demo import demo
再给几个我当时参考的文章。
针对sqoop1.99.6 从jdbc向hdfs中抽取数据的几点感想
Sqoop2从Mysql导入Hdfs (hadoop-2.7.1,Sqoop 1.99.6)
Sqoop1.99.3基础操作 导入Oracle的数据到HDFS
mysql和oracle一样的。就是create link的时候,有两个地方不一样。
再一次谢谢各位的飞机票,就不一一写了
分享到:
相关推荐
使用Sqoop在Oracle数据库和HDFS之间进行导入和导出 内容 使用 操作系统-Ubuntu 20.04.1 LTS(VMware) 后端-Java (JDK 1.8), Sqoop(v1.4.7) , Hadoop(v3.3.0) 库-OJDBC(v7),commons-lang-2.6.jar ...
Sqoop 是一个强大的工具,它在大数据领域中起到了桥梁的作用,允许用户在关系型数据库(如 Oracle)和 Hadoop 分布式文件系统(HDFS)之间进行数据迁移。Hadoop 是一个开源的分布式计算框架,它以其高可靠性、高扩展...
本文档旨在帮助读者理解如何使用sqoop2的Java API将数据从Oracle数据库迁移至HDFS(Hadoop Distributed File System),同时分享了作者在实践中遇到的一些问题及解决方案。为确保能够顺利地运行示例代码,建议先按照...
### Sqoop导入数据到HDFS路径详解 #### 一、Sqoop简介 ...通过以上详细解析和说明,我们不仅了解了如何使用Sqoop将数据从MySQL导入到HDFS中,还学习了一些高级用法和注意事项,这对于实际操作中解决问题非常有帮助。
在这个"Sqoop-sqlserver-hdfs.rar"压缩包中,我们有两个关键文件:sqljdbc.jar和sqoop-sqlserver-1.0.tar.gz,它们是实现SQL Server到HDFS数据迁移的关键组件。 首先,`sqljdbc.jar`是Microsoft提供的Java驱动程序...
本文档旨在帮助读者理解如何使用Sqoop2的Java API将数据从Oracle数据库迁移至Hadoop分布式文件系统(HDFS)。为了顺利完成这一过程,本文档提供了一套详细的操作指南,包括环境搭建、命令熟悉以及API开发等环节。...
### Sqoop将SQLServer数据表导入HDFS #### 一、引言 随着大数据技术的发展,数据集成成为了处理异构数据源的关键环节之一。Sqoop作为一款开源工具,旨在简化传统的关系型数据库(如SQL Server)与Hadoop生态系统...
本文将详细介绍如何使用Sqoop将Oracle数据库中的数据导入到Hive表中,通过具体的命令行示例,帮助读者理解整个过程。 #### 二、准备工作 在进行数据导入之前,需要确保以下条件已满足: 1. **安装并配置好Oracle...
实战Sqoop数据导入及大数据用户行为案例分析(全套视频+代码+工具+课件讲义) 内容包括: 01_CDH版本框架的介绍 02_CDH版本框架的环境部署 03_Sqoop的介绍及其实现原理 04_Sqoop的安装部署及连接测试 05_Sqoop将...
文中介绍了通过 Sqoop 在 MySQL 和 HDFS 之间、MySQL 和 Hive 之间以及 MySQL 和 HBase 之间的数据互导过程,包括如何处理常见的错误。同时,也详细记录了 MySQL 用户创建、授权、数据插入和 Sqoop 配置的相关细节。...
Sqoop是一款开源的数据迁移工具,主要用于在关系型数据库(如Oracle)和Hadoop之间进行数据导入导出。在本场景中,"sqoop连接Oracle11.2.0.2.0的驱动包"指的是使用Sqoop从Oracle数据库中提取数据时需要的特定驱动...
当使用Sqoop将数据导入Hive时,有时可能会遇到数据不一致的问题,这可能是由于多种原因引起的。本文将深入探讨这个问题,并提供可能的解决方案。 Sqoop是一个用于在关系数据库和Hadoop之间传输数据的工具,它可以...
Sqoop 工具是 Hadoop 下连接关系型数据库和 Hadoop 的桥梁,支持关系型数据库和 hive、hdfs、hbase 之间数据的相互导入。 Sqoop 的安装与使用可以分为以下几个步骤: 首先,需要安装 Sqoop 工具,Sqoop 工具的...
使用sqoop2从mysql导入hadoop时,导入的数据带单引号。是由于sqoop2的一个bug导致,该包上传到sqoop_home/server/lib替换原来的jar包后,重启sqoop server,即可解决。
使用场景及目标在于让读者了解并掌握企业环境中常用的Sqoop命令来实现实时批量移动数据的功能,熟悉各种选项的具体含义,从而能够灵活运用到实际工作中解决多源异构系统间的数据交换问题。 另外值得注意的是文中...
4. 为Sqoop添加MySQL驱动:在进行数据导入之前,需要确保Sqoop能识别和连接到MySQL数据库,这通常需要添加相应的JDBC驱动。 在实验过程中,也涉及到了Linux命令行操作和SQL语句的编写。对于SQL部分,演示了如何创建...
内容概要:本文介绍了如何使用 Sqoop 在 HBase 和关系型数据库(如 MySQL 或 PostgreSQL)之间进行数据导入和导出。首先,文中详细描述了使用 Sqoop 导入数据的具体步骤,包括前提条件、创建 HBase 表以及执行 Sqoop...
【Hadoop环境搭建】 在构建一个完整的Hadoop生态系统时,我们需要搭建多个组件,包括Zookeeper、HBase、Hive、MySQL、Kafka以及Spark,并且...在实际操作中,可能还会遇到各种问题,需要根据错误日志进行排查和解决。
Apache Sqoop 是一个用于在关系型数据库(如 MySQL 和 Sybase)与 Hadoop 分布式文件系统(HDFS)之间高效传输数据的工具。在大数据处理中,Sqoop 提供了方便的数据导入和导出功能,它能够将结构化的数据从传统...
Sqoop 是一个用于在 Hadoop 和关系型数据库之间进行数据导入导出的工具,它使得在大数据处理场景下,能够方便地将结构化的数据从 MySQL 这样的 RDBMS(关系型数据库管理系统)转移到 Hadoop 的 HDFS(Hadoop 分布式...