1.上传sqoop
2.安装和配置
在添加sqoop到环境变量
将数据库连接驱动拷贝到$SQOOP_HOME/lib里
3.使用
第一类:数据库中的数据导入到HDFS上
sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123 --table ofPresence --columns 'username , offlinePresence,offlineDate'
指定输出路径、指定数据分隔符
sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123 --table ofPresence --target-dir '/sqoop/td' --fields-terminated-by '\t'
指定Map数量 -m
sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123 --table ofPresence --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2
增加where条件, 注意:条件必须用引号引起来
sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123 --table ofPresence --where 'id>3' --target-dir '/sqoop/td2'
增加query语句(使用 \ 将语句换行)
sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123 \
--query 'SELECT * FROM ofPresence where username > 2 AND $CONDITIONS' --split-by username .id --target-dir '/sqoop/td3'
注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
第二类:将HDFS上的数据导出到数据库中(不要忘记指定分隔符)
sqoop export --connect jdbc:mysql://10.1.19.244:3306/openfire--username root --password 123 --export-dir '/td3' --table hd_001 -m 1 --fields-terminated-by ','
4. 遇到的错误
manager.SqlManager: Error reading from database: java.sql.SQLException: Streaming result set com.mysql.jdbc.RowDataDynamic@555b6c34 is still active. No statements may be issued when any streaming result sets are open and in use on a given connection. Ensure that you have called .close() on any active streaming result sets before attempting more queries.
这个错误是由于mysql的驱动版本不对导致的,下载跟mysql版本一直的驱动即可
相关推荐
- Sqoop:是一个开源工具,用于在Hadoop和关系数据库之间高效地传输大量数据。 - Oozie:是一个用于管理Hadoop作业的工作流调度系统。 - Avro:是一种数据序列化系统,用于高效的跨语言数据交换。 - HDFS Federation...
Sqoop是一个用于在Hadoop和关系数据库或大型机之间传输数据的工具。您可以使用Sqoop将关系数据库管理系统(RDBMS)(如MySQL或Oracle或大型机)中的数据导入Hadoop分布式文件系统(HDFS),转换Hadoop MapReduce中的...
Hadoop 学习笔记 Hadoop 是 Apache 开源组织的一个分布式计算开源框架,提供了一个分布式文件系统子项目(HDFS)和支持 MapReduce 分布式计算的软件架构。 其核心就是 HDFS 和 MapReduce。HBase、Hive 等,这些都是...
Spark是大数据处理框架,支持批处理、交互式查询(Spark SQL)、流处理和机器学习。安装Spark需下载二进制包,配置Hadoop相关参数,然后启动Spark服务。 7. **HDFS**: HDFS是Hadoop分布式文件系统,所有组件都...
Sqoop是Apache Hadoop生态系统中的一款重要工具,主要负责在关系型数据库管理系统(如MySQL)和Hadoop的HDFS、Hive、HBase之间进行数据的迁移。自2009年成立以来,它从最初的Hadoop模块发展成为独立的Apache项目。...
本文将详细探讨Hadoop课程笔记中的关键知识点,涵盖大数据的基础概念、Hadoop的组成部分以及其在不同场景中的应用。 首先,大数据技术是为了解决海量数据的存储和计算问题而诞生的。大数据的定义强调了其"5V"特点,...
大数据学习笔记 本资源摘要信息涵盖了大数据领域中的多个方面,包括Hadoop、HBase、Sqoop、Spark和Hive等...大数据学习笔记涵盖了Hadoop、HBase、Sqoop、Spark和Hive等技术栈,提供了对大数据领域的深入了解和掌握。
在IT领域,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分析。它的核心组件包括Hadoop分布式文件系统(HDFS)和MapReduce计算模型。本文将深入探讨HDFS的基本原理和操作,以及如何通过Java API进行文件...
广义的Hadoop生态系统则包含了更多辅助工具,如Flume用于日志数据采集,Sqoop用于关系型数据库数据导入导出,Hive提供SQL接口处理Hadoop上的数据,Hbase是面向大数据的分布式数据库,适用于实时查询。 【Hadoop课程...
本篇笔记主要围绕 Sqoop 的使用场景、安装步骤以及如何配合 Hive 和 Hbase 使用进行展开。 #### 二、数据传输流程设计 最初的设计方案是通过 Sqoop 将数据从 PostgreSQL 导入到 Kafka,再通过存储程序将 Kafka 的...
这个“hadoop笔记”可能包含了关于Hadoop生态系统、Hadoop分布式文件系统(HDFS)、MapReduce编程模型、YARN资源管理器以及相关工具的详细学习记录。现在,让我们深入探讨一下这些关键知识点。 1. Hadoop生态系统:...
3. Sqoop:用于将关系数据库的数据导入导出到Hadoop,便于传统BI工具与Hadoop的交互。 4. Oozie:工作流管理系统,协调Hadoop相关的作业和工作流。 5. ZooKeeper:提供分布式协调服务,用于管理和监控Hadoop集群。...
【标题】"传智黑马赵星老师hadoop七天课程资料笔记-第六天(全)" 涵盖了Hadoop生态系统中的重要组件HBase的相关知识。HBase是基于Hadoop的分布式非关系型数据库,特别适合处理大规模数据。在本课程的第六天,赵星老师...
学习笔记 来自在线课程的综合说明: 大数据 -从加州大学圣地亚哥分校释放海量数据集中的价值 Randal Scott King学习 Hadoop 2 来自加州大学圣地亚哥分校的Hadoop 平台和应用程序框架 目录 第一节 Hadoop生态系统概述...
本资料包“大数据学习笔记,学习路线,技术案例整理”是一个全面的大数据学习资源,旨在帮助初学者和进阶者系统地掌握大数据的核心技术和应用实践。 首先,我们来了解一下大数据的关键概念和技术栈。大数据通常有四...
6. "Hive学习内容总结.xlsx":这个文件很可能包含了Hive的语法、查询技巧、最佳实践等学习笔记,是深入理解Hive的好资料。 通过这些文件,用户不仅可以学习到Hadoop和Hive的基本概念、安装和使用,还能了解到...
在大数据领域,"big-data-101"通常是指对大数据技术基础的全面介绍,而这个压缩包文件涉及了几个关键组件,包括Hadoop、Python、Jupyter Notebook、Sqoop和Hive。这些工具和技术是大数据处理和分析的核心,下面将...
手把手教你搭建分布式Hadoop家族集群视频教程(视频+讲义+笔记+配置),内容包括 Hadoop,SQOOP,Hive,Hbase的安装配置及集群搭建。内容包括但不限于: 01_回顾集群架构及配置集群时间同步 02_配置主节点与从节点...