如果数据库类型是 date类型的就比较麻烦了,直接搞进hive 不行,因为hive只有timestamp,而去format还是 yyyy-mm-dd hh:mm:ss的
有2个办法,先导入临时表 ,临时表是string的类型(String的format是 yyyy-mm-dd),然后再往正式表里插
insert overwrite table adventureworksdw.dimdate select * from adventureworksdw.dimdate2;
我使用第二种办法,query 导入
import --connect jdbc:mysql://prchaz02823:3306/adventureworksdw2008r2 --username root --password root #--table #DimDate2 --query 'SELECT DateKey,cast(FullDateAlternateKey as datetime) FullDateAlternateKey ,DayNumberOfWeek,EnglishDayNameOfWeek,DayNumberOfMonth,DayNumberOfYear,WeekNumberOfYear,EnglishMonthName,monthNumberOfYear,CalendarQuarter,CalendarYear ,CalendarSemester,FiscalQuarter,FiscalYear,FiscalSemester frOM DimDate2 WHERE $CONDITIONS' --split-by DateKey --null-string '\\N' --null-non-string '\\N' --split-by DateKey --target-dir /home/dimdate_txt --hive-import --hive-table adventureworksdw.dimdate2 --map-column-hive FullDateAlternateKey=timestamp --hive-overwrite #--direct
把 date类型的FullDateAlternateKey 强制转换成datetime(主要是为了yyyy-mm-dd hh:mm:ss这个format), 然后指定--split-by
这样在hive 中就不需要中间表了
我这里使用的中间目录,
--target-dir /home/dimdate_txt
否则会跑到默认的目录去,这个目录肯定是会生成的。
在你跑下一次的时候,会报错该目录已经存在,可以有2种办法 一是删掉目录,二是使用append 好像.
相关推荐
在压缩包文件名“sqoop-1.4.4.bin__hadoop-2.0.4-alpha”中,我们可以看出这是Sqoop 1.4.4的二进制发行版,特别为Hadoop 2.0.4-alpha这个早期的Hadoop 2.x版本做了优化。这个二进制包包含了所有必要的文件和脚本,...
2. **Sqoop 1.4.4 版本特点**: - 支持多种数据库:包括 MySQL, PostgreSQL, Oracle, SQL Server 等。 - 改进了性能和稳定性:相比早期版本,1.4.4 在并发性和错误处理方面有所优化。 - 增强的连接器:提供了更多...
叶梓老师整理的Hadoop2.2.0+Hbase0.98.4+sqoop-1.4.4+hive-0.98.1安装手册,非常实用
sqoop资源 sqoop-1.4.4.bin__hadoop-2.0.4- gz文件
sqoop-1.4.4-cdh5.1.0.tar
在构建大数据处理环境时,Hadoop集群是核心基础,而`zookeeper3.4.12+hbase1.4.4+sqoop1.4.7+kafka2.10`这一组合则提供了集群中不可或缺的组件。让我们逐一探讨这些组件的功能、作用以及它们之间的协同工作。 **...
在本篇中,我们将深入探讨 Sqoop 1.4.6 版本在 Cloudera Distribution Including Hadoop(CDH)5.5.0 平台上的具体应用及使用细节。 首先,Sqoop 1.4.6 是该工具的一个稳定版本,它包含了多项改进和优化,比如增强...
在 Master 节点上使用 root 用户将 Sqoop 安装包解压到 /usr/local/src 目录下。 `[root@master ~]# cd /usr/local/src/` `[root@master src]# mv ./sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz .` ### 1.4.2. 实验任务...
在这个例子中,使用的版本是 sqoop-1.4.4.bin__hadoop-2.0.4-alpha.tar.gz。你可以通过 SCP 命令将安装包上传到服务器,并使用 SSH 登录到服务器进行解压。解压后,为了方便管理,通常会重命名目录,例如这里将其...
例如,在描述文件中,Sqoop 的版本为 1.4.4,Hadoop 的版本为 1.0.0,Hive 的版本为 0.11.0。 Sqoop 在连接 MySQL 时,需要指定 JDBC 连接器的路径,否则 Sqoop 将无法连接到 MySQL 数据库。 5.Sqoop 的优点和缺点 ...
### Hadoop2.2.0 + HBase0.98.1 + Sqoop1.4.4 + Hive0.13 完全安装手册 #### 前言 随着大数据技术的发展,Hadoop已经成为处理海量数据的核心框架之一。本文旨在为读者提供一套最新的Hadoop2.2.0、HBase0.98.1、...
软件版本列表包括了搭建Hadoop生态系统所需的关键组件版本,例如JDK 1.7.0_67、MySQL 5.1、Hadoop 2.3.0、HBase 0.96、Hive 0.12、SolrCloud 4.4、Storm 0.92、Kafka 2.8.0、Flume-ng 1.4.0、Sqoop 1.4.4等。...
Sqoop服务器 :male_sign: 个人资料이름오승재임찬기 역할 리드 개발자 Github :gear: 依赖模块 " dependencies " : { " aws-sdk " : " ^2.817.0 " , " clean-css " : " ~4.1.11 " , " constantinople " : " ~3.1.1 ...
1.4.4 类型 模式 函数 用户自定义函数 过滤UDF 计算UDF 加载UDF 数据处理操作 加载和存储数据 过滤数据 分组与连接数据 对数据进行排序 组合和分割数据 Pig实战 并行处理 参数代换 ...
1.4.4 类型 模式 函数 用户自定义函数 过滤UDF 计算UDF 加载UDF 数据处理操作 加载和存储数据 过滤数据 分组与连接数据 对数据进行排序 组合和分割数据 Pig实战 并行处理 参数代换 第12章 Hive 1.1 安装Hive 1.1.1 ...