- 浏览: 142591 次
- 性别:
- 来自: 上海
最新评论
-
xueyinv86:
你这个增强版的wordcount是在哪个版本的hadoop上跑 ...
MapReduce入门程序WordCount增强版 -
chenjianjx:
很不错的收集!
几篇关于Hadoop+Hive数据仓库的入门文章 -
canedy:
import org.apache.hadoop.hbase. ...
使用HBase的一个典型例子,涉及了HBase中很多概念 -
天籁の圁:
你的图全部挂了啊
基于Eclipse的Hadoop应用开发环境的配置 -
landyer:
happinesss 写道你是做java开发的吗我是杂货铺,什 ...
MongoDB1.8安装、分布式自动分片(Auto-Sharding)配置备忘
版权声明:转载时请以超链接形式标明文章原始出处和作者信息及本声明 http://ilovejavaforever.javaeye.com/blog/760731
引言: 原本打算把所有hive相关的sql语法,全部写下来,但是写着写着,发现自己仅仅是在翻译hive的wiki,没有什么有价值的东西,就停止了。今天心情郁闷,又看到这篇一个月前写的学习笔记,防止它永远封存于硬盘。发上来,以资纪念。 hive sql 学习笔记(1) 一、 创建表 [ROW FORMAT DELIMITED]关键字,是用来设置创建的表在加载数据的时候,支持的列分隔符; 那么我们创建一张普通的hive表,hive sql就如下: 其中,hive支持的字段类型,并不多,可以简单的理解为数字类型和字符串类型,详细列表如下: Hive的表,与普通关系型数据库,如mysql在表上有很大的区别,所有hive的表都是一个文件,它是基于Hadoop的文件系统来做的。 hive总体来说可以总结为三种不同类型的表。 2. 外部表 3. 分区表 Hive的排序,因为底层实现的关系,比较不同于普通排序,这里先不讲。 桶的概念,主要是为性能考虑,可以理解为对分区内列,进行再次划分,提高性能。在底层,一个桶其实是一个文件。如果桶划分过多,会导致文件数量暴增,一旦达到系统文件数量的上限,就杯具了。哪种是最优数量,这个哥也不知道。 分区表实际是一个文件夹,表名即文件夹名。每个分区,实际是表名这个文件夹下面的不同文件。分区可以根据时间、地点等等进行划分。比如,每天一个分区,等于每天存每天的数据;或者每个城市,存放每个城市的数据。每次查询数据的时候,只要写下类似 where pt=2010_08_23这样的条件即可查询指定时间得数据。 总体而言,普通表,类似mysql的表结构,外部表的意义更多是指数据的路径映射。分区表,是最难以理解,也是最hive最大的优势。之后会专门针对分区表进行讲解。 二、 加载数据 官方指导为: Hive在数据load这块,大方向分为两种方式,load文件或者查询一张表,或者将某张表里的额查询结果插入指定表。 1. Load data到指定的表 2. load到指定表的分区 ……
http://luobeng.blogbus.com/logs/104394168.html
在官方的wiki里,example是这样的:
[STORED AS file_format]关键字是用来设置加载数据的数据类型。Hive本身支持的文件格式只有:Text File,Sequence File。如果文件数据是纯文本,可以使用 [STORED AS TEXTFILE]。如果数据需要压缩,使用 [STORED AS SEQUENCE] 。通常情况,只要不需要保存序列化的对象,我们默认采用[STORED AS TEXTFILE]。
1. 普通表
普通表的创建,如上所说,不讲了。其中,一个表,就对应一个表名对应的文件。
EXTERNAL 关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。具体sql如下:
有分区的表可以在创建的时候使用 PARTITIONED BY 语句。一个表可以拥有一个或者多个分区,每一个分区单独存在一个目录下。而且,表和分区都可以对某个列进行 CLUSTERED BY 操作,将若干个列放入一个桶(bucket)中。也可以利用SORT BY 对数据进行排序。这样可以为特定应用提高性能。具体SQL如下:
Hive不支持一条一条的用insert语句进行插入操作,也不支持update的操作。数据是以load的方式,加载到建立好的表中。数据一旦导入,则不可修改。要么drop掉整个表,要么建立新的表,导入新的数据。
如果划分更细一点个人归纳总结为4种不同的方式的load:
直接将file,加载到指定的表,其中,表可以是普通表或者分区表。具体sql如下:
关键字[OVERWRITE]意思是是覆盖原表里的数据,不写则不会覆盖。
关键字[LOCAL]是指你加载文件的来源为本地文件,不写则为hdfs的文件。
其中
‘home/admin/test/test.txt’是相对路径
‘/home/admin/test/test.txt’为据对路径
直接将file,加载到指定表的指定分区。表本身必须是分区表,如果是普通表,导入会成功,但是数据实际不会被导入。具体sql如下:
load数据,hive支持文件夹的方式,将文件夹内的所有文件,都load到指定表中。Hdfs会将文件系统内的某文件夹路径内的文件,分散到不同的实际物理地址中。这样,在数据量很大的时候,hive支持读取多个文件载入,而不需要限定在唯一的文件中。
3. insert+select
这个是完全不同于文件操作的数据导入方式。官方指导为:
这个的用法,和上面两种直接操作file的方式,截然不同。从sql语句本身理解,就是把查询到的数据,直接导入另外一张表。这个暂时不仔细分析,之后查询章节,再细讲。
4. alter 表,对分区操作
在对表结构进行修改的时候,我们可以增加一个新的分区,在增加新分区的同时,将数据直接load到新的分区当中。
三、 查询
发表评论
-
thrift安装资料集合
2011-06-22 14:19 1148http://www.buywine168.com/index ... -
在Ubuntu下编译安装Thrift(支持php和c++)
2011-06-22 14:16 1659原文地址:http://www.coder4.com/arch ... -
HBase Thrift 0.5.0 + PHP 5 安裝設定
2011-06-22 14:13 1879原文地址: http://blog.kfchph.com ... -
Hadoop+hbase+thrift H.H.T环境部署
2011-06-21 12:58 1107原文地址:http://blog.sina.com.cn/s/ ... -
php操作hbase例子
2011-06-21 10:59 23311 $GLOBALS['THRIFT_ROOT'] = '/h ... -
HBase技术介绍
2011-06-21 10:54 1098原文地址:http://www.searc ... -
详细讲解Hadoop中的一个简单数据库HBase
2011-06-08 17:29 946原文地址:http://databas ... -
Hive 的启动方式
2011-06-08 16:49 2514Hive 的启动方式 hive 命令行 ... -
Hive环境搭建与入门
2011-06-08 16:47 1535原文地址:http://www.jiacheo.org ... -
Hbase入门6 -白话MySQL(RDBMS)与HBase之间
2011-06-08 15:38 1570作者: H.E. | 您可以转载, ... -
Apache Hive入门3–Hive与HBase的整合
2011-06-08 10:03 1575作者: H.E. | 您可以转载, ... -
Apache Hive入门2
2011-06-08 10:00 1353我的偏见: 对于互联 ... -
Apache Hive入门1
2011-06-08 09:59 2551作者: H.E. | 您可以转载, ... -
hbase分布安装部署
2011-06-07 22:37 18171、 hbase安装部署#cd /hadoop# ... -
使用HBase的一个典型例子,涉及了HBase中很多概念
2011-06-07 15:38 1596一个使用HBase的例子,如下。 import java ... -
HBase入门篇4–存储
2011-06-06 21:22 1599作者: H.E. | 您可以转载, 但必须以超链接形式标明文章 ... -
HBase入门篇3
2011-06-06 21:21 1860作者: H.E. | 您可以转载, 但必须以超链接形式标明文章 ... -
HBase入门篇2-Java操作HBase例子
2011-06-06 21:18 2409作者: H.E. | 您可以转载, 但必须以超链接形式标明文章 ... -
HBase入门篇
2011-06-06 21:17 2398作者: H.E. | 您可以转载, ... -
Hive 和数据库的异同
2011-06-06 14:08 926原文地址:http://www.oschina.net ...
相关推荐
1)Hive使用Antlr框架定义了HQL的语法规则,并利用这个框架完成对HQL语句的词法和语法解析,将SQL字符串转换为抽象语法树(AST)。这一步通常使用第三方库完成,比如使用antlr。 2)对抽象语法树进行语法分析,检查...
【标题】"hive500多...通过这个学习资源,你可以掌握从基础到进阶的Hive知识,包括但不限于Hive的架构、数据模型、SQL语法、分区与桶、表的生命周期管理、优化技巧等,从而提升你在大数据处理和分析领域的专业能力。
四、云风的Hive源码解读 云风的"Hive-master_with_my_common"项目,提供了对Hive源码的个人理解和注释,这些注释涵盖了关键组件的逻辑和设计思路。通过这个项目,读者可以: 1. **学习Hive的元数据管理机制**,了解...
* Hive 语法兼容:支持 Hive 语法,能够与 Hive 生态系统集成。 * Flink SQLEngine:支持 Flink SQLEngine,能够提供高性能的批处理能力。 * Queries 兼容度达到 94%:支持了多种查询语言,能够与多种数据源集成。 ...
Spark SQL还具有与Hive的兼容性,支持Hive的SQL语法,这意味着用户可以直接在Spark SQL中执行HQL(Hive SQL)查询,无需担心兼容性问题。此外,Spark SQL提供了一种统一的数据访问方式,无论数据源如何,都可以使用...
### Sqoop中文手册知识点梳理 #### 一、概述 ...以上是对SQOOP中文手册中的核心知识点进行了详细解读和说明。这些功能可以帮助用户高效地完成数据迁移、转换等工作,尤其适用于大数据环境下数据处理的需求。
亮点SQL特性的引入,如大表关联、分组聚集,以及SQL1992的Cube/GroupingSets、SQL1999的Window函数、SQL2003的JSON和SQL2016的语法,大大提升了开发效率和SQL编程的灵活性。 在未来的7.0版本展望方面,Greenplum将...
Hive SQL语句首先被编译器转换为Hive的抽象语法树(AST),然后通过逻辑计划生成器转换为逻辑计划,并最终通过物理计划生成器转换为MapReduce任务执行。 Hive底层与数据库交互原理: Hive底层通过一系列转换器将...
- **学习目标**:熟悉SQL语法,能够熟练地进行数据查询和简单的数据分析。 - **学习途径**:同样可以通过在线教程或书籍进行学习,并通过实践项目加深理解。 **1.3 Java基础** - **学习目标**:掌握Java编程基础,...
6. **大数据课程Hive**:Hive是基于Hadoop的数据仓库工具,允许使用SQL语言进行大数据分析。课程将涉及Hive的安装配置、表的创建与管理、查询优化及Hive与Hadoop其他组件的集成。 7. **大数据课程HBase**:HBase是...
- **标准 SQL 接口**:支持标准 SQL 语法,便于集成现有 BI 工具。 - **支持超大数据集**:能够处理 PB 级别数据。 - **亚秒级响应**:通过预计算 Cube 实现快速查询。 - **可伸缩性和高吞吐率**:具备良好的...
以下是对这些关键领域的详细解读: 1. **Java**:Java是一种广泛使用的面向对象的编程语言,以其“一次编写,到处运行”的特性闻名。它适用于开发各种类型的应用程序,如桌面应用、企业级应用、Android移动应用和...
这些数据存储在多种不同的数据库和数据源中,如MySQL、SQL Server、Oracle、Hive、MongoDB、HBase以及日志文件Log等。数据的多样性、分布性以及数据量之大给数据处理带来了巨大的挑战。此外,数据仓库中还涉及到结构...