今天我们要探讨的话题是Hive的里面的表与外部表两个概念,以及如何在Hive里面创建表和外部表,它们之间有什么区别等话题。在本博客的《Hive的数据存储模式》文章里面我们谈到了Hive的数据存储模式,里面简单的说到Hive中表以及外部表的简单概念,相信很多读者对这些概念还不是很了解,今天就给大家科普一下,希望对大家有所帮助。
相信很多用户都用过关系型数据库,我们可以在关系型数据库里面创建表(create table),这里要讨论的表和关系型数据库中的表在概念上很类似。我们可以用下面的语句在Hive里面创建一个表:
1 |
hive> create table wyp(id int ,
|
6 |
> FIELDS TERMINATED BY '\t'
|
9 |
Time taken: 0.759 seconds
|
这样我们就在Hive里面创建了一张普通的表,现在我们给这个表导入数据:
01 |
hive> load data local inpath '/home/wyp/data/wyp.txt' into table wyp;
|
02 |
Copying data from file:/home/wyp/data/wyp.txt |
03 |
Copying file: file:/home/hdfs/wyp.txt |
04 |
Loading data to table default .wyp
|
05 |
Table default .wyp stats: [num_partitions: 0 , num_files: 1 ,
|
06 |
num_rows: 0 , total_size: 67 , raw_data_size: 0 ]
|
08 |
Time taken: 3.289 seconds
|
09 |
hive> select * from wyp; |
11 |
1 wyp 25 13188888888888
|
12 |
2 test 30 13888888888888
|
14 |
Time taken: 0.41 seconds, Fetched: 3 row(s)
|
注意:/home/wyp/data/路径是Linux本地文件系统路径;而/home/hdfs/是HDFS文件系统上面的路径!从上面的输出我们可以看到数据是先从本地的/home/wyp/data/文件夹下复制到HDFS上的/home/hdfs/wyp.txt(这个是Hive中的配置导致的)文件中!最后Hive将从HDFS上把数据移动到wyp表中!移到表中的数据到底存放在HDFS的什么地方?其实在Hive的${HIVE_HOME}/conf/hive-site.xml配置文件的hive.metastore.warehouse.dir属性指向的就是Hive表数据存放的路径(在我的店电脑里面配置是/user/hive/warehouse),而Hive每创建一个表都会在hive.metastore.warehouse.dir指向的目录下以表名创建一个文件夹,所有属于这个表的数据都存放在这个文件夹里面。所以,刚刚导入到wyp表的数据都存放在/user/hive/warehouse/wyp/文件夹中,我们可以去看看:
1 |
hive> dfs -ls /user/hive/warehouse/wyp ; |
3 |
-rw-r--r-- 3 wyp supergroup 67 2014 - 01 - 14 22 : 23 /user/hive/warehouse/wyp/wyp.txt
|
看到没,上面的命令就是显示HDFS上的/user/hive/warehouse/wyp中的所有内容。如果需要删除wyp表,可以用下面的命令:
5 |
Time taken: 2.503 seconds
|
从上面的输出Moved: 'hdfs://mycluster/user/hive/warehouse/wyp' to trash at: hdfs://mycluster/user/hdfs/.Trash/Current我们可以得知,原来属于wyp表的数据被移到hdfs://mycluster/user/hdfs/.Trash/Current文件夹中(如果你的Hadoop没有取用垃圾箱机制,那么drop table wyp命令将会把属于wyp表的所有数据全部删除!),其实就是删掉了属于wyp表的数据。记住这些,因为这些和外部表有很大的不同。同时,属于表wyp的元数据也全部删除了!
我们再来创建一个外部表:
1 |
hive> create external table exter_table( |
6 |
> location '/home/wyp/external' ;
|
8 |
Time taken: 0.098 seconds
|
仔细观察一下创建表和外部表的区别,仔细的同学们一个会发现创建外部表多了external关键字说明以及location '/home/wyp/external'。是的,你说对了!如果你需要创建外部表,需要在创建表的时候加上external关键字,同时指定外部表存放数据的路径(当然,你也可以不指定外部表的存放路径,这样Hive将在HDFS上的/user/hive/warehouse/文件夹下以外部表的表名创建一个文件夹,并将属于这个表的数据存放在这里):
1 |
hive> load data local inpath '/home/wyp/data/wyp.txt' into table exter_table;
|
2 |
Copying data from file:/home/wyp/data/wyp.txt |
3 |
Copying file: file:/home/hdfs/wyp.txt |
4 |
Loading data to table default .exter_table
|
5 |
Table default .exter_table stats: [num_partitions: 0 , num_files:
|
6 |
1 , num_rows: 0 , total_size: 67 , raw_data_size: 0 ]
|
8 |
Time taken: 0.456 seconds
|
和上面的导入数据到表一样,将本地的数据导入到外部表,数据也是从本地文件系统复制到HDFS中/home/hdfs/wyp.txt文件中,但是,最后数据不是移动到外部表的/user/hive/warehouse/exter_table文件夹中(除非你创建表的时候没有指定数据的存放路径)!大家可以去HDFS上看看!对于外部表,数据是被移动到创建表时指定的目录(本例是存放在/home/wyp/external文件夹中)!如果你要删除外部表,看看下面的操作:
1 |
hive> drop table exter_table; |
3 |
Time taken: 0.093 seconds
|
和上面删除Hive的表对比可以发现,没有输出将数据从一个地方移到任一个地方!那是不是删除外部表的的时候数据直接被删除掉呢?答案不是这样的:
1 |
hive> dfs -ls /home/wyp/external; |
3 |
-rw-r--r-- 3 wyp supergroup 67 2014 - 01 - 14 23 : 21 /home/wyp/external/wyp.txt
|
你会发现删除外部表的时候,数据并没有被删除,这是和删除表的数据完全不一样的!
最后归纳一下Hive中表与外部表的区别:
1、在导入数据到外部表,数据并没有移动到自己的数据仓库目录下,也就是说外部表中的数据并不是由它自己来管理的!而表则不一样;
2、在删除表的时候,Hive将会把属于表的元数据和数据全部删掉;而删除外部表的时候,Hive仅仅删除外部表的元数据,数据是不会删除的!
那么,应该如何选择使用哪种表呢?在大多数情况没有太多的区别,因此选择只是个人喜好的问题。但是作为一个经验,如果所有处理都需要由Hive完成,那么你应该创建表,否则使用外部表!
(今天就到这吧,已经深夜23:32了,程序员的生活很苦逼的!)
本博客文章除特别声明,全部都是原创!
尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
本文链接: 【Hive表与外部表】(http://www.iteblog.com/archives/899)
分享到:
相关推荐
### Hive外部表创建详解 #### 一、引言 在大数据处理领域,Hive作为一款广泛使用的数据仓库工具,能够高效地对存储在Hadoop文件系统中的数据进行查询与管理。其中,外部表的创建是Hive使用过程中的一个重要概念。...
hive双分区外部表复合数据结构博客的数据资料,欢迎下载。
一:内部表和外部表的区别 创建表时使用关键字external创建的表就是外部表,没有使用该关键字创建的表就是内部表。 删除表时(drop table)内部表会删除hdfs对应路径,而外部表不会删除hdfs对应的路径, 删除表无论是...
在Hive中,可以创建一个外部表,其表的存储位置指向HBase的表。这样,Hive查询可以通过HBase的表获取数据,反之亦然。映射的关键在于定义正确的SerDe(序列化/反序列化)类和配置参数,以确保Hive能理解HBase的行键...
首先,理解Hive内部表和外部表的区别是关键。内部表的数据由Hive完全管理,删除内部表会同时删除其对应的数据。而外部表仅仅是一个指向实际数据的引用,删除外部表不会影响数据。在这个场景下,我们关注的是内部表,...
hive外部表使用语句
Hive提供了丰富的接口供外部应用访问,包括Hive JDBC和Hive SerDe(Serializer/Deserializer),Java程序可以利用这些接口读取Hive表中的数据。 2. **Spark计算框架**: Spark是大数据处理的开源框架,以其高效、...
除了基础安装配置,还需要了解一些高级主题,如分区表、桶表、视图、外部表、Hive 与其他大数据组件的集成(如 HBase、Spark、Impala 等)以及性能优化策略。"资料必看.zip" 文件可能包含这些进阶内容,建议仔细阅读...
6. **数据转换和加载**:Kettle 支持从 Hive 导出数据到其他系统,或者将外部数据导入到 Hive,实现数据的迁移和整合。 7. **并行处理和分布式计算**:利用 Hadoop 的分布式计算能力,Kettle 可以并行处理大数据,...
整合的关键在于Hive的外部表功能,通过创建指向HBase表的外部表,我们可以用Hive的HQL查询HBase中的数据。 整合步骤如下: 1. **环境准备**:确保已经安装了Hadoop、Hive和HBase,并且它们都在同一环境中正常运行...
内部表的删除会同时移除数据和元数据,而外部表只移除元数据,数据保持不变。 7. **加载数据**: Hive提供了`LOAD DATA`命令来加载数据到表中。`LOAD DATA LOCAL INPATH`可以从本地文件系统加载数据,`LOAD DATA ...
所谓外部表,就是Hive并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉。关于Hive数据仓库的管理表(MANAGED_TABLE)和外部表(EXTERNAL_TABLE)的区别,在创表的时候...
Hive中的元数据包括表的名字、表的列和分区及其属性、表的属性(是否为外部表等)、表的数据所在目录等。由于Hive的元数据需要不断地更新、修改,而HDFS系统中的文件是多读少改的,这显然不能将Hive的元数据存储在...
Hive-HBase连接器允许用户在Hive中创建外部表,将这些表映射到HBase的数据表,从而可以在Hive的SQL环境中直接对HBase数据进行查询和分析。在实际操作中,用户需要将这些JAR文件放入Hive的lib目录下,这是Hive加载其...
1. Hive是一个构建在Hadoop之上的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能。Hive是用Java编写的,并且它的查询语言HiveQL可以让你使用类SQL语法来查询Hadoop中的大数据。 2. ...
- 使用DDL创建内部表和外部表,内部表的数据存储在HDFS中,由Hive管理;外部表的数据存储在用户指定位置,不随表删除而删除。 - DML操作包括查看表、查看表结构,以及插入、更新和删除数据。 - 分区表的创建有助...
Hive支持内部表和外部表。内部表由Hive完全管理,数据存储在HDFS上,删除内部表时,数据也会被一同删除。而外部表只是对HDFS上数据的引用,删除外部表不会影响原始数据,这对于数据共享和管理非常有用。 在“分区表...
Hive 的存储结构主要包括内部表和外部表两种。内部表的数据由 Hive 自身管理,而外部表的数据由 HDFS 管理。内部表的元数据存储在关系型数据库中,而表数据存储在 HDFS 上。删除内部表会直接删除元数据和存储数据,...
Hadoop-2.8.0-HA-Hive安装部署与HQL10.hive的基本语法--内部表和外部表.mp4
Hive 表可以是内部表,也可以是外部表。下面将详细介绍 Hive 创建表语法的使用。 EXTERNAL 关键字 在 Hive 中,使用 EXTERNAL 关键字可以创建外部表。外部表是指存储在 HDFS 上的表,数据可以来自于多个来源。使用...