`
superlxw1234
  • 浏览: 552184 次
  • 性别: Icon_minigender_1
  • 来自: 西安
博客专栏
Bd1c0a0c-379a-31a8-a3b1-e6401e2f1523
Hive入门
浏览量:44533
社区版块
存档分类
最新评论

[一起学Hive]之十四-Hive的元数据表结构详解

    博客分类:
  • hive
阅读更多

关键字:Hive元数据、Hive元数据表结构

 

之前在 “[一起学Hive]之一–Hive概述,Hive是什么”中介绍过,Hive自己维护了一套元数据,用户通过HQL查询时候,Hive首先需要结合元数据,将HQL翻译成MapReduce去执行。

本文介绍一下Hive元数据中重要的一些表结构及用途,以Hive0.13为例。

 

文章最后面,会以一个示例来全面了解一下,Hive的元数据是怎么生成和存储的。

 

13.1 存储Hive版本的元数据表(VERSION)

该表比较简单,但很重要。

VER_ID SCHEMA_VERSION VERSION_COMMENT
ID主键 Hive版本 版本说明
1 0.13.0 Set by MetaStore

如果该表出现问题,根本进入不了Hive-Cli。

比如该表不存在,当启动Hive-Cli时候,就会报错”Table ‘hive.version’ doesn’t exist”。

13.2 Hive数据库相关的元数据表(DBS、DATABASE_PARAMS)

  • DBS

该表存储Hive中所有数据库的基本信息,字段如下:

 

元数据表字段 说明 示例数据
DB_ID 数据库ID 2
DESC 数据库描述 测试库
DB_LOCATION_URI 数据库HDFS路径 hdfs://namenode/user/hive/warehouse/lxw1234.db
NAME 数据库名 lxw1234
OWNER_NAME 数据库所有者用户名 lxw1234
OWNER_TYPE 所有者角色 USER

 

  • DATABASE_PARAMS

该表存储数据库的相关参数,在CREATE DATABASE时候用

WITH DBPROPERTIES (property_name=property_value, …)指定的参数。

 

元数据表字段 说明 示例数据
DB_ID 数据库ID 2
PARAM_KEY 参数名 createdby
PARAM_VALUE 参数值 lxw1234

DBS和DATABASE_PARAMS这两张表通过DB_ID字段关联。

 

13.3 Hive表和视图相关的元数据表

主要有TBLS、TABLE_PARAMS、TBL_PRIVS,这三张表通过TBL_ID关联。

  • TBLS

该表中存储Hive表、视图、索引表的基本信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 1
CREATE_TIME 创建时间 1436317071
DB_ID 数据库ID 2,对应DBS中的DB_ID
LAST_ACCESS_TIME 上次访问时间 1436317071
OWNER 所有者 liuxiaowen
RETENTION 保留字段 0
SD_ID 序列化配置信息 86,对应SDS表中的SD_ID
TBL_NAME 表名 lxw1234
TBL_TYPE 表类型 MANAGED_TABLE、EXTERNAL_TABLE、INDEX_TABLE、VIRTUAL_VIEW
VIEW_EXPANDED_TEXT 视图的详细HQL语句 select `lxw1234`.`pt`, `lxw1234`.`pcid` from `liuxiaowen`.`lxw1234`
VIEW_ORIGINAL_TEXT 视图的原始HQL语句 select * from lxw1234

 

  • TABLE_PARAMS

该表存储表/视图的属性信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 1
PARAM_KEY 属性名 totalSize、numRows、EXTERNAL
PARAM_VALUE 属性值 970107336、21231028、TRUE

 

  • TBL_PRIVS

该表存储表/视图的授权信息

元数据表字段 说明 示例数据
TBL_GRANT_ID 授权ID 1
CREATE_TIME 授权时间 1436320455
GRANT_OPTION   0
GRANTOR 授权执行用户 liuxiaowen
GRANTOR_TYPE 授权者类型 USER
PRINCIPAL_NAME 被授权用户 username
PRINCIPAL_TYPE 被授权用户类型 USER
TBL_PRIV 权限 Select、Alter
TBL_ID 表ID 22,对应TBLS表中的TBL_ID

 

13.4 Hive文件存储信息相关的元数据表

主要涉及SDS、SD_PARAMS、SERDES、SERDE_PARAMS

由于HDFS支持的文件格式很多,而建Hive表时候也可以指定各种文件格式,Hive在将HQL解析成MapReduce时候,需要知道去哪里,使用哪种格式去读写HDFS文件,而这些信息就保存在这几张表中。

  • SDS

该表保存文件存储的基本信息,如INPUT_FORMAT、OUTPUT_FORMAT、是否压缩等。

TBLS表中的SD_ID与该表关联,可以获取Hive表的存储信息。

元数据表字段 说明 示例数据
SD_ID 存储信息ID 1
CD_ID 字段信息ID 21,对应CDS表
INPUT_FORMAT 文件输入格式 org.apache.hadoop.mapred.TextInputFormat
IS_COMPRESSED 是否压缩 0
IS_STOREDASSUBDIRECTORIES 是否以子目录存储 0
LOCATION HDFS路径 hdfs://namenode/hivedata/warehouse/ut.db/t_lxw
NUM_BUCKETS 分桶数量 5
OUTPUT_FORMAT 文件输出格式 org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
SERDE_ID 序列化类ID 3,对应SERDES表

 

  • SD_PARAMS

该表存储Hive存储的属性信息,在创建表时候使用

STORED BY ‘storage.handler.class.name’ [WITH SERDEPROPERTIES (…)指定。

元数据表字段 说明 示例数据
SD_ID 存储配置ID 1
PARAM_KEY 存储属性名  
PARAM_VALUE 存储属性值  
  • SERDES

该表存储序列化使用的类信息

元数据表字段 说明 示例数据
SERDE_ID 序列化类配置ID 1
NAME 序列化类别名  
SLIB 序列化类 org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe

 

  • SERDE_PARAMS

该表存储序列化的一些属性、格式信息,比如:行、列分隔符

元数据表字段 说明 示例数据
SERDE_ID 序列化类配置ID 1
PARAM_KEY 属性名 field.delim
PARAM_VALUE 属性值 ,

 

13.5 Hive表字段相关的元数据表

主要涉及COLUMNS_V2

  • COLUMNS_V2

该表存储表对应的字段信息。

元数据表字段 说明 示例数据
CD_ID 字段信息ID 1
COMMENT 字段注释  
COLUMN_NAME 字段名 pt
TYPE_NAME 字段类型 string
INTEGER_IDX 字段顺序 2

 

13.6 Hive表分区相关的元数据表

主要涉及PARTITIONS、PARTITION_KEYS、PARTITION_KEY_VALS、PARTITION_PARAMS

  • PARTITIONS

该表存储表分区的基本信息。

元数据表字段 说明 示例数据
PART_ID 分区ID 1
CREATE_TIME 分区创建时间  
LAST_ACCESS_TIME 最后一次访问时间  
PART_NAME 分区名 pt=2015-06-12
SD_ID 分区存储ID 21
TBL_ID 表ID 2
  • PARTITION_KEYS

该表存储分区的字段信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 2
PKEY_COMMENT 分区字段说明  
PKEY_NAME 分区字段名 pt
PKEY_TYPE 分区字段类型 string
INTEGER_IDX 分区字段顺序 1

 

  • PARTITION_KEY_VALS

该表存储分区字段值。

元数据表字段 说明 示例数据
PART_ID 分区ID 2
PART_KEY_VAL 分区字段值 2015-06-12
INTEGER_IDX 分区字段值顺序 0

 

  • PARTITION_PARAMS

该表存储分区的属性信息。

元数据表字段 说明 示例数据
PART_ID 分区ID 2
PARAM_KEY 分区属性名 numFiles、numRows
PARAM_VALUE 分区属性值 15、502195

 

13.6 其他不常用的元数据表

  • DB_PRIVS

数据库权限信息表。通过GRANT语句对数据库授权后,将会在这里存储。

  • IDXS

索引表,存储Hive索引相关的元数据

  • INDEX_PARAMS

索引相关的属性信息。

  • TAB_COL_STATS

表字段的统计信息。使用ANALYZE语句对表字段分析后记录在这里。

  • TBL_COL_PRIVS

表字段的授权信息

  • PART_PRIVS

分区的授权信息

  • PART_COL_STATS

分区字段的统计信息。

  • PART_COL_PRIVS

分区字段的权限信息。

  • FUNCS

用户注册的函数信息

  • FUNC_RU

用户注册函数的资源信息

 

13.6 示例

建表语句:

    CREATE TABLE lxw1234 (
    cookieid STRING,
    url STRING,
    ua STRING,
    ip STRING,
    createtime STRING
    )
    COMMENT 'This is the page view table'
    partitioned BY (day STRING,site STRING)
    ROW FORMAT DELIMITED
    FIELDS TERMINATED BY ','
    stored AS ORC;

 

建表执行之后,元数据中以下表的数据会有所变化

  • TBLS

生成了表lxw1234的基本信息

SELECT * FROM TBLS WHERE TBL_NAME = ‘lxw1234’;

元数据表字段 数据
TBL_ID 41509
CREATE_TIME 1436324659
DB_ID 11
LAST_ACCESS_TIME 0
OWNER liuxiaowen
RETENTION 0
SD_ID 91740
TBL_NAME lxw1234
TBL_TYPE MANAGED_TABLE
VIEW_EXPANDED_TEXT NULL
VIEW_ORIGINAL_TEXT NULL

 

  • TABLE_PARAMS

select  *  from  TABLE_PARAMS  WHERE  TBL_ID=41509

TBL_ID PARAM_KEY PARAM_VALUE
41509 comment This is the page view table
41509 transient_lastDdlTime 1436324659

 

  • SDS

SELECT * FROM SDS WHERE SD_ID = 91740

元数据表字段 数据
SD_ID 91740
CD_ID 41564
INPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcInputFormat
IS_COMPRESSED 0
IS_STOREDASSUBDIRECTORIES 0
LOCATION hdfs://namenode/hivedata/warehouse/liuxiaowen.db/lxw1234
NUM_BUCKETS -1
OUTPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat
SERDE_ID 91740
  • SERDES

select * from SERDES WHERE SERDE_ID = 91740

元数据表字段 数据
SERDE_ID 91740
NAME  
SLIB org.apache.hadoop.hive.ql.io.orc.OrcSerde

 

  • SERDE_PARAMS

select * from  SERDE_PARAMS  WHERE  SERDE_ID=91740

 

SERDE_ID PARAM_KEY PARAM_VALUE
91740 field.delim ,
91740 serialization.format ,

 

  • COLUMNS_V2

select * from COLUMNS_V2 WHERE CD_ID=41564 ORDER BY INTEGER_IDX

CD_ID COMMENT COLUMN_NAME TYPE_NAME INTEGER_IDX
41564   cookieid string 0
41564   url string 1
41564   ua string 2
41564   ip string 3
41564   createtime string 4

 

  • PARTITION_KEYS

select * from  PARTITION_KEYS  WHERE  TBL_ID=41509

TBL_ID PKEY_COMMENT PKEY_NAME PKEY_TYPE INTEGER_IDX
41509   day string 0
41509   site string 1

再插入数据:

 

INSERT OVERWRITE TABLE lxw1234 PARTITION (day = '2015-07-08', site = 'lxw1234.com')
SELECT
'cookie1' AS cookieid,
'http://lxw1234.com' AS url,
'firefox' AS ua,
'127.0.0.1' AS ip,
'2015-07-08 11:00:01' AS createtime
FROM dual
limit 1;

 

插入数据执行完之后,以下表的元数据发生变化:

 

  • PARTITIONS

select * from  `PARTITIONS`  WHERE  TBL_ID=41509

PART_ID CREATE_TIME LAST_ACCESS_TIME PART_NAME SD_ID TBL_ID
54472 1436325812 0 day=2015-07-08/site=lxw1234.com 91746 41509
  • SDS

select *  from  SDS  WHERE  SD_ID=91746

注意:这里的存储和表的存储是不同的,因为每个分区也会有一个SD

元数据表字段 数据
SD_ID 91746
CD_ID 41564
INPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcInputFormat
IS_COMPRESSED 0
IS_STOREDASSUBDIRECTORIES 0
LOCATION hdfs://namenode/hivedata/warehouse/liuxiaowen.db/lxw1234/day=2015-07-08/site=lxw1234.com
NUM_BUCKETS -1
OUTPUT_FORMAT org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat
SERDE_ID 91746

 

  • PARTITION_KEY_VALS

select  *  from  PARTITION_KEY_VALS  where  PART_ID=54472

PART_ID PART_KEY_VAL INTEGER_IDX
54472 2015-07-08 0
54472 lxw1234.com 1

 

  • PARTITION_PARAMS

select * from PARTITION_PARAMS where PART_ID = 54472

PART_ID PARAM_KEY PARAM_VALUE
54472 COLUMN_STATS_ACCURATE true
54472 numFiles 1
54472 numRows 1
54472 rawDataSize 408
54472 totalSize 703
54472 transient_lastDdlTime 1436325813

 

在分区的属性里面,生成的该分区的统计信息(Statistics)。

关于Hive的统计信息(Statistics),后面将会介绍。

 

Hive相关文章(持续更新)

一起学Hive系列

—-Hive概述,Hive是什么

—-Hive函数大全-完整版

—-Hive中的数据库(Database)和表(Table)

—-Hive的安装配置

—-Hive的视图和分区

—-Hive的动态分区

—-向Hive表中加载数据

—-使用Hive命令行

—-Hive的查询语句SELECT

—-Hive中Join的原理和机制

—-Hive中Join的类型和用法

—-Hive SQL的优化

—-Hive整合HBase,操作HBase表

Hive分析函数系列

Hive索引

hive优化之——控制hive任务中的map数和reduce数

 

 

3
1
分享到:
评论
1 楼 annmi_cai 2016-03-11  
好好学习,天天向上!

相关推荐

    hive案例之---------微博数据分析及答案.zip

    通常,这样的文档会包含对数据集的描述,例如微博的数据结构,可能包括用户ID、发布时间、微博内容、点赞数、评论数等字段。它也可能涵盖了数据预处理步骤,如数据清洗、去除噪声、转换数据格式,以便于导入到Hive表...

    含两个文件hive-jdbc-3.1.2-standalone.jar和apache-hive-3.1.2-bin.tar.gz

    含两个文件hive-jdbc-3.1.2-standalone.jar和apache-hive-3.1.2-bin.tar.gz 含两个文件hive-jdbc-3.1.2-standalone.jar和apache-hive-3.1.2-bin.tar.gz 含两个文件hive-jdbc-3.1.2-standalone.jar和apache-hive-...

    hive驱动包hive-jdbc-uber-2.6.5.0-292.jar(用户客户端连接使用)

    Hive是Apache Hadoop生态系统中的一个数据仓库工具,它允许我们对存储在HDFS上的大数据进行结构化查询和分析。Hive JDBC驱动是Hive与各种数据库管理工具、应用程序之间建立连接的关键组件,使得用户可以通过标准的...

    DBeaver链接hive驱动包下载: hive-jdbc-uber-2.6.5.0-292.jar

    《DBeaver与Hive连接:hive-jdbc-uber-2.6.5.0-292.jar驱动详解》 在大数据处理领域,Hive作为一个基于Hadoop的数据仓库工具,广泛用于数据查询和分析。而DBeaver,作为一款跨平台的数据库管理工具,以其用户友好的...

    apache-hive-2.1.1-bin.tar

    apache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tarapache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tar apache-hive-2.1.1-bin.tarapache-hive-2.1.1-bin.tar apache-hive-2.1.1-...

    Hive-2.1.1-CDH-3.6.1 相关JDBC连接驱动 Jar 包集合

    02、hive-exec-2.1.1-cdh6.3.1.jar 03、hive-jdbc-2.1.1-cdh6.3.1.jar 04、hive-jdbc-2.1.1-cdh6.3.1-standalone.jar 05、hive-metastore-2.1.1-cdh6.3.1.jar 06、hive-service-2.1.1-cdh6.3.1.jar 07、libfb303-...

    hive-testbench-hive14.zip大数据TPCDS-99SQL自动测试脚本

    在“hive-testbench-hive14.zip”这个压缩包中,包含了针对Hive 1.4版本的测试脚本,这是一组精心设计的测试用例,用于评估Hive在处理TPCDS标准数据集时的性能。TPCDS包含99个标准SQL查询,这些查询涵盖了从简单到...

    hive-jdbc-3.1.2-standalone

    hive-jdbc-3.1.2-standalone适用于linux

    Apache Hive(apache-hive-3.1.3-bin.tar.gz)

    Apache Hive(apache-hive-3.1.3-bin.tar.gz、apache-hive-3.1.3-src.tar.gz)是一种分布式容错数据仓库系统,支持大规模分析,并使用 SQL 促进读取、写入和管理驻留在分布式存储中的 PB 级数据。Hive 构建在 Apache...

    hive-jdbc-uber-2.6.5.0-292.jar驱动

    3. **元数据获取**:允许用户获取数据库、表、列等元数据信息。 4. **批处理**:支持批量执行SQL语句,提高执行效率。 5. **事务管理**:虽然Hive本身不完全支持ACID事务,但驱动提供了部分事务管理能力。 6. **安全...

    hive-jdbc-uber-3.1.2+yanagishima-18.0

    在大数据处理领域,Apache Hive作为一款强大的数据仓库工具,被广泛用于存储、管理和分析大规模结构化数据。而Hive JDBC是连接Hive与各种客户端应用程序的桥梁,使得用户可以通过标准的JDBC接口来操作Hive。这里我们...

    hive-jdbc-uber-2.6.5.jar

    hive-jdbc-uber-2.6.5.0-292.jar DbVisualizer (as of version 9.5.5) Below is an example configuration using DbVisualizer: Open the Diver Manager dialog ("Tools" > "Driver Manager...") and hit the ...

    hive-jdbc-2.1.0-standalone.jar

    hive-jdbc-2.1.0-standalone.jar

    hive-jdbc-uber-2.6.5.0-292.zip

    标题中的“hive-jdbc-uber-2.6.5.0-292.zip”是一个包含Hive JDBC驱动程序的Uber(也称为fat或shaded)jar文件。Uber jar将所有依赖项合并到一个单一的jar文件中,避免了运行时的类冲突问题。这种jar文件在分布式...

    Apache Hive(apache-hive-1.2.2-bin.tar.gz)

    Apache Hive(apache-hive-1.2.2-bin.tar.gz、apache-hive-1.2.2-src.tar.gz)是一种分布式容错数据仓库系统,支持大规模分析,并使用 SQL 促进读取、写入和管理驻留在分布式存储中的 PB 级数据。Hive 构建在 Apache...

    hive-jdbc-2.1.1-cdh6.2.0-standalone.jar

    hive-jdbc-2.1.1-cdh6.2.0(ieda等jdbc链接hive2.1.1);cdh6.2.0安装的hive2.1.1

    hive-jdbc-uber-2.6.5.0-292.jar

    在实际项目中,"hive-jdbc-uber-2.6.5.0-292.jar"可以作为大数据分析工具链的一部分,与其他Java应用(如ETL工具、数据可视化工具等)集成,实现对Hive数据仓库的高效访问。尽管下载途径有限,但这个特定版本的JDBC...

    apache-hive-2.3.3-bin.tar.gz

    1. **Hive Metastore**:存储元数据的地方,包括表结构、分区信息、列属性等。Hive通过Metastore服务与外部数据库(如MySQL)交互,提供元数据的持久化存储。 2. **Hive Server**:提供与Hive交互的接口,允许...

    hive-jdbc-uber-2.6.3.0-292.jar

    总结,"hive-jdbc-uber-2.6.3.0-292.jar"是Hive与DBeaver之间的重要桥梁,它使数据分析师能够在DBeaver这样的通用数据库管理工具中方便地操作Hive数据仓库,提升了数据管理和分析的工作效率。正确配置和使用Hive ...

Global site tag (gtag.js) - Google Analytics