`

Hive基本命令整理

    博客分类:
  • hive
 
阅读更多

创建表:
hive> CREATE TABLE pokes (foo INT, bar STRING); 
        Creates a table called pokes with two columns, the first being an integer and the other a string

创建一个新表,结构与其他一样
hive> create table new_table like records;

创建分区表:
hive> create table logs(ts bigint,line string) partitioned by (dt String,country String);

加载分区表数据:
hive> load data local inpath '/home/hadoop/input/hive/partitions/file1' into table logs partition (dt='2001-01-01',country='GB');

展示表中有多少分区:
hive> show partitions logs;

展示所有表:
hive> SHOW TABLES;
        lists all the tables
hive> SHOW TABLES '.*s';

lists all the table that end with 's'. The pattern matching follows Java regular
expressions. Check out this link for documentationhttp://java.sun.com/javase/6/docs/api/java/util/regex/Pattern.html

显示表的结构信息
hive> DESCRIBE invites;
        shows the list of columns

更新表的名称:
hive> ALTER TABLE source RENAME TO target;

添加新一列
hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');
 
删除表:
hive> DROP TABLE records;
删除表中数据,但要保持表的结构定义
hive> dfs -rmr /user/hive/warehouse/records;

从本地文件加载数据:
hive> LOAD DATA LOCAL INPATH '/home/hadoop/input/ncdc/micro-tab/sample.txt' OVERWRITE INTO TABLE records;

显示所有函数:
hive> show functions;

查看函数用法:
hive> describe function substr;

查看数组、map、结构
hive> select col1[0],col2['b'],col3.c from complex;


内连接:
hive> SELECT sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);

查看hive为某个查询使用多少个MapReduce作业
hive> Explain SELECT sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);

外连接:
hive> SELECT sales.*, things.* FROM sales LEFT OUTER JOIN things ON (sales.id = things.id);
hive> SELECT sales.*, things.* FROM sales RIGHT OUTER JOIN things ON (sales.id = things.id);
hive> SELECT sales.*, things.* FROM sales FULL OUTER JOIN things ON (sales.id = things.id);

in查询:Hive不支持,但可以使用LEFT SEMI JOIN
hive> SELECT * FROM things LEFT SEMI JOIN sales ON (sales.id = things.id);


Map连接:Hive可以把较小的表放入每个Mapper的内存来执行连接操作
hive> SELECT /*+ MAPJOIN(things) */ sales.*, things.* FROM sales JOIN things ON (sales.id = things.id);

INSERT OVERWRITE TABLE ..SELECT:新表预先存在
hive> FROM records2
    > INSERT OVERWRITE TABLE stations_by_year SELECT year, COUNT(DISTINCT station) GROUP BY year 
    > INSERT OVERWRITE TABLE records_by_year SELECT year, COUNT(1) GROUP BY year
    > INSERT OVERWRITE TABLE good_records_by_year SELECT year, COUNT(1) WHERE temperature != 9999 AND (quality = 0 OR quality = 1 OR quality = 4 OR quality = 5 OR quality = 9) GROUP BY year;  

CREATE TABLE ... AS SELECT:新表表预先不存在
hive>CREATE TABLE target AS SELECT col1,col2 FROM source;

创建视图:
hive> CREATE VIEW valid_records AS SELECT * FROM records2 WHERE temperature !=9999;

查看视图详细信息:
hive> DESCRIBE EXTENDED valid_records;

分享到:
评论

相关推荐

    Hive基本操作命令大全

    Hive基本操作命令大全 Hive是一个基于Hadoop的数据仓库工具,可以使用SQL语言来查询和管理大规模数据。本文档将详细介绍Hive的基本操作命令,从创建表、加载数据、查询数据到数据管理等方面进行整理。 创建表 ...

    Hive查询优化整理与Hive简易版思维导图

    本文将深入探讨Hive查询优化的一些关键点,并结合个人实践经验和整理的Hive简易版思维导图,帮助你更好地理解和运用Hive。 一、Hive查询优化基础 1. **表分区**:分区是Hive提高查询效率的重要手段。通过将大表按...

    原生版的hadoop和hive搭建部分整理.zip

    标题中的“原生版的hadoop和hive搭建部分整理”表明了这个压缩包主要涵盖了Hadoop和Hive的基础搭建过程,以及可能相关的配置和优化内容。Hadoop是Apache基金会的一个开源项目,它提供了分布式文件系统(HDFS)和...

    hive安装及相关知识整理

    **三、Hive基本操作** 1. **创建表**:可以定义列名、列类型和分区等,如`CREATE TABLE IF NOT EXISTS table_name (col1 string, col2 int) PARTITIONED BY (dt string);` 2. **加载数据**:将数据文件加载到Hive表...

    hive 安装.rar(内含视频和需要的文件)

    Hive 提供了数据整理、分析以及查询功能,是大数据处理领域的重要组成部分。本安装教程将涵盖 Hive 的基本概念、安装步骤、配置优化以及基本操作。 一、Hive 的基本概念 1. 数据模型:Hive 将数据存储为表,这些表...

    hive安装.pdf

    Hive 提供了数据整理、简单SQL 查询、基本的事务处理等功能,非常适合大数据分析。以下是对 Hive 安装步骤的详细解释: 1. **解压 Hive 安装包**: 使用 `tar` 命令解压缩下载的 Apache Hive 安装包到指定目录。...

    Hive数据仓库工具----220222.rar

    Hive是基于Hadoop的数据仓库工具,它提供了数据仓库的功能,包括数据整理、查询和分析。Hive通过将SQL查询转化为一系列的MapReduce任务,简化了对Hadoop集群上的大数据进行分析的过程。Hive的主要特点包括: 1. ...

    apache-hive-2.1.1-bin

    Hive 提供了数据整理、简单SQL查询以及基本的分析功能,为大数据分析提供了便利。"apache-hive-2.1.1-bin" 是 Apache Hive 的一个特定版本,包含了运行 Hive 所需的所有二进制文件和配置文件。 在 Apache Hive ...

    hive编程指南

    Hive是由Facebook开发的一个数据仓库工具,用于对存储在Hadoop文件系统中的数据进行数据整理、特殊查询和分析存储。它通过提供SQL(Hive SQL或HQL)接口来处理结构化数据,使得不熟悉MapReduce的用户能够更加便捷地...

    hive基础查询文档上传

    - **Hive基本操作**: - **创建数据库**:`CREATE DATABASE db_name;` - **使用数据库**:`USE db_name;` - **查看当前使用的数据库**:`SHOW DATABASES;` - **查看表**:`SHOW TABLES;` #### 二、数据表的创建...

    大数据保姆级别教程sql.plsql.bi.ketlle.Linux..hadoop.hive.shell.sqoop.数仓

    在基础SQL语句中,查询语句是最基本的操作,包括列查询、行查询(通过WHERE子句进行条件筛选)以及各种比较运算符如等于、不等于、IN、NOT IN、BETWEEN AND等。排序(ORDER BY)和模糊查询(LIKE)也是常见的查询...

    Hadoop期末整理.docx

    数据在Hive中按库、表、分区和桶进行组织,有行格式和文件存储格式两种数据存储方式,支持多种基本和复杂数据类型。 4. Sqoop:Sqoop是数据迁移工具,它使得在Hadoop和传统数据库之间传输数据变得更加便捷。它可以...

    第17章 大数据平台运行与应用实战.docx

    4. **Linux 操作系统命令**:Linux是大数据平台的常用操作系统,熟悉基本的Linux命令对于大数据运维至关重要,如文件操作、权限管理、网络通信等。 5. **Hadoop 操作命令**:Hadoop是大数据处理的基础框架,包括...

    山西省职业院校技能大赛高职组大数据技术与应用赛项规程2资料全.doc

    4. 常见数据类型的数据抓取,实现数据抓取、解析和初步整理,常见的网络数据、数据文件、关系数据库等数据源的数据抓取掌握 Hive 数据仓库导入、导出以与 Hadoop 数据文件的转换,掌握 Hive 数据管理常用命令。...

    完整的大数据知识体系,大数据学习路线图.docx

    了解LINUX操作系统的知识点包括LINUX的基本命令、用户管理、网络配置管理、SHELL脚本编程等。掌握LINUX操作系统的程度:精通。 五、Hadoop技术 Hadoop技术是大数据处理的核心技术,掌握Hadoop技术的两个核心:...

    自己寫整理的一些文檔,關於azkaban,kylin,fastdfs,tableau

    了解Tableau的基本操作: 1. 安装与启动: - 下载Tableau Desktop或Server版本,根据需求安装。 - 启动Tableau Desktop,进行数据探索。 2. 数据连接: - 连接各种数据源,如Excel、SQL Server、Hadoop等。 - ...

    大数据技术与应用.doc

    4. **Hive数据仓库**:熟悉Hive的导入、导出和数据文件转换,以及Hive的数据管理命令,通过Python编程实现数据抓取,并利用streaming和MapReduce机制处理数据。 5. **数据清洗与计算**:基于MapReduce的HDFS文件...

Global site tag (gtag.js) - Google Analytics