Hive Cli
= hive启动 =
*$ hive –f script.q
*$ hive -e 'SELECT * FROM dummy‘
*$ hive -S -e 'SELECT * FROM dummy‘
*$ hive -hiveconf hive.root.logger=DEBUG,console
= set =
*hive> SET hive.enforce.bucketing=true; //设置值
*hive> SET hive.enforce.bucketing; // 显示值
*hive> set -v; //显示所有的值,包括hadoop的。
*hive> set; //显示跟基本的hadoop不同的配置,原理就是比对当前的所有选项与基本的配置是否不同,如修改过,已经不同了就打印该值。
= dfs 命令 =
dfs 命令可以执行 Shell 环境下的 hadoop fs 的所有命令
例如:
列出 HDFS 上的文件:
hive> dfs -ls /user/hive;
= add =
*ADD { FILE[S] | JAR[S] | ARCHIVE[S] } <filepath1> [<filepath2>]*
*hive> add jar /tmp/a.jar;
*hive> add jar /tmp/a.jar /tmp/b.jar;
= delete =
*DELETE { FILE[S] | JAR[S] | ARCHIVE[S] } [<filepath1> <filepath2> ..]
= list =
*LIST { FILE[S] | JAR[S] | ARCHIVE[S] } [<filepath1> <filepath2> ..]
*hive> list jar;
*hive> list jars;
= show =
*hive> show functions;
*hive> show tables;
*hive> show tables '*tianzhao*';
*hive> show partition tablename;
*hive> show table extended like table_with_partitions partition(ds=101);
= desc =
*hive> desc/describe function length;
*hive> desc/describe tablename;
*hive> desc/describe extended tablename; //显示表的信息
*hive> desc/describe extended tablename partition(ds=1); //显示partition的信息
*hive> desc/describe formatted tablename; //显示表的信息,跟extended相比,显示更友好
= source =
*hive> source /home/username/sql/test.sql;
= ! =
*hive> !ls; //ls当前目录
= quit =
hive> quit; 或者 hive> exit;
= hiveserver =
* $hive --service hiveserver
* $hive --service help
Usage ./hive <parameters> --service serviceName <service parameters>
Service List: cli help hiveserver hwi jar lineage metastore rcfilecat start-hive stop-hive
Parameters parsed:
--auxpath : Auxillary jars
--config : Hive configuration directory
--service : Starts specific service/component. cli is default
Parameters used:
HADOOP_HOME : Hadoop install directory
HIVE_OPT : Hive options
For help on a particular service:
./hive --service serviceName --help
*$hive --service start-hive
Starting Hive Thrift Server in Daemon Mode
starting jar, logging to /home/tianzhao/hive/hadoop-0.19.1/bin/../logs/hadoop-tianzhao-jar-ubuntu.out
*$hive --service stop-hive
Stopping Hive Thrift Server in Daemon Mode
stopping jar
[http://wiki.apache.org/hadoop/Hive/LanguageManual/Cli 官方的配置Wiki]
alter table s_spu set TBLPROPERTIES ('EXTERNAL'='TRUE'); //内部表转外部表
set hive.auto.convert.join=true;
set hive.exec.mode.local.auto=true;
set hive.mapred.local.mem = 200;
set hive.groupby.skewindata=true;
alter serde
数据:
a,b
c,d
e,f
hive> create table delim(key string, value string);
hive> load data local inpath '/home/tianzhao/Documents/delim' into table delim;
hive> select * from delim;
a,b NULL
c,d NULL
e,f NULL
hive> ALTER TABLE delim SET SERDEPROPERTIES ('field.delim' = ',');
a b
c d
e f
https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL#LanguageManualDDL-DropPartitions
ALTER TABLE page_view DROP PARTITION (dt='2008-08-08', country='us');
ALTER TABLE web_log ADD IF NOT EXISTS PARTITION (pt='20120325') LOCATION 'hdfs://localhost:9000/group/log1/2012/20120325';
ALTER TABLE web_log PARTITION(pt='20120325') SET FILEFORMAT SequenceFile;
ALTER TABLE r_table SET SERDEPROPERTIES ('serialization.null.format'=);
日志在: /tmp/$USER/hive.log 中
分享到:
相关推荐
大数据hadoop中hive-1.1.0 的cli ,jar包,hive-cli-1.1.0.jar
HiveCLI和Beeline命令行的基本使用,基础篇
经过对源码的改造,这个特别的Hive 0.10.0版本能够支持在命令行界面(CLI)中正确地显示中文注释。这对于中国开发者来说是一个重大的改进,使得他们在管理Hive表时可以更加方便地阅读和理解注释内容。 改造的焦点...
Hive和HBase是两种大数据处理工具,它们在大数据生态系统中各自扮演着重要角色。Hive是一个基于Hadoop的数据仓库工具,它允许用户使用SQL-like语法(HQL,Hive Query Language)对大规模数据集进行分析。而HBase是...
hive-cli.jar hive-common.jar hive-contrib.jar hive-hbaseec.jar hive-hbase-handler.jar hive-hwi.jar hive-jdbc.jar hive-metastorejar hive-serde.jar hive-service.jar hive-shims.jar hadoop-core-1.0.4.jar
在Windows环境中,Hive是Apache Hadoop项目的一部分,它提供了一个命令行接口(CLI),名为Hive命令行工具,用于处理大数据集。Hive的主要功能是将结构化的数据文件映射为一张数据库表,并提供SQL(HQL,Hive SQL)...
现在你可以通过Hive命令行接口(CLI)与Hive交互了: ``` hive ``` 在Hive CLI中,你可以创建数据库、表,加载数据,执行SQL查询等操作。 七、连接Hive与Hadoop 确保Hive知道Hadoop的位置,编辑$HIVE_HOME/conf/...
Hive指令样例.txt 文件则包含了Hive CLI(Command Line Interface)的操作命令。这些命令涵盖了Hive的基本操作,例如: 1. **创建数据库**:`CREATE DATABASE IF NOT EXISTS mydb;` 这个命令会创建一个名为mydb的新...
- **hive**:这是Hive的可执行脚本,用于启动Hive CLI或与Hive服务器通信。 - **hiveserver2**:Hive Server 2是Hive的服务端组件,允许远程客户端连接并执行Hive查询。 - **hplsql**:可能是一个用于执行Hive和...
Hive CLI主要用于交互式查询,而Beeline是基于JDBC的CLI,兼容多种数据库,提供更好的性能和错误处理。Beeline的引入是逐步替代Hive CLI的,因为它支持更多的SQL标准和改进的用户体验。 **Hive批处理和交互式模式**...
2. **启动Hive**:运行`bin/hive`启动Hive CLI,或者启动Hive Server以供远程连接。 3. **创建表**:使用HQL创建数据表,并指定存储位置(通常是HDFS的一个路径)。 4. **加载数据**:将数据从本地文件系统或HDFS...
4. **Hive CLI**:Hive命令行接口,用户可以在这里输入HQL查询并查看结果。 5. **Hive Server2**:提供了更安全、高性能的Hive服务,支持多种客户端连接方式,如Beeline、JDBC和ODBC。 Spark 3.0.0是Apache Spark的...
3. **Hive CLI (Command Line Interface)**:命令行接口,用户可以通过它提交查询并查看结果。 4. **Hive JDBC/ODBC Drivers**:允许其他应用程序通过JDBC或ODBC标准连接到Hive,支持多种编程语言进行数据操作。 5. ...
9. **管理元数据**:Hive 的元数据(如表结构、分区等)存储在 metastore 中,可以通过 Hive CLI 或其他工具进行管理。 10. **性能优化**:Hive 提供了多种优化策略,如分区、桶化、倾斜表处理、统计信息收集等,以...
6. **启动Hive**:运行`hive`命令启动Hive CLI,或者启动`hiveserver2`服务以供远程连接。 7. **创建数据库和表**:在Hive CLI中,用户可以创建数据库、定义表结构,并导入数据。 8. **执行查询**:使用HQL进行...
2. **Hive CLI (Command Line Interface)**:Hive的命令行接口,让用户可以通过输入HQL语句来执行查询和管理数据仓库。 3. **Hive Server**:提供了远程访问Hive的接口,支持多种客户端连接方式,如Beeline(一个...
4. **Beeline**:Hive 0.14.0引入了Beeline作为新的SQL客户端,它是Hive CLI的替代品,提供了更好的性能和JDBC/ODBC支持。 5. **HiveQL**:Hive的查询语言,与SQL高度兼容,但有其特有的语法和功能,如支持动态分区...
- **Beeline或Hive CLI增强工具**:有些第三方工具可以增强Hive的命令行接口,添加执行计划的可视化功能。 压缩包文件列表中的"dist"可能是工具的分发目录,其中可能包含可执行文件、配置文件和其他支持文件,用于...
5. **hive-service-0.11.0.jar**:这个文件包含了 Hive 服务端的相关组件,如 CLI(命令行接口)、Beeline(JDBC/ODBC 支持)等,使得用户可以通过网络连接到 Hive Server。 6. **guava-r07.jar**:Guava 是 Google...
在Hive CLI中,可以创建表、加载数据、执行查询等操作,验证Hive是否正常工作。例如: ```sql CREATE TABLE test_table (id INT, name STRING); LOAD DATA LOCAL INPATH '/path/to/data.txt' INTO TABLE test_table...