整理一下,用的时候照着贴就行了。
1.hive数据导出
将select的结果放到本地文件系统中
INSERT OVERWRITE LOCAL DIRECTORY '/tmp/reg_3' SELECT a.* FROM events a;
将select的结果放到hdfs文件系统中
INSERT OVERWRITE DIRECTORY '/tmp/hdfs_out' SELECT a.* FROM table_name a WHERE a.ds='<DATE>';
2.hive数据导入
LOAD DATA [LOCAL] INPATH ‘/data/userdata’ [OVERWRITE] INTO TABLE user;
#创建表的时候直接指定路径
CREATE EXTERNAL TABLE page_view(viewTime INT, userid BIGINT,
page_url STRING, referrer_url STRING,
ip STRING COMMENT 'IP Address of the User',
country STRING COMMENT 'country of origination')
COMMENT 'This is the staging page view table'
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\001' LINES TERMINATED BY '\002'
STORED AS TEXTFILE
年限LOCATION '/user/data/staging/page_view'; #创建表之后也可以导入数据到表中
#本机路径
LOAD DATA LOCAL INPATH '/tmp/date.txt' OVERWRITE INTO TABLE page_view PARTITION(pt='2008-06-08')
#Hadoop路径
LOAD DATA INPATH `/tmp/date.txt` OVERWRITE INTO TABLE page_view PARTITION(pt='2008-06-08')
#添加一个分区到表
ALTER TABLE tmp_xx ADD PARTITION (pt='100610') location '/group/mywork/hive/xx/pt=100610' ;
3.删除分区
alter table test drop partition (birth='1980',age='30');
4.日志
hive -hiveconf hive.root.logger=INFO,console
hive --service hiveserver -p 10000 &
hive --service hiveserver2 &
SET hive.exec.compress.output=true;
SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;
set hive.exec.dynamic.partition.mode=nonstrict;
ALTER TABLE day_table ADD PARTITION (dt='2008-08-08', hour='08') location '/path/pv1.txt'
5.配置数据库,及授权
配置metastore
create database metastore DEFAULT CHARACTER SET utf8;
GRANT all ON metastore.* TO hive@"172.20.0.63" identified by "hive";
FLUSH PRIVILEGES;
6.配置java jdbc
sudo yum install mysql-connector-java
ln -s /usr/share/java/mysql-connector-java.jar /usr/lib/hive/lib/mysql-connector-java.jar
7.beeline
/usr/lib/hive/bin/beeline
!connect jdbc:hive2://172.20.0.12:10000/test;principal=hive/datanode12.yeahmobi.com@HADOOP.COM
8.hive jdbc测试
java -cp $CLASSPATH:hivejdbc.jar:/usr/lib/hive/lib/hive-metastore-0.12.0-cdh5.0.2.jar:/usr/lib/hive/lib/antlr-runtime-3.4.jar:/usr/java/jdk1.7.0_45-cloudera/db/lib/derby.jar:/usr/lib/hadoop-0.20-mapreduce/hadoop-core-2.3.0-mr1-cdh5.0.2.jar:/usr/lib/hive/lib/hive-exec-0.12.0-cdh5.0.2.jar:/usr/lib/hive/lib/hive-jdbc-0.12.0-cdh5.0.2.jar:/usr/lib/hive/lib/libthrift-0.9.0.cloudera.2.jar:/usr/lib/hive/lib/libfb303-0.9.0.jar:/usr/lib/hive/lib/hive-service-0.12.0-cdh5.0.2.jar:/usr/lib/hive/lib/slf4j-api-1.7.5.jar:/usr/lib/impala/lib/slf4j-log4j12-1.6.1.jar:/usr/lib/hive/lib/httpcore-4.2.5.jar:/usr/lib/hive/lib/httpclient-4.2.5.jar:/usr/lib/hadoop/lib/commons-configuration-1.6.jar:/usr/lib/hadoop/hadoop-common-2.3.0-cdh5.0.2.jar:/usr/lib/hbase/lib/commons-logging-1.1.1.jar:/usr/lib/hadoop/lib/log4j-1.2.17.jar:/usr/lib/hadoop/lib/commons-collections-3.2.1.jar:/usr/lib/hadoop/hadoop-auth.jar test.HiveJDBC
分享到:
相关推荐
hive 常用命令大全,包含分区域表、函数,常用命令等
### Hive常用命令详解 #### 创建外部表(分区表) 在Hive中,创建外部表时通常会使用`CREATE EXTERNAL TABLE`语句。这有助于在Hive与HDFS之间建立良好的解耦关系,使得即使Hive表被删除,其对应的数据仍然保留在...
### Hive 常用命令总结 #### 创建外部表 创建一个名为`hbase_gpsinfo`的外部表,存储方式采用`HBaseStorageHandler`,并将键值对映射设置为`key`和`i:c`。 ```sql CREATE EXTERNAL TABLE hbase_gpsinfo (key STRING...
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的 sql查询功能,可以将sql语句转换 为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL 语句快速实现简单的...
hive常用命令及用法
hive常用命令 1、进入hive数据库:hive 2、查看hive中的所有数据库:show databases; 3、用default数据库:use default; 4、查看所有的表:show tables; 5、查询表结构:desc mytest(表名); 6、查询表数据: ...
Hive 常用的 SQL 命令操作 Hive 是一个基于 Hadoop 的数据仓储工具,提供了类似于 MySQL 的 SQL 查询语言,支持各种复杂的数据操作。下面是 Hive 中常用的 SQL 命令操作。 1. 查看所有函数 Hive 提供了很多的函数...
#### 五、Hive常用命令 1. **查看所有表**:`SHOW TABLES;` 2. **模糊查询表**:`SHOW TABLES 'FCT_*';` 3. **查看表的分区**:`SHOW PARTITIONS table;` 4. **查看表结构**:`DESCRIBE (FORMATTED/EXTENDED) table...
一、Hive常用操作 1. **查看数据库列表**:可以使用`SHOW DATABASES;`命令来查看Hive中现有的所有数据库。 2. **查看数据表列表**:`SHOW TABLES [LIKE '*name*'];`用于列出特定数据库或所有数据库中的表。 3. **...
### HIVE常用函数参考手册知识点概述 #### 一、函数分类 Hive中的函数可以根据其功能和作用范围分为几大类: 1. **简单函数**:这类函数通常针对单条记录进行操作,如数学运算、逻辑运算等。 2. **聚合函数**:...
Hive 教程--命令 Hive 是一种数据库技术,可以定义数据库和表来分析结构化数据。主题结构化数据分析是以表方式存储数据,并通过查询来分析。 创建数据库 创建数据库是 Hive 中最基本的操作之一。Hive 中的数据库...
使用这些jar包时,开发者通常会将它们添加到项目的类路径中,或者在运行Hive命令时通过`-libjars`选项指定。在Hive on Spark模式下,还需要包含Spark的相关jar包。此外,如果涉及到数据集成,可能还需要与Hive连接的...
从提供的文件内容中,我们可以提取到关于Hive安装与配置的相关知识点,同时也包括了MySQL的安装知识,因为MySQL是Hive常用的后端数据库。接下来,我将详细介绍这些知识点。 **Hive的安装与配置** 1. Hive是一个...
其中,CLI是最常用的交互方式,它在启动时会自动启动一个Hive服务副本;而Client则是指Hive的Java客户端API,通过该API可以直接在应用程序中执行Hive SQL;WUI则提供了基于Web的用户界面,方便用户远程访问和管理...
标题提到的"show create table 表名"是Hive的一个常用命令,用于展示创建特定表的原始SQL语句。这对于理解和复制表结构非常有帮助。然而,描述中提到的“hive中文乱码”问题,是一个常见的困扰,尤其是在处理包含...
以下是 Hive Shell 的常用命令行选项: - `-i`: 从指定的文件初始化 HiveQL 语句。 - `-e`: 直接在命令行中执行 HiveQL 语句。 - `-f`: 从指定的文件中读取并执行 HiveQL 脚本。 - `-v`: 显示执行的 HiveQL 语句。 ...