`
MyEyeOfJava
  • 浏览: 1156980 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
7af2d6ca-4fe1-3e9a-be85-3f65f7120bd0
测试开发
浏览量:71350
533896eb-dd7b-3cde-b4d3-cc1ce02c1c14
晨记
浏览量:0
社区版块
存档分类
最新评论

[Hadoop]Hive r0.9.0中文文档(三)之Hive相关命令

阅读更多
一、Hive命令选项
Usage:

Usage: hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e query-string>] [-S]

  -i <filename>             Initialization Sql from file (executed automatically and silently before any other commands)
  -e 'quoted query string'  Sql from command line
  -f <filename>             Sql from file
  -S                        Silent mode in interactive shell where only data is emitted
  -hiveconf x=y             Use this to set hive/hadoop configuration variables. 
  
   -e and -f cannot be specified together. In the absence of these options, interactive shell is started.  However, -i can be used with any other options.

   To see this usage help, run hive -h


下面的例子是做一个命令行的查询:
$HIVE_HOME/bin/hive -e 'select a.col from tab1 a'

  
下面的例子是指定Hive配置查询:
$HIVE_HOME/bin/hive -e 'select a.col from tab1 a' -hiveconf hive.exec.scratchdir=/home/my/hive_scratch  -hiveconf mapred.reduce.tasks=32

  
下面的例子是将查询结果导入到文本文件:
$HIVE_HOME/bin/hive -S -e 'select a.col from tab1 a' > a.txt


下面的例子是使用SQL文件进行操作:
$HIVE_HOME/bin/hive -f /home/my/hive-script.sql


下面的例子是在进入交互式界面之前跑一个初始化的脚本:
$HIVE_HOME/bin/hive -i /home/my/hive-init.sql


二、hiverc file
如果没有-i参数,那么hive会直接进入命令行界面,同时会加载HIVE_HOME/bin/.hiverc and $HOME/.hiverc作为初始化所需要的文件


三、hive交互的Shell命令

Command	Description
quit	 Use quit or exit to leave the interactive shell.
set key=value	 Use this to set value of particular configuration variable. One thing to note here is that if you misspell the variable name, cli will not show an error.
set	 This will print a list of configuration variables that are overridden by user or hive.
set -v	 This will print all hadoop and hive configuration variables.
add FILE [file] [file]*	 Adds a file to the list of resources
list FILE	 list all the files added to the distributed cache
list FILE [file]*	 Check if given resources are already added to distributed cache
! [cmd]	 Executes a shell command from the hive shell
dfs [dfs cmd]	 Executes a dfs command from the hive shell
[query]	 Executes a hive query and prints results to standard out
source FILE	 Used to execute a script file inside the CLI.


例子:
  hive> set  mapred.reduce.tasks=32;
  hive> set;
  hive> select a.* from tab1;
  hive> !ls;
  hive> dfs -ls;


四、Hive日志

Hive使用Log4j写日志,这些日志将不会以标准输出方式进行输出,默认情况Hive将使用hive-log4j,配置文件在conf目录下,日志输出在 /tmp/$USER/hive.log 下,日志级别为WARN。

为了Debug,你可以修改日志的输出格式以及改变日志的输出级别,你可以在命令行下使用以下命令:

$HIVE_HOME/bin/hive -hiveconf hive.root.logger=INFO,console 


hive.root.logger 指定了日志的级别以及日志输出位置,输出在控制台。这样日志不会输出到文件中。

五、Hive 资源
hive可以管理查询有效的附加资源到Session中。任何本地的acessible文件会加入到这个session,hive加载这个文件到session中后可以进行相关的map/reduce任务,hive使用haddop cache来处理被加载的文件。

   ADD { FILE[S] | JAR[S] | ARCHIVE[S] } <filepath1> [<filepath2>]*
   LIST { FILE[S] | JAR[S] | ARCHIVE[S] } [<filepath1> <filepath2> ..]
   DELETE { FILE[S] | JAR[S] | ARCHIVE[S] } [<filepath1> <filepath2> ..] 


文件资源仅被添加到目标cache中。Jar资源将被添加到Java classpath中。ARCHIVE资源将被自动添加来描述他们。
例如:

hive> add FILE /tmp/tt.py;
hive> list FILES;
/tmp/tt.py
hive> from networks a  MAP a.networkid USING 'python tt.py' as nn where a.ds = '2009-01-04' limit  10;


如果命令在所有节点上均有效就没有必要加入到Session中. For example:

... MAP a.networkid USING 'wc -l' ...: here wc is an executable available on all machines
... MAP a.networkid USING '/home/nfsserv1/hadoopscripts/tt.py' ...: here tt.py may be accessible via a nfs mount point that's configured identically on all the 
cluster nodes.
分享到:
评论

相关推荐

    Hive和Hase配置

    配置hive-0.9.0和hbase-0.94.1结合使用,部分内容如下: 1.拷贝hbase-0.94.1.jar和zookeeper-3.4.3.jar到hive/lib下。 注意:如hive/lib下已经存在这两个文件的其他版本,建议删除后使用hbase下的相关版本。 //...

    hadoop hbase hive 伪分布安装

    标题和描述均提到了“hadoop hbase hive 伪分布安装”,这涉及到在单台机器上模拟分布式环境来安装和配置Hadoop、HBase和Hive。以下将详细阐述这一过程中的关键步骤和相关知识点。 ### 1. Hadoop安装与配置 - **...

    hive-0.9.0

    Hive是Apache软件基金会开发的一个数据仓库工具,它允许用户使用SQL-like查询语言(HQL)来处理存储在Hadoop分布式文件系统(HDFS)中的大数据集。Hive-0.9.0是Hive的一个早期版本,包含了该工具的核心功能和改进。...

    hadoop&hive安装配置

    hadoop&hive安装配置 本文将详细介绍hadoop&hive的安装配置过程,包括对hadoop集群的搭建和hive的配置。下面将逐步介绍每个步骤的详细内容。 hadoop集群搭建 在开始安装hadoop之前,我们首先需要准备三台机器,...

    hadoop 命令大全

    为了方便地使用Hadoop及相关工具,可以通过设置环境变量来简化命令的调用过程。例如,在用户的`.bashrc`文件中添加以下内容: ```bash export JAVA_HOME=/home/limingguang/jdk1.7.0_07 export HADOOP_HOME=/home/...

    hadoop、hbase、hive、zookeeper版本对应关系续(最新版)(2015)

    兼容性方面,文章提到hadoop-1.0.3、hive-0.9.0、hbase-0.92.0三者兼容,hadoop2.2和hbase0.96与hive0.12或hive0.13兼容,尽管可能存在一些小问题需要额外的补丁解决。 ZooKeeper是一个开源的分布式应用程序协调...

    hive-0.10.0-cdh4.3.0.tar.gz

    Hive是Apache Software Foundation维护的一个数据仓库工具,它允许SQL-like查询语言(HQL)来处理存储在Hadoop文件系统(HDFS)中的大数据集。这个文件是64位的,意味着它是为64位操作系统设计的。 描述中的“liux...

    hive面试题

    Hive是一个构建在Hadoop之上的数据仓库架构,它提供了一系列工具用于数据提取、转换、加载(ETL)。Hive使得用户能够对存储在Hadoop中的大规模数据进行存储、查询和分析。其主要特性包括: - **SQL查询语言**: Hive...

    hive相关jar包

    Hive 是一个基于 Hadoop 的数据仓库工具,它允许用户使用 SQL 类似的查询语言(HQL)来管理和处理大数据。这个压缩包包含了 Hive 在特定版本(可能是 0.11.0)运行所需的一些关键组件的 JAR 文件。以下是对这些文件...

    Hive安装所需软件文件压缩包(包括Hive,Mysql以及依赖包).rar

    4. 解压并配置Hive,设置相关的环境变量,如HADOOP_HOME、HIVE_HOME、HIVE_CONF_DIR等。 5. 初始化Hive元数据,创建必要的数据库和表。 6. 使用Hive提供的命令行接口(Hive shell)或其他支持HQL的工具进行数据查询...

    hive的自定义函数

    在大数据处理领域,Apache Hive 是一个广泛使用的数据仓库工具,它提供了一种SQL-like查询语言——HiveQL,使用户能够轻松地对存储在Hadoop文件系统中的大规模数据集进行数据汇总、特殊查询和其他统计分析。...

    hive安装.txt

    ### Hive 安装指南 #### 一、简介 ...此外,Hive 作为一个数据仓库工具,它的强大之处在于能够方便地处理大数据量的查询,为数据分析提供了便利。希望本文能帮助你在使用 Hive 的过程中更加得心应手。

    Java通过JDBC连接Hive

    压缩包中包含Java通过JDBC连接Hive所需的jar包。包含有,antlr-runtime-3.0.1.jar;commons-logging-1.0.4.jar;hadoop-core-1.2.1.jar;hive-exec-0.10.0.jar;hive-jdbc-0.13.1.jar;hive-metastore-0.9.0.jar;hive-...

    hive连接jdbc的jar包

    在IT行业中,Hive是一个基于Hadoop的数据仓库工具,它允许使用SQL(称为HQL,Hive Query Language)对大规模数据集进行分析。Hive JDBC(Java Database Connectivity)是Hive提供的一种接口,使得我们可以使用标准的...

    JDBC_Hive.rar

    java连接jdbc使用到的13个jar包:commons-logging-1.0.4,hadoop_fat,hadoop-common-2.0.0-cdh4.7.0,hive-common-0.10.0-cdh4.7.0,hive-jdbc-0.10.0-cdh4.7.0,hive-metastore-0.10.0-cdh4.7.0,hive-service-0.10.0-...

    scribe+hadoop+log4j+hive+mysql

    - **环境准备**:文中提到了具体的软件版本和安装步骤,例如 CentOS 6.3、Hadoop 2.0.2-alpha、Hive 0.9.0 等。这些版本的选择取决于实际需求和兼容性考虑。 - **节点分配**:根据文中提供的信息,整个系统包括一个...

    java大数据案例_6Hive、Kettle

    首先在Hadoop客户端上解压Hive的安装包`hive-0.9.0-bin.tar.gz`并重命名目录为`hive`。 - **配置环境变量:** 通过编辑`/etc/profile`文件来设置Hive的环境变量`HIVE_HOME`。具体步骤如下: ```bash #su - ...

    sql developer hive连接java包

    总结来说,"sql developer hive连接java包"涉及到的是通过Java的JDBC接口和一系列Hive相关的JAR文件,将SQL Developer与Hadoop集群中的Hive数据仓库进行连接,从而实现对大数据的高效管理和分析。这些Java库提供了...

Global site tag (gtag.js) - Google Analytics