定义
Hive是基于Hadoop构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据。Hive可以将结构化的数据存储在数据仓库中,通过自己的SQL去查询分析需要的内容,这套SQL简称Hive SQL。它与关系型数据库的SQL略有不同,但支持了绝大多数的语句如DDL、DML 以及常见的聚合函数、连接查询、条件查询。
Hive在Hadoop的架构体系中承担了一个SQL解析的过程,它提供了对外的入口来获取用户的指令然后对指令进行分析,解析出一个MapReduce程序组成可执行计划,并按照该计划生成对应的MapReduce任务提交给Hadoop集群处理,获取最终的结果。
以上定义来源于《Hadoop开发者入门专刊》
Hive安装
我将延用《Hadoop安装》文档(http://yymmiinngg.iteye.com/blog/706699)风格撰写下文。
Hive需要Hadoop的支持,也就是说在安装Hive之前需要正确安装Hadoop,这里不再阐述Hadoop的安装过程。一般我们会将Hive安装到NameNode所在主机上,这里假设使用root用户进行安装,Hive的安装过程很简单:
[root@192.168.1.111] # 去到hadoop的目录,使用hadoop的项目根目录 [root@192.168.1.111] cd /opt/hadoop [root@192.168.1.111] # 下载项目包(去官网(http://hadoop.apache.org/)下载Hadoop项目) [root@192.168.1.111] wget http://www.apache.org/dist/hadoop/hive/hive-0.5.0/hive-0.5.0-dev.tar.gz [root@192.168.1.111] # 解压 [root@192.168.1.111] tar xzvf hive-0.5.0-dev.tar.gz [root@192.168.1.111] # 进入目录 [root@192.168.1.111] cd hive-0.5.0-dev [root@192.168.1.111] # 与Hadoop的安装一样,我们应该习惯性的将安装目录写入环境变量 [root@192.168.1.111] export HIVE_HOME=`pwd` [root@192.168.1.111] # 也可以将环境变量设置到/etc/profile中 |
以上就是在Linux(cent os 5.X)上安装Hive的过程,下面就到了配置的环节。
Hive配置
Hive的必要配置相当简单,只需要声明$HADOOP_HOME(请查阅《Hadoop安装》文档)这个环境变量就行了。
Hive的核心配置文件$HIVE_HOME/conf/hive-default.xml中有一些对Hive关键配置,一般我们不需要对期进行改动,如果你需要更改这个关键配置,请不要直接更改hive-default.xml这个文件,在同一目录下新建hive-site.xml文件,然后将需要更改的属性配置在这里面即可,配置格式与hive-default.xml一样。
另外,在Hive官方文档中重点提到了Hive的日志配置$HIVE_HOME/conf/hive-log4j.properties,虽然不是必要更改的配置文件,但合理的设置会对我们有一定的帮助,具体配置方法可见官方文档。
根据官方文档的描述,在使用Hive之前需要在HDFS中创建几个目录,并且将其开放g+w模式。如下代码所示:
[root@192.168.1.111] $HADOOP_HOME/bin/hadoop fs -mkdir /tmp [root@192.168.1.111] $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse [root@192.168.1.111] $HADOOP_HOME/bin/hadoop fs -chmod g+w /tmp [root@192.168.1.111] $HADOOP_HOME/bin/hadoop fs -chmod g+w /user/hive/warehouse |
通过我的试验,以上创建目录的步骤是可以省略的,Hive会自动创建需要的目录。
Hive运行示例:
Hive提供了一个CLI(Command Line Interface)客户端,我们可以通过CLI进行直观的DDL、DML及SQL操作。以下是CLI使用示例:
[root@192.168.1.111] # 打开Hive客户端 [root@192.168.1.111] $HIVE_HOME/bin/hive hive>CREATE TABLE tt ( id INT, name string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' COLLECTION ITEMS TERMINATED BY '\n' STORED AS TEXTFILE; hive>select * from tt; hive>drop table tt;
|
在hive控制台,执行命令成功后会打印如下所求的提示:
OK Time taken: 5.004 seconds |
如果有以上提示就证明你的Hive已经安装成功并能运行了。
分享到:
相关推荐
hive的安装与配置
本实验报告将详细阐述如何安装、配置Hive,并探讨其基本应用。 一、Hive的安装与配置 1. **元数据库的选择与配置** 默认情况下,Hive使用内嵌的Derby数据库作为元数据库,但考虑到并发访问和性能问题,推荐使用...
从提供的文件内容中,我们可以提取到关于Hive安装与配置的相关知识点,同时也包括了MySQL的安装知识,因为MySQL是Hive常用的后端数据库。接下来,我将详细介绍这些知识点。 **Hive的安装与配置** 1. Hive是一个...
hive配置 在hadoop集群搭建完成后,我们可以开始配置hive。hive是hadoop集群中的一种数据仓库,可以对hadoop集群中的数据进行查询和分析。 首先,我们需要下载hive的安装包,并将其上传到master机器的/home/hadoop...
在本压缩包中,"文档.pdf" 和 "资料必看.zip" 可能包含了关于 Hive 安装与配置的详细步骤和指南。现在,我们将深入探讨 Hive 的安装与配置过程。 首先,安装 Hive 需要先确保你已经安装了 Hadoop 环境,因为 Hive ...
Hive 远程连接详细配置 Hive 远程连接是指 Hive 客户端与 Hive 服务器的连接,以便在分布式环境中实现数据仓库的管理和分析。在这个过程中,Hive 客户端与 Hive 服务器之间的连接是通过 Thrift 协议实现的。在这个...
**hive-env.sh**文件则包含了Hive配置文件的路径以及Hadoop的安装路径,例如: ```bash # 设置Hive配置文件的路径 export HIVE_CONF_DIR=/home/test/Desktop/hive/conf # 设置Hadoop的安装路径 export HADOOP_HOME...
* 配置HIVE环境变量 * 启动HIVE服务 使用方式: * 使用HIVE命令行工具执行查询 * 使用HIVE API开发应用程序 * 使用HIVE与其他工具集成 HIVE是一种功能强大且灵活的数据仓库工具,广泛应用于大数据分析和处理领域...
Hive的安装过程涉及到了一系列的配置,例如配置Hive的环境变量,指定Hive使用的元数据库(在本例中是MySQL),并进行相应的环境配置和初始化。之后,就可以使用Hive的命令行工具(hive CLI)进行操作,比如创建表、...
以下是对 Hive 安装配置、常用命令及其功能的详细说明: 1. **Hive 的安装配置** - **下载与解压**:从 Apache 官方镜像站点下载稳定版本的 Hive,例如 `hive-0.7.1.tar.gz`,并将其解压到已安装 Hadoop 的主机...
以下是对Hive安装配置文件的详细解释: 1. **`core-site.xml`**: 这个文件包含了Hadoop核心的配置参数,例如HDFS(Hadoop分布式文件系统)的地址、名称节点和数据节点的位置等。在安装Hive时,需要确保它能够正确地...
2. 修改Hive配置文件($HIVE_HOME/conf/hive-site.xml),添加以下内容: ```xml <name>javax.jdo.option.ConnectionURL <value>jdbc:derby:;databaseName=/var/lib/hive/metastore;create=true <name>...
本文详细介绍了如何在 Linux 系统下安装和配置 Hive,包括下载、解压、配置环境变量、配置 `hive-site.xml` 文件以及安装 MySQL 驱动等步骤。通过这些步骤,可以确保 Hive 在 Linux 系统上能够顺利运行,并且能够...
Hive安装与配置,很详细
2. **HIVE_CONF_DIR**:Hive配置文件的路径,通常是`/usr/local/hive/conf`。 3. **HIVE_AUX_JARS_PATH**:如果需要添加自定义库,可以在这里指定路径。 此外,还需要在`/usr/local/hive/conf/hive-site.xml`中配置...
非常全面的hive参数配置,总共有600多项,中文注释是用软件翻译的,勉强能看,引用请注明出处。
【大数据Hive运维技术】 ...安装Hive时,通常涉及下载Hive的软件包,解压后配置相关参数,如Hadoop的路径、元数据存储位置等,然后启动Hive服务,使其与其他Hadoop组件协同工作,以实现高效的数据分析流程。
spark下安装hive标准配置文档。Ubuntu安装hive,并配置mysql作为元数据库时候需要的标准hive-site.xml配置文件,可以根据这个文件联系我的博文内容就行修改,避免入坑。实现快捷启动hive。
内容概要:本文档提供了详尽的Hive安装与配置指南,涵盖Hive的下载与解压、配置环境变量、创建Hive配置文件以及配置MySQL作为元数据存储的具体步骤。针对每步操作都给出了具体的操作命令,并对关键配置项进行了详细...