在Hadoop1.2.1分布式集群环境下安装hive0.12
● 前言:
1. 大家最好通读一遍过后,在理解的基础上再按照步骤搭建。
2. 之前写过两篇<<在VMware下安装Ubuntu并部署Hadoop1.2.1分布式环境>>、《在Hadoop1.2.1分布式集群环境下安装Mahout0.9框架》都是Hadoop家族一系列的,后续还会有其它内容,敬请期待!
3. 好记性不如烂笔头,最新突然想把自己学习的东西整理出来,然而我也是刚刚学习,而且水平有限,难免会错误,请谅解并指正,如有什么问题可以留言咨询。
一、推荐阅读文章
《在VMware下安装Ubuntu并部署Hadoop1.2.1分布式环境》
《在Hadoop1.2.1分布式集群环境下安装Mahout0.9框架》
二、前提条件
Hadoop1.2.1分布式集群环境搭建成功,并且Hadoop集群服务器正常运行。
三、所需环境与软件
1. Hadoop分布式集群环境:
见《在VMware下安装Ubuntu并部署Hadoop1.2.1分布式环境》。
2. Hive0.12: hive-0.12.0.tar.gz
四、安装与配置
1. 下载hive-0.12.0.tar.gz,并使用以下命令解压。
tar -zxvf hive-0.12.0.tar.gz
解压后文件夹为:hive-0.12.0
2. 移动hive-0.12.0到opt目录下,命令如下。
sudo mv hive-0.12.0 /opt/hive-0.12.0
3. 设置hive的环境变量
如(图1)所示,使用命令 sudo gedit /etc/profile 打开文件后,在文件最后面加入:
export HIVE_HOME=/opt/hive-0.12.0
export CLASSPATH=${CLASSPATH}:${HIVE_HOME}/lib
export PATH=${PATH}:${HIVE_HOME}/bin
(图1)
备注:最后要使用命令:source /etc/profile 使环境变量立即生效。
4. 创建hive-env.sh、hive-site.xml文件,如(图2)所示。
cd /opt/hive-0.12.0/conf
cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
(图2)
5. 修改hive-env.sh文件,如(图3)所示。
HADOOP_HOME=/opt/hadoop-1.2.1
export HIVE_CONF_DIR=/opt/hive-0.12.0/conf
(图3)
6. 修改hive-site.xml文件,如(图4,图5)所示。
有两处需要修改的:
(1) hive-site.xml文件最后面,大约2000行作业,把
<value>auth</auth>修改为<value>auth</value>。
(图4)
(2) 把hive.metastore.schema.verification=true,修改为
hive.metastore.schema.verification=false。
意思是:(强制metastore的schema一致性,开启的话会校验在metastore中存储的信息的版本和hive的jar包中的版本一致性,并且关闭自动schema迁移,用户必须手动的升级hive并且迁移schema,关闭的话只会在版本不一致时给出警告,默认是false不开启.)
(图5)
备注:如果不修改成false的话会报一下错误:
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient
7. 到此hive安装完成,下面运行和测试下是否安装成功。
五、运行和测试
1. 使用 start-all.sh 命令启动hadoop集群,并使用jps查看是否启动成功,如(图6)所示。
(图6)
2. 首次使用的时候,需要使用 hive --service cli 命令,来启动hive命令行模式,如(图7)所示。
然后使用命令:
show tables;
create table test1(id int,name string);
select * from test1;
drop table test1;
来测试HiveQL是否能使用。
(图7)
备注:首次如果不使用hive --service cli 命令,来启动hive命令行模式,会报如下错误:
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient
再次使用的时候就不需要使用hive --service cli 命令了。
3. 如果出现如(图7)所示页面,说明运行和测试成功。
备注:可以使用以下命令使报错更详细一点:
hive -hiveconf hive.root.logger=DEBUG,console
2014年3月8日
相关推荐
### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...
综合以上信息,用户在进行hadoop2.2+hbase0.96+hive0.12的集成安装时,应该详细检查各个组件的版本兼容性,确保系统权限设置正确,按照实践指南执行相关配置步骤,并正确设置和使用MySQL数据库作为元数据存储。...
本文将详细介绍如何在Linux环境下搭建Hadoop2.2.0、HBase0.96和Hive0.12的集群环境。 首先,我们从Hadoop的安装开始。Hadoop2.2.0是Apache官方稳定版,可以从官方网站或镜像站点下载。下载完成后,将其上传到Linux...
**Hive 0.12 安装配置指南(基于 Hadoop 2.2)** 在大数据处理领域,Apache Hive 是一个非常重要的组件,它提供了一个SQL-like 的查询语言(HQL),使得非编程背景的用户也能对存储在Hadoop Distributed File ...
Hive的安装过程涉及到了一系列的配置,例如配置Hive的环境变量,指定Hive使用的元数据库(在本例中是MySQL),并进行相应的环境配置和初始化。之后,就可以使用Hive的命令行工具(hive CLI)进行操作,比如创建表、...
### hadoop2.2、hbase0.96与hive0.12的安装整合及高可靠部署 #### 一、Hadoop2.2的安装与配置 **1.1 安装前准备** - **操作系统环境**: Linux系统(推荐CentOS 6.x) - **JDK安装**: Hadoop依赖于JDK运行,需先...
大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK...... 大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK...... 大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK.......
Hadoop课程实验和报告——Hadoop安装实验报告 Hadoop是一个开源的大数据处理框架,由Apache基金会开发和维护。它提供了一种可靠、可扩展、可高效的方法来存储和处理大规模数据。在本实验报告中,我们将介绍Hadoop的...
大数据框架组件 含Hadoop、Spark、Flink等大数据书籍 一、Hadoop 1. Hadoop——分布式文件管理系统HDFS ... 3.Hive——Hive DDL数据定义 4.Hive——Hive DML数据操作 5.Hive——Hive查询
在本文档中,我们详细地介绍了Hadoop+Hbase+Spark+Hive的搭建过程,包括环境准备、主机设置、防火墙设置、环境变量设置、Hadoop安装、Hbase安装、Spark安装和Hive安装。本文档旨在指导读者从零开始搭建Hadoop+Hbase+...
Hadoop之Hive安装 本篇文章将指导您如何在CentOS 6.4下安装Hive,并解决可能遇到的错误。 环境及软件介绍 本篇文章使用的环境是CentOS 6.4-x86_64-bin-DVD1.iso,软件版本为Hadoop 2.2.0和Hive 0.12.0,以及MySQL...
Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤
总的来说,搭建Hadoop、HBase、Spark和Hive集群涉及多个步骤,包括安装、配置、启动以及验证。整个过程需要对大数据处理原理有深入理解,并熟悉Linux系统的操作。完成后,这个集群可以处理大量数据,支持实时查询和...
Hive是Apache Hadoop生态系统中的一个关键组件,它为大数据处理提供了基于SQL的查询和分析能力。Hive最初设计的目标是解决大规模数据集的离线分析问题,尤其适合那些不频繁但需要进行复杂分析的数据。它通过将SQL...
Hadoop课程实验和报告——K-Means算法并行实现
安装Hive时,需要将其`lib`目录下的JAR文件添加到Hadoop的类路径中。配置`hive-site.xml`,指定MySQL作为元数据存储,并确保与MySQL的连接信息一致。启动Hive服务器,可以使用`hive`命令进入Hive的命令行界面。 **6...
大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...
具体到某个小版本,比如Hadoop2.2可以支持Hive 0.12和0.13,但仍需注意可能存在的兼容性小问题。 需要注意的是,Hadoop的1.x系列在目前的开发中已经不再被支持,它的一些功能已经被2.x系列所取代。同时,HBase对...
大数据平台搭建之 ...大数据平台搭建需要经过多个步骤,包括环境准备、Hadoop 安装和配置、Zookeeper 部署、Hbase 部署和 Hive 部署。通过本文档,我们可以了解大数据平台搭建的整个过程,并掌握相关的技术和经验。
《Spark 3.2.0 与 Hadoop 3 的集成——无 Hive 版本解析》 Spark,作为大数据处理领域的重要工具,以其高效的内存计算和分布式数据处理能力备受青睐。Spark 3.2.0 是一个重要的版本更新,它在性能、稳定性和功能上...