`
cumtheima
  • 浏览: 256243 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

Hadoop家族安装系列(3)——hive0.12安装

阅读更多

在Hadoop1.2.1分布式集群环境下安装hive0.12

 

● 前言:

1. 大家最好通读一遍过后,在理解的基础上再按照步骤搭建。

2. 之前写过两篇<<在VMware下安装Ubuntu并部署Hadoop1.2.1分布式环境>>、《在Hadoop1.2.1分布式集群环境下安装Mahout0.9框架》都是Hadoop家族一系列的,后续还会有其它内容,敬请期待!

3. 好记性不如烂笔头,最新突然想把自己学习的东西整理出来,然而我也是刚刚学习,而且水平有限,难免会错误,请谅解并指正,如有什么问题可以留言咨询。

一、推荐阅读文章

在VMware下安装Ubuntu并部署Hadoop1.2.1分布式环境

在Hadoop1.2.1分布式集群环境下安装Mahout0.9框架

二、前提条件

    Hadoop1.2.1分布式集群环境搭建成功,并且Hadoop集群服务器正常运行。

三、所需环境与软件

1. Hadoop分布式集群环境:

见《在VMware下安装Ubuntu并部署Hadoop1.2.1分布式环境》。

2.  Hive0.12: hive-0.12.0.tar.gz

四、安装与配置

1. 下载hive-0.12.0.tar.gz,并使用以下命令解压。

    tar -zxvf hive-0.12.0.tar.gz

解压后文件夹为:hive-0.12.0

2. 移动hive-0.12.0到opt目录下,命令如下。

    sudo mv hive-0.12.0 /opt/hive-0.12.0

3. 设置hive的环境变量

如(图1)所示,使用命令 sudo gedit /etc/profile  打开文件后,在文件最后面加入:

    export HIVE_HOME=/opt/hive-0.12.0

    export CLASSPATH=${CLASSPATH}:${HIVE_HOME}/lib

    export PATH=${PATH}:${HIVE_HOME}/bin


(图1)

备注:最后要使用命令:source /etc/profile  使环境变量立即生效。

4. 创建hive-env.sh、hive-site.xml文件,如(图2)所示。

    cd /opt/hive-0.12.0/conf

    cp  hive-env.sh.template   hive-env.sh

    cp hive-default.xml.template  hive-site.xml


(图2)

5. 修改hive-env.sh文件,如(图3)所示。

    HADOOP_HOME=/opt/hadoop-1.2.1

    export HIVE_CONF_DIR=/opt/hive-0.12.0/conf 


(图3)

6. 修改hive-site.xml文件,如(图4,图5)所示。

 有两处需要修改的:

    (1) hive-site.xml文件最后面,大约2000行作业,把

     <value>auth</auth>修改为<value>auth</value>。


(图4)

(2) 把hive.metastore.schema.verification=true,修改为

    hive.metastore.schema.verification=false。

意思是:(强制metastore的schema一致性,开启的话会校验在metastore中存储的信息的版本和hive的jar包中的版本一致性,并且关闭自动schema迁移,用户必须手动的升级hive并且迁移schema,关闭的话只会在版本不一致时给出警告,默认是false不开启.)


(图5)

备注:如果不修改成false的话会报一下错误:

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient

7. 到此hive安装完成,下面运行和测试下是否安装成功。

五、运行和测试

1. 使用 start-all.sh 命令启动hadoop集群,并使用jps查看是否启动成功,如(图6)所示。


(图6)

2. 首次使用的时候,需要使用 hive --service cli 命令,来启动hive命令行模式,如(图7)所示。

然后使用命令:

show tables;

create table test1(id int,name string);

select * from test1;

drop table test1;

来测试HiveQL是否能使用。


(图7)

备注:首次如果不使用hive --service cli 命令,来启动hive命令行模式,会报如下错误:

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient

再次使用的时候就不需要使用hive --service cli 命令了。

3. 如果出现如(图7)所示页面,说明运行和测试成功。

备注:可以使用以下命令使报错更详细一点:

hive -hiveconf hive.root.logger=DEBUG,console

 

2014年3月8日

 

  • 大小: 138.6 KB
  • 大小: 81 KB
  • 大小: 101.2 KB
  • 大小: 84.5 KB
  • 大小: 40.6 KB
  • 大小: 90.9 KB
  • 大小: 62.7 KB
分享到:
评论
2 楼 cumtheima 2014-08-22  
dipwater 写道
写的非常好,楼主坚持写下去!

O(∩_∩)O谢谢!!!
1 楼 dipwater 2014-07-20  
写的非常好,楼主坚持写下去!

相关推荐

    hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结

    ### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...

    hadoop2.2+hbase0.96+hive0.12 安装文档

    综合以上信息,用户在进行hadoop2.2+hbase0.96+hive0.12的集成安装时,应该详细检查各个组件的版本兼容性,确保系统权限设置正确,按照实践指南执行相关配置步骤,并正确设置和使用MySQL数据库作为元数据存储。...

    hadoop2.2.0+Hbase0.96+hive0.12详细配置

    本文将详细介绍如何在Linux环境下搭建Hadoop2.2.0、HBase0.96和Hive0.12的集群环境。 首先,我们从Hadoop的安装开始。Hadoop2.2.0是Apache官方稳定版,可以从官方网站或镜像站点下载。下载完成后,将其上传到Linux...

    HIVE 0.12安装配置(HADOOP2.2)

    **Hive 0.12 安装配置指南(基于 Hadoop 2.2)** 在大数据处理领域,Apache Hive 是一个非常重要的组件,它提供了一个SQL-like 的查询语言(HQL),使得非编程背景的用户也能对存储在Hadoop Distributed File ...

    hadoop集群配置之———hive安装与配置(超详细)

    Hive的安装过程涉及到了一系列的配置,例如配置Hive的环境变量,指定Hive使用的元数据库(在本例中是MySQL),并进行相应的环境配置和初始化。之后,就可以使用Hive的命令行工具(hive CLI)进行操作,比如创建表、...

    hadoop2.2 hbase0.96 hive0.12安装整合详细高可靠文档及经验总结

    ### hadoop2.2、hbase0.96与hive0.12的安装整合及高可靠部署 #### 一、Hadoop2.2的安装与配置 **1.1 安装前准备** - **操作系统环境**: Linux系统(推荐CentOS 6.x) - **JDK安装**: Hadoop依赖于JDK运行,需先...

    大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK......

    大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK...... 大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK...... 大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK.......

    Hadoop课程实验和报告——Hadoop安装实验报告

    Hadoop课程实验和报告——Hadoop安装实验报告 Hadoop是一个开源的大数据处理框架,由Apache基金会开发和维护。它提供了一种可靠、可扩展、可高效的方法来存储和处理大规模数据。在本实验报告中,我们将介绍Hadoop的...

    大数据学习指南合集(Hadoop、Spark、Flink等)

    大数据框架组件 含Hadoop、Spark、Flink等大数据书籍 一、Hadoop   1. Hadoop——分布式文件管理系统HDFS ...  3.Hive——Hive DDL数据定义   4.Hive——Hive DML数据操作   5.Hive——Hive查询

    Hadoop+Hbase+Spark+Hive搭建

    在本文档中,我们详细地介绍了Hadoop+Hbase+Spark+Hive的搭建过程,包括环境准备、主机设置、防火墙设置、环境变量设置、Hadoop安装、Hbase安装、Spark安装和Hive安装。本文档旨在指导读者从零开始搭建Hadoop+Hbase+...

    Hadoop之hive安装

    Hadoop之Hive安装 本篇文章将指导您如何在CentOS 6.4下安装Hive,并解决可能遇到的错误。 环境及软件介绍 本篇文章使用的环境是CentOS 6.4-x86_64-bin-DVD1.iso,软件版本为Hadoop 2.2.0和Hive 0.12.0,以及MySQL...

    Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤

    Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    总的来说,搭建Hadoop、HBase、Spark和Hive集群涉及多个步骤,包括安装、配置、启动以及验证。整个过程需要对大数据处理原理有深入理解,并熟悉Linux系统的操作。完成后,这个集群可以处理大量数据,支持实时查询和...

    Hive2——Hive和Hadoop关系.pdf

    Hive是Apache Hadoop生态系统中的一个关键组件,它为大数据处理提供了基于SQL的查询和分析能力。Hive最初设计的目标是解决大规模数据集的离线分析问题,尤其适合那些不频繁但需要进行复杂分析的数据。它通过将SQL...

    Hadoop课程实验和报告——K-Means算法并行实现

    Hadoop课程实验和报告——K-Means算法并行实现

    win10下搭建Hadoop环境(jdk+mysql+hadoop+scala+hive+spark) 3.docx

    安装Hive时,需要将其`lib`目录下的JAR文件添加到Hadoop的类路径中。配置`hive-site.xml`,指定MySQL作为元数据存储,并确保与MySQL的连接信息一致。启动Hive服务器,可以使用`hive`命令进入Hive的命令行界面。 **6...

    Hadoop hbase hive sqoop集群环境安装配置及使用文档

    大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...

    新手指导hadoop、hbase、hive版本对应关系查找表

    具体到某个小版本,比如Hadoop2.2可以支持Hive 0.12和0.13,但仍需注意可能存在的兼容性小问题。 需要注意的是,Hadoop的1.x系列在目前的开发中已经不再被支持,它的一些功能已经被2.x系列所取代。同时,HBase对...

    Hadoop+Zookeeper+Hbase+Hive部署.doc

    大数据平台搭建之 ...大数据平台搭建需要经过多个步骤,包括环境准备、Hadoop 安装和配置、Zookeeper 部署、Hbase 部署和 Hive 部署。通过本文档,我们可以了解大数据平台搭建的整个过程,并掌握相关的技术和经验。

    spark-3.2.0-bin-hadoop3-without-hive

    《Spark 3.2.0 与 Hadoop 3 的集成——无 Hive 版本解析》 Spark,作为大数据处理领域的重要工具,以其高效的内存计算和分布式数据处理能力备受青睐。Spark 3.2.0 是一个重要的版本更新,它在性能、稳定性和功能上...

Global site tag (gtag.js) - Google Analytics