`
ghost_face
  • 浏览: 54423 次
社区版块
存档分类
最新评论

Hive环境搭建

阅读更多

 

Hive

1.安装

1)安装要求:Java1.6Hadoop0.20.x

2)安装步骤

l  解压

$ tar -xzvf hive-x.y.z.tar.gz

l  环境变量HIVE_HOMEPATHJAVA_HOME,HADOOP_HOME

$ cd hive-x.y.z
$ export HIVE_HOME={{pwd}}
$ export PATH=$HIVE_HOME/bin:$PATH
$ export JAVA_HOME=/usr/java/jdk1.7.0_01 
 

$ export HADOOP_HOME=<hadoop-install-dir>

l 创建目录/tmp /user/hive/warehouse;目录权限修改成g+w

  $ $HADOOP_HOME/bin/hadoop fs -mkdir       /tmp
  $ $HADOOP_HOME/bin/hadoop fs -mkdir       /user/hive/warehouse
  $ $HADOOP_HOME/bin/hadoop fs -chmod g+w   /tmp
  $ $HADOOP_HOME/bin/hadoop fs -chmod g+w   /user/hive/warehouse

 

注:0.8.1hive版本忽略hive-default.xml,因此需要将hive/conf下的hive-default.xml.template复制并改名为hive-site.xml

 

3)存储元数据:mysql数据库。

Hive 将元数据存储在 RDBMS 中,有三种模式可以连接到数据库: 

lingle User Mode:此模式连接到一个 In-memory 的数据库 Derby,一般用于 Unit Test

l  Multi User Mode:通过网络连接到一个数据库中,是最经常使用到的模式。 

l  Remote Server Mode:用于非 Java 客户端访问元数据库,在服务器端启动一个 MetaStoreServer,客户端利用 Thrift 协议通过 MetaStoreServer 访问元数据库。

Hive默认是采用Derby来存储其Meta信息的,现在我们需要修改为mysql 

l  安装mysql(具体见http://running.iteye.com/blog/910277

²  使用root用户登录之后,创建用户hive,其中hivedb.acme.com指的是mysqlserver所在的主机名,dbpasswd指密码。

²  创建数据库,默认编码是latin1。如果不设置,可能会出现异常 "com.mysql.jdbc.exceptions.MySQLSyntaxErrorException:Specified key was too long; max key length is 767 bytes"

²  授权给hive用户。

mysql -u root
mysql> CREATE USER 'hive'@'hivedb.acme.com' IDENTIFIED BY 'dbpassword';
mysql> CREATE DATABASE hivemetastoredb DEFAULT CHARACTER SET latin1 DEFAULT COLLATE latin1_swedish_ci;
mysql> GRANT ALL PRIVILEGES ON hivemetastoredb.* TO 'hive'@'hivedb.acme.com' WITH GRANT OPTION;
mysql> flush privileges;
mysql> quit;

 

²  下载mysql-connector-java-5.1-18-bin.jar,放入$HIVE_HOME/lib下;

²  修改Hive的配置文件conf/hive-site.xml如下:

<property>    
        <name>hive.metastore.local</name>    
        <value>true</value>    
        <description>controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM</description>  
</property>  
<property>    
        <name>javax.jdo.option.ConnectionURL</name>    
        <value>jdbc:mysql://hive-mysql:3306/hive?createDatabaseIfNotExist=true</value>    
        <description>JDBC connect string for a JDBC metastore</description>  
</property>  
<property>    
        <name>javax.jdo.option.ConnectionDriverName</name>    
        <value>com.mysql.jdbc.Driver</value>    
        <description>Driver class name for a JDBC metastore</description>  
</property>  
<property>    
        <name>javax.jdo.option.ConnectionUserName</name>    
        <value>hive</value>    
        <description>username to use against metastore database</description>  
</property>  
<property>    
        <name>javax.jdo.option.ConnectionPassword</name>    
        <value>hivepasswd</value>    
        <description>password to use against metastore database</description>  
</property>  

 

Thrift安装

1.    安装boost

$ sudo apt-get install libboost-dev automake libtool flex bison pkg-config g++

 

2.    下载Thrift包,安装

$ wget http://apache.freelamp.com/incubator/thrift/0.2.0-incubating/thrift-0.2.0-incubating.tar.gz
$ tar -zxvf thrift-0.2.0-incubating.tar.gz
$ cd thrift-0.2.0
$ ./bootstrap.sh
$ ./configure
$ sudo make
$ sudo make install

 

(4)使用thrift来连接Hive

需要修改Hive的配置文件conf/hive-site.xml中的hive.metastore.uris参数,一般端口号是10000.

hive.metastore.uris

thrift://hostname:portnum 

【where hostname is the name of the machine hosting the Thrift server, and portnum is the port number used above in the installation script.】

 

 启动hiveThrift Server,即可使用Hive了。

hive --service hiveserver

 

 

 

 

 

分享到:
评论

相关推荐

    hive介绍和hive环境搭建

    hive介绍和hive环境搭建。。一、 安装mysql 1. 使用root用户: su root 2. 安装 yum install mysql yum install mysql-server yum install mysql-devel(可选) 3. 修改配置信息,添加: vim /etc/my.cnf ...

    hive环境搭建和建表加载数据

    标题“Hive环境搭建和建表加载数据”涉及了几个关键的知识点,包括Hive环境的搭建、创建表、加载数据以及执行Hive SQL作业。Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供...

    大数据综合实验环境搭建(3个集群、Zookeeper、Hive、HBase)

    大数据综合实验环境搭建(3个集群、Zookeeper、Hive、HBase) 本资源摘要信息主要对大数据综合实验环境搭建进行了详细的介绍,涵盖了 JDK 的安装和配置、免密码登录的设置、Zookeeper 的安装、Hive 和 HBase 的安装...

    Hive环境搭建及基本操作指南

    本文档介绍了Hive环境的具体构建步骤及其常规操作演示。从软件安装、配置、测试直到最终的运行都进行了详细的说明。重点讲解如何正确设置Hive的相关参数避免冲突,如因jar包引起的兼容性故障,确保能够顺利完成Hive...

    HIVE环境搭建及常用操作

    用于HIVE入门的介绍,包括hive是什么,hive的安装部署详细步骤,hive的数据类型及常用的操作

    Hive总结.docx

    【Hive原理】 Hive是基于Hadoop平台的数据仓库解决方案,它主要解决了在大数据场景下,业务人员和数据科学...通过理解其原理、掌握SQL语法、优化技巧和解决数据倾斜问题,可以在大数据环境中高效地进行数据分析工作。

    大数据技术基础实验报告-Hive安装配置与应用.doc

    【大数据技术基础实验报告-Hive安装配置...总结,本实验报告详细介绍了如何在Linux环境下安装、配置Hive,并给出了Hive的基本应用示例。理解并掌握这些步骤和概念,将有助于进一步学习和应用Hive进行大数据处理和分析。

    hadoop全套配置详细步骤(基础环境搭建+hadoop集群搭建+hive搭建)

    本文件包含hadoop集群搭建的详细步骤,包含基础环境搭建,Hadoop集群搭建,Hive搭建。小白放心食用,无坑。 其中基础环境搭建包括虚拟机安装、centos7、网络配置、xshell、notepad等环境的安装。注:本文里安装的...

    Hadoop和Hive的安装配置

    1. **环境变量**:确保Hadoop和Hive的`PATH`、`HADOOP_HOME`、`HIVE_HOME`等环境变量已经设置。 2. **权限管理**:Hadoop和Hive的目录需要有适当的权限,避免运行时出现权限问题。 3. **防火墙**:如果是在集群...

    hive实验报告.docx

    - Hive需要依赖JDK和Hadoop环境,同时实验中还涉及了MySQL数据库的连接,因此需要安装JDBC驱动,如`mysql-connector-java-5.1.42-bin.jar`。 2. **启动Hadoop集群**: - 启动Zookeeper服务,它是Hadoop分布式协调...

    Mac 搭建 Hadoop和hive环境.pdf

    #### 标题:Mac 搭建 Hadoop和hive环境 #### 描述:手把手教你进行mac搭建hadoop和hive环境 #### 标签:hadoop, hive, mac, mysql #### 详细知识点解析: ##### 一、前言 在Mac环境下搭建Hadoop和Hive对于数据...

    Win10不需要Cygwin搭建大数据测试环境搭建hive的bin文件(包含官方版本中缺少的cmd文件)hive)

    在搭建Hive环境时,你需要做以下几步: 1. **下载Hive**: 获取包含缺失"cmd"文件的Hive版本,确保它是针对Windows优化的。 2. **配置环境变量**: 将Hive的安装路径添加到系统的PATH环境变量中,这样你就可以在任何...

    Linux搭建Hive开发环境

    尽管这里只提供了部分内容,但上述步骤大致勾勒出了Linux下Hive开发环境搭建的完整流程,这个过程不仅涉及到软件本身的部署,也包含了对操作系统环境的适当调整。值得一提的是,因为文档是通过OCR扫描得到的,因此在...

    hive配置相关文件.zip

    总的来说,这个压缩包提供了一套完整的Hive环境搭建基础,包括Hadoop、Hive、Java运行环境以及与MySQL交互的驱动。用户需要按照特定的步骤解压、配置这些组件,并根据实际需求调整`hive-site.xml`中的参数。对于初学...

    hive搭建及使用入门简介(内含PPT、各种表创建sql及hive搭建使用笔记)

    在“Hive搭建”部分,你将了解到如何在本地或集群环境中设置Hive。这通常包括安装Java环境、配置Hadoop、下载和安装Hive、创建Hive metastore服务,以及配置Hive-site.xml等步骤。确保所有依赖服务如HDFS、YARN和...

    《Hive数据仓库案例教程》教学大纲.pdf

    2. **Hive环境搭建**:这章介绍了Hive的安装、配置,包括MySQL的安装,Hive元数据的配置,以及如何使用HiveJDBC进行连接。实践环节让学生亲手操作Hive的部署,掌握配置过程。 3. **Hive基础**:本章涉及Hive的数据...

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    在构建大数据处理环境时,Hadoop、HBase、Spark和Hive是四个核心组件,它们协同工作以实现高效的数据存储、处理和分析。本教程将详细介绍如何在Ubuntu系统上搭建这些组件的集群。 1. **Hadoop**:Hadoop是Apache...

    hive-part1-基础知识.pdf

    最后,Hive环境搭建部分涵盖了Hive安装和使用方式的介绍。Hive安装主要有内嵌Derby版本、外置MySQL版本,以及LinuxRPM方式安装MySQL。Hive的使用方式主要分为三种连接方式:CLI(命令行接口)、HiveServer2/beeline...

    hadoop、hive、spark实验

    6. Hive 环境搭建:学习 Hive 的基本概念和使用,例如创建 Hive 表、加载数据、执行查询等。 7. Spark 环境搭建:学习 Spark 的基本概念和使用,例如创建 Spark 程序、加载数据、执行查询等。 8. 逻辑回归和决策树...

Global site tag (gtag.js) - Google Analytics