Hive
1.安装
(1)安装要求:Java1.6;Hadoop0.20.x
(2)安装步骤
l 解压
$ tar -xzvf hive-x.y.z.tar.gz
l 环境变量HIVE_HOME,PATH,JAVA_HOME,HADOOP_HOME
$ cd hive-x.y.z $ export HIVE_HOME={{pwd}} $ export PATH=$HIVE_HOME/bin:$PATH $ export JAVA_HOME=/usr/java/jdk1.7.0_01
$ export HADOOP_HOME=<hadoop-install-dir>
l 创建目录/tmp和 /user/hive/warehouse;目录权限修改成g+w
$ $HADOOP_HOME/bin/hadoop fs -mkdir /tmp $ $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse $ $HADOOP_HOME/bin/hadoop fs -chmod g+w /tmp $ $HADOOP_HOME/bin/hadoop fs -chmod g+w /user/hive/warehouse
注:0.8.1的hive版本忽略hive-default.xml,因此需要将hive/conf下的hive-default.xml.template复制并改名为hive-site.xml。
(3)存储元数据:mysql数据库。
Hive 将元数据存储在 RDBMS 中,有三种模式可以连接到数据库:
lingle User Mode:此模式连接到一个 In-memory 的数据库 Derby,一般用于 Unit Test。
l Multi User Mode:通过网络连接到一个数据库中,是最经常使用到的模式。
l Remote Server Mode:用于非 Java 客户端访问元数据库,在服务器端启动一个 MetaStoreServer,客户端利用 Thrift 协议通过 MetaStoreServer 访问元数据库。
Hive默认是采用Derby来存储其Meta信息的,现在我们需要修改为mysql。
l 安装mysql(具体见http://running.iteye.com/blog/910277)
² 使用root用户登录之后,创建用户hive,其中hivedb.acme.com指的是mysqlserver所在的主机名,dbpasswd指密码。
² 创建数据库,默认编码是latin1。如果不设置,可能会出现异常 "com.mysql.jdbc.exceptions.MySQLSyntaxErrorException:Specified key was too long; max key length is 767 bytes"。
² 授权给hive用户。
mysql -u root mysql> CREATE USER 'hive'@'hivedb.acme.com' IDENTIFIED BY 'dbpassword'; mysql> CREATE DATABASE hivemetastoredb DEFAULT CHARACTER SET latin1 DEFAULT COLLATE latin1_swedish_ci; mysql> GRANT ALL PRIVILEGES ON hivemetastoredb.* TO 'hive'@'hivedb.acme.com' WITH GRANT OPTION; mysql> flush privileges; mysql> quit;
² 下载mysql-connector-java-5.1-18-bin.jar,放入$HIVE_HOME/lib下;
² 修改Hive的配置文件conf/hive-site.xml如下:
<property> <name>hive.metastore.local</name> <value>true</value> <description>controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM</description> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://hive-mysql:3306/hive?createDatabaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hivepasswd</value> <description>password to use against metastore database</description> </property>
Thrift安装:
1. 安装boost库
$ sudo apt-get install libboost-dev automake libtool flex bison pkg-config g++
2. 下载Thrift包,安装
$ wget http://apache.freelamp.com/incubator/thrift/0.2.0-incubating/thrift-0.2.0-incubating.tar.gz $ tar -zxvf thrift-0.2.0-incubating.tar.gz $ cd thrift-0.2.0 $ ./bootstrap.sh $ ./configure $ sudo make $ sudo make install
(4)使用thrift来连接Hive
需要修改Hive的配置文件conf/hive-site.xml中的hive.metastore.uris参数,一般端口号是10000.
hive.metastore.uris |
thrift://hostname:portnum 【where hostname is the name of the machine hosting the Thrift server, and portnum is the port number used above in the installation script.】 |
启动hive的Thrift Server,即可使用Hive了。
hive --service hiveserver
相关推荐
hive介绍和hive环境搭建。。一、 安装mysql 1. 使用root用户: su root 2. 安装 yum install mysql yum install mysql-server yum install mysql-devel(可选) 3. 修改配置信息,添加: vim /etc/my.cnf ...
标题“Hive环境搭建和建表加载数据”涉及了几个关键的知识点,包括Hive环境的搭建、创建表、加载数据以及执行Hive SQL作业。Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供...
大数据综合实验环境搭建(3个集群、Zookeeper、Hive、HBase) 本资源摘要信息主要对大数据综合实验环境搭建进行了详细的介绍,涵盖了 JDK 的安装和配置、免密码登录的设置、Zookeeper 的安装、Hive 和 HBase 的安装...
本文档介绍了Hive环境的具体构建步骤及其常规操作演示。从软件安装、配置、测试直到最终的运行都进行了详细的说明。重点讲解如何正确设置Hive的相关参数避免冲突,如因jar包引起的兼容性故障,确保能够顺利完成Hive...
用于HIVE入门的介绍,包括hive是什么,hive的安装部署详细步骤,hive的数据类型及常用的操作
【Hive原理】 Hive是基于Hadoop平台的数据仓库解决方案,它主要解决了在大数据场景下,业务人员和数据科学...通过理解其原理、掌握SQL语法、优化技巧和解决数据倾斜问题,可以在大数据环境中高效地进行数据分析工作。
【大数据技术基础实验报告-Hive安装配置...总结,本实验报告详细介绍了如何在Linux环境下安装、配置Hive,并给出了Hive的基本应用示例。理解并掌握这些步骤和概念,将有助于进一步学习和应用Hive进行大数据处理和分析。
本文件包含hadoop集群搭建的详细步骤,包含基础环境搭建,Hadoop集群搭建,Hive搭建。小白放心食用,无坑。 其中基础环境搭建包括虚拟机安装、centos7、网络配置、xshell、notepad等环境的安装。注:本文里安装的...
1. **环境变量**:确保Hadoop和Hive的`PATH`、`HADOOP_HOME`、`HIVE_HOME`等环境变量已经设置。 2. **权限管理**:Hadoop和Hive的目录需要有适当的权限,避免运行时出现权限问题。 3. **防火墙**:如果是在集群...
- Hive需要依赖JDK和Hadoop环境,同时实验中还涉及了MySQL数据库的连接,因此需要安装JDBC驱动,如`mysql-connector-java-5.1.42-bin.jar`。 2. **启动Hadoop集群**: - 启动Zookeeper服务,它是Hadoop分布式协调...
#### 标题:Mac 搭建 Hadoop和hive环境 #### 描述:手把手教你进行mac搭建hadoop和hive环境 #### 标签:hadoop, hive, mac, mysql #### 详细知识点解析: ##### 一、前言 在Mac环境下搭建Hadoop和Hive对于数据...
在搭建Hive环境时,你需要做以下几步: 1. **下载Hive**: 获取包含缺失"cmd"文件的Hive版本,确保它是针对Windows优化的。 2. **配置环境变量**: 将Hive的安装路径添加到系统的PATH环境变量中,这样你就可以在任何...
尽管这里只提供了部分内容,但上述步骤大致勾勒出了Linux下Hive开发环境搭建的完整流程,这个过程不仅涉及到软件本身的部署,也包含了对操作系统环境的适当调整。值得一提的是,因为文档是通过OCR扫描得到的,因此在...
总的来说,这个压缩包提供了一套完整的Hive环境搭建基础,包括Hadoop、Hive、Java运行环境以及与MySQL交互的驱动。用户需要按照特定的步骤解压、配置这些组件,并根据实际需求调整`hive-site.xml`中的参数。对于初学...
在“Hive搭建”部分,你将了解到如何在本地或集群环境中设置Hive。这通常包括安装Java环境、配置Hadoop、下载和安装Hive、创建Hive metastore服务,以及配置Hive-site.xml等步骤。确保所有依赖服务如HDFS、YARN和...
2. **Hive环境搭建**:这章介绍了Hive的安装、配置,包括MySQL的安装,Hive元数据的配置,以及如何使用HiveJDBC进行连接。实践环节让学生亲手操作Hive的部署,掌握配置过程。 3. **Hive基础**:本章涉及Hive的数据...
在构建大数据处理环境时,Hadoop、HBase、Spark和Hive是四个核心组件,它们协同工作以实现高效的数据存储、处理和分析。本教程将详细介绍如何在Ubuntu系统上搭建这些组件的集群。 1. **Hadoop**:Hadoop是Apache...
最后,Hive环境搭建部分涵盖了Hive安装和使用方式的介绍。Hive安装主要有内嵌Derby版本、外置MySQL版本,以及LinuxRPM方式安装MySQL。Hive的使用方式主要分为三种连接方式:CLI(命令行接口)、HiveServer2/beeline...
6. Hive 环境搭建:学习 Hive 的基本概念和使用,例如创建 Hive 表、加载数据、执行查询等。 7. Spark 环境搭建:学习 Spark 的基本概念和使用,例如创建 Spark 程序、加载数据、执行查询等。 8. 逻辑回归和决策树...