在本节中,我们来学习如何安装Hive。在之前我们已经学习过如何在CentOS上安装Hadoop,详情请参看
CentOS 6.4 安装伪分布式Hadoop 1.0.3 ,这里不再赘述。
第一步,下载并解压Hive的tar文件:
引用
# chmod +x hive-0.8.1.tar.gz
# tar xzvf hive-0.8.1.tar.gz
# cp -rf hive-0.8.1 /opt/bigdata
第二步,配置Hive:
引用
# cd /opt/bigdata/hive-0.8.1
# ll
1、先配置Hive_HOME:
引用
# vi /etc/profile
export HIVE_HOME=/opt/bigdata/hive-0.8.1
export export PATH=%HIVE_HOME%/bin:$PATH
# source /etc/profile
2、进入hive/conf,依据hive-env.sh.template,创建并配置hive-env.sh:
引用
# cp hive-env.sh.template hive-env.sh
# vi hive-env.sh
export HIVE_CONF_DIR=/opt/bigdata/hive-0.8.1/conf //设置hive配置文件的路径
export HADOOP_HOME=/opt/bigdata/hadoop-1.0.3 //配置hadoop的路径
3、到了这里,额哦们先来在mysql中给Hive配置一个数据库:
引用
# mysql -u root -p
Enter password:
mysql> create database hive;
mysql> grant all on hive.* to hive@'%' identified by 'hive'; //创建hive用户,并授权
mysql> flush privileges;
4、接下来在配置hive-site.xml:
引用
# cp hive-default.xml.template hive-site.xml
# cp hive-default.xml.template hive-default.xml
# cp hive-log4j.properties.template hive-log4j.properties
# cp hive-exec-log4j.properties.template hive-exec-log4j.properties
# vi hive-site.xml
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>org.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value></value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/data/hive/warehouse/</value>
</property>
5、最后下载mysql-connector-java-version.jar并将之copy到hive-0.8.1/lib目录下。
经过上述5个步骤,hive运行环境已经配置好了,下面我们来启动Hive:
引用
# cd ../bin
# ./hive
最终显示如下:
- 大小: 162.2 KB
- 大小: 114.3 KB
- 大小: 74.4 KB
- 大小: 143.1 KB
分享到:
相关推荐
本篇文章使用的环境是CentOS 6.4-x86_64-bin-DVD1.iso,软件版本为Hadoop 2.2.0和Hive 0.12.0,以及MySQL 5.1.66。 MySQL 的安装和卸载 首先,我们需要安装MySQL数据库。可以使用rpm命令来查看已安装的数据库软件...
在这个特定的“hadoop-2.5.0-cdh5.3.1centos6.4本地库”压缩包中,包含的是针对CentOS 6.4 64位系统优化的Hadoop本地库。这些本地库对于Hadoop在Linux环境下的高效运行至关重要,因为它们提供了与操作系统底层交互的...
在实际应用中,lib包不仅用于启动Hadoop服务,还涉及到Hadoop与其他系统或服务的集成,如Hive、Pig、Spark等,这些都需要依赖lib包中的库文件。因此,理解并管理好lib包对于任何Hadoop用户来说都至关重要。 总之,...
本篇将详细阐述如何在 CentOS 6.4 系统上安装 Hadoop 2.7.1。 **一、准备工作** 1. **获取安装包** - Hadoop 2.7.1 的安装包:`hadoop-2.7.1.tar.gz` - Java 开发工具 (JDK):推荐使用 JDK 1.8 版本,如 `jdk-8u...
Spark是一个快速通用的大规模数据处理引擎,它可以与Hadoop无缝集成。 ##### 1、软硬件环境 - **操作系统**: CentOS 7.2 64位 - **Java版本**: OpenJDK-1.8.0 - **Hadoop版本**: Hadoop-2.7 - **Spark版本**: Spark...
为搭建Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境,需要至少3台Linux机器,建议使用Centos6.4 64位操作系统,每台机器建议配置不低于4G内存和10G磁盘空间。 软件方面,需要安装jdk-7u55-linux-x64.rpm、apache-...
编译环境:centos 6.4 64bit、maven 3.3.9、jdk1.7.0_79、lzo-2.09; 目的:编译给hadoop2.4.1(64)用的; 解决:hive报错:Cannot create an instance of InputFormat class org.apache.hadoop ....... as ...
搭建过程涉及多个步骤,首先需要准备服务器环境,包括使用虚拟机(如Vmware 11.0)和操作系统(如CentOS 6.4 64bit),并设置网络环境(如采用NAT方式,配置IP地址和子网掩码)。接着,要确保所有服务器的时间同步、...
它基于Apache Hadoop的稳定版本构建,并集成了大量的补丁与改进,使其更适合于生产环境的应用。相较于其他Hadoop发行版,CDH具有更完善的安全性、更高的性能以及更强的稳定性。 #### 二、Cloudera Manager概述 **...
- **Hadoop集群**:由多个节点组成,每个节点可以运行HDFS、MapReduce、HBase、Hive等组件的一个或多个实例。 - **客户端**:包括HDFS客户端、MapReduce客户端、HBase客户端、Hive客户端等,它们可以运行在一台或多...
CDH(Cloudera's Distribution including Apache Hadoop)是由Cloudera公司推出的Hadoop发行版本,它包含了Hadoop生态系统中多个重要组件,并对它们进行了集成和优化。在部署CDH时,选择合适的软硬件配置对于保证...
CDH 软件包则包含了Hadoop的各种核心组件和工具,如HDFS、MapReduce、YARN、Hive、HBase等。 **Cloudera Manager** 作为管理平台,大大简化了Hadoop集群的部署和管理过程,支持一键式部署、监控、备份与恢复等功能...
文章中提及的CentOS 6.4、Java、Hadoop、WebNginx、JBoss、MySQL Cluster等都是实施智慧校园数据处理技术过程中可能会用到的具体工具和平台。这些工具和平台的选择,需要根据学校的实际需求、技术基础和预算情况进行...
推荐的系统版本为Red Hat Enterprise Linux 6.2或6.4以及CentOS 6.2或6.4的64位版本。对于服务器的硬件需求,至少需要64GB内存以确保稳定运行。此外,硬盘空间也需满足最低要求,例如 `/var` 至少20GB,`/usr` 至少...