1.准备环境
java 1.7以上
hadoop版本参见hive官网的支持版本号,并启动hadoop集群。
2.下载、解压hive安装包
Hive官网地址: http://hive.apache.org/
下载安装包后用tar -xzvf命令解压,并用mv对文件夹重命名为hive
3.配置环境变量
vim /etc/profile,加入下面几行
HIVE_HOME=/home/hive
CLASSPATH=$CLASSPATH:$HIVE_HOME/lib
PATH=$PATH:$HIVE_HOME/bin
export HIVE_HOME CLASSPATH PATH
保存后使用命令:source /etc/profile使环境变量立即生效
4. 创建hive-env.sh、hive-site.xml文件
进入hive/conf根据各template创建这两个文件
4.1修改hive-env.sh文件
HADOOP_HOME=/home/hadoop
export HIVE_CONF_DIR=/home/hive/conf
4.2修改hive-site.xml文件
此处需要修改的部分2.1.0版本都不用修改,低版本可能需要修改
<value>auth</auth>修改为<value>auth</value>
把hive.metastore.schema.verification=true,修改为 hive.metastore.schema.verification=false
至此hive的相关配置工作完成。
5.MySQL
5.1安装MySQL
Hive默认使用derby数据库存储元数据,但是该数据库不适用于生产环境,这边使用MySQL作为元数据的存储数据库。
所以需要先安装好MySQL
。
安装过程使用sudo apt-get install mysql-server mysql-client命令安装即可,但是注意如果出现Encountered a section with no Package: header错误时,使用如下命令解决:
sudo rm /var/lib/apt/lists/* -vf
sudo apt-get update
安装MySQL过程中会为root用户设置密码,安装完毕后输入mysql -u root -p以及密码启动MySQL来创建数据库用户
5.2创建MySQL用户
-
create user 'hive' identified by 'hive';
-
grant all privileges on *.* to 'hive' with grant option;
-
flush privileges;
-
create database hive;
5.3拷贝MySQL驱动文件
下载地址:http://dev.mysql.com/downloads/connector/j/ ,解压后拷贝其中的mysql-connector-java-5.1.39-bin.jar
到hive的lib文件夹下。
6.修改hive-site.xml文件
-
<property>
-
<name>javax.jdo.option.ConnectionURL</name>
-
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
-
<description>JDBC connect string for a JDBC metastore</description>
-
</property>
-
<property>
-
<name>javax.jdo.option.ConnectionDriverName</name>
-
<value>com.mysql.jdbc.Driver</value>
-
<description>Driver class name for a JDBC metastore</description>
-
</property>
-
<property>
-
<name>javax.jdo.option.ConnectionUserName</name>
-
<value>hive</value>
-
<description>username to use against metastore database</description>
-
</property>
-
<property>
-
<name>javax.jdo.option.ConnectionPassword</name>
-
<value>hive</value>
-
<description>password to use against metastore database</description>
-
</property>
7.初始化数据库
在使用hive或者hive --service cli来运行之前需要初始化数据库,如果在初始化之前已经运行了上述命令并且失败,则需要删除产生的metastore_db文件
使用命令schematool -initSchema -dbType mysql初始化mysql数据库
出现以下几行说明初始化成功:
-
Starting metastore schema initialization to 2.1.0
-
Initialization script hive-schema-2.1.0.derby.sql
-
Initialization script completed
-
schemaTool completed
8.启动hive
在使用hive或者hive --service cli运行hive时出现java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D错误
需要修改hive-site.xml的以下部分
-
<property>
-
<name>hive.exec.scratchdir</name>
-
<value>/tmp/hive</value>
-
<description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description>
-
</property>
-
-
<property>
-
<name>hive.exec.local.scratchdir</name>
-
<value>/tmp/hive/local</value>
-
<description>Local scratch space for Hive jobs</description>
-
</property>
-
-
<property>
-
<name>hive.downloaded.resources.dir</name>
-
<value>/tmp/hive/resources</value>
-
<description>Temporary local directory for added resources in the remote file system.</description>
-
</property>
然后即可正常运行。
9.测试
使用命令:
show tables;
create table test1(id int,name string);
select * from test1;
drop table test1;
来测试HiveQL是否能使用。
相关推荐
3. 安装Hadoop:解压hadoop-2.7.1,配置HADOOP_HOME环境变量,并编辑配置文件如`core-site.xml`、`hdfs-site.xml`和`yarn-site.xml`,设置HDFS和YARN的相关参数。 4. 安装ZooKeeper:解压zookeeper,配置ZOOKEEPER_...
在大数据领域,构建一个完整的生态系统是至关重要的,其中包括多个组件,如Hadoop、Spark、Hive、HBase、Oozie、Kafka、Flume、Flink、Elasticsearch和Redash。这些组件协同工作,提供了数据存储、处理、调度、流...
本篇将详细阐述如何在Hadoop 2.7.1环境下搭建HBase 1.2.1集群,并进行性能优化,以提升系统效率。 首先,我们需要了解Hadoop和HBase的基本概念。Hadoop是基于分布式文件系统HDFS(Hadoop Distributed File System)...
hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+...
毕业设计,采用Hadoop+Hive构建数据仓库,使用django+echarts构建前端web网站对业务指标进行可视化呈现 1. Hadoop+Hive构建数据仓库 2. django+echarts网站开发 3. 数据清洗,数据模型构建 毕业设计,采用Hadoop+...
标题 "hadoop2.7.1+hbase2.1.4+zookeeper3.6.2.rar" 提供的信息表明这是一个包含Hadoop 2.7.1、HBase 2.1.4和ZooKeeper 3.6.2的软件集合。这个压缩包可能包含了这些分布式系统的安装文件、配置文件、文档以及其他...
在Windows 10环境下搭建Hadoop生态系统,包括JDK、MySQL、Hadoop、Scala、Hive和Spark等组件,是一项繁琐但重要的任务,这将为你提供一个基础的大数据处理平台。下面将详细介绍每个组件的安装与配置过程。 **1. JDK...
与Hadoop 2.7.1一同提及的还有hive-1.2.1,Hive是基于Hadoop的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能。在Hive 1.2.1中,可能包含的改进有: 1. 性能优化,包括更快的查询执行...
### Hadoop2.7.1 + HBase1.3.5 在 CentOS6.5 虚拟机环境下的安装配置指南 #### 准备工作 为了确保 Hadoop 和 HBase 的顺利安装,需要提前做好一系列准备工作,包括安装 VMware、设置虚拟机、配置 CentOS 操作系统等...
Hadoop+Hbase+Spark+Hive搭建指南 Hadoop是Apache开源的大数据处理框架,它提供了可靠的高效的数据存储和处理能力。Hbase是基于Hadoop的分布式NoSQL数据库,提供了高效的数据存储和检索能力。Spark是基于内存的数据...
Linux 环境下 Hive 的安装部署 CLI 和 Beeline 命令行的基本使用 常用 DDL 操作 分区表和分桶表 视图和索引 常用 DML 操作 数据查询详解 三、Spark Spark Core Spark SQL Spark Streaming 五、Flink 核心概念综述 ...
jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...
本教程将详细介绍如何在Ubuntu系统上搭建这些组件的集群。 1. **Hadoop**:Hadoop是Apache软件基金会开发的一个开源框架,用于分布式存储和处理大规模数据。它的主要组成部分包括HDFS(Hadoop Distributed File ...
基于hadoop的Hive数据仓库JavaAPI简单调用的实例,关于Hive的简介在此不赘述。hive提供了三种用户接口:CLI,JDBC/ODBC和 WebUI CLI,即Shell命令行 JDBC/ODBC 是 Hive 的Java,与使用传统数据库JDBC的方式类似 Web...
毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+论文PDF(高分毕设)毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+论文PDF(高分毕设)毕业设计基于hadoop+hive+hbase+...
毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+文档说明(高分毕设)毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+文档说明(高分毕设)毕业设计基于hadoop+hive+...
Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤
适合新手,详细 01-Java环境安装 02- Eclipse下载与安装 03-VMware虚拟机的安装 04-在VMware中安装CentOS 05- Hadoop集群+ Hive+ MySQL搭建
毕业设计,采用Hadoop+Hive构建数据仓库,使用django+echarts构建前端web网站对业务指标进行可视化呈现 毕业设计,采用Hadoop+Hive构建数据仓库,使用django+echarts构建前端web网站对业务指标进行可视化呈现 毕业...
Hadoop3+Hive3+Tez编译安装;适用视频:https://www.bilibili.com/video/BV1L54