`
fengshulin
  • 浏览: 41699 次
社区版块
存档分类
最新评论

Hive2.1.0安装及配置mysql

 
阅读更多

安装Hive2.1.0

1.准备工作:安装JDK、Hadoop 

2.下载并解压Hive

wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-2.1.0/apache-hive-2.1.0-bin.tar.gz
cp apache-hive-2.1.0-bin.tar.gz /usr/local
tar -zxvf apache-hive-2.1.0-bin.tar.gz
mv apache-hive-2.1.0-bin.tar.gz hive
sudo chown -R hadoop:hadoop hive

3. 设置Hive环境变量

vi ~/.bashrc

export HIVE_HOME=/usr/local/hive
export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HIVE_HOME/bin

source ~/.bashrc

4. 修改Hive的配置文件

cp conf/hive-default.xml.template hive-site.xml
cp conf/hive-log4j.properties.template hive-log4j.properties
cp conf/hive-exec-log4j.properties.template hive-exec-log4j.properties

5.  修改 hive-site.xml 

<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://192.168.53.94:3306/hive_db?createDatabaseIfNotExist=true&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
    <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
</property>
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>username to use against metastore database</description>
</property>
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
    <description>password to use against metastore database</description>
</property>

6. 修改 hive-site.xml 替换${system:java.io.tmpdir} 和 ${system:user.name}为/home/hadoop/hive/tmp/,否则会报如下错误 

Logging initialized using configuration in file:/usr/local/hive/conf/hive-log4j2.properties Async: true
Exception in thread "main" java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
	at org.apache.hadoop.fs.Path.initialize(Path.java:205)
	at org.apache.hadoop.fs.Path.<init>(Path.java:171)
	at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:631)
	at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:550)
	at org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:518)
	at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:705)
	at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:641)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:498)
	at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
	at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
	at java.net.URI.checkPath(URI.java:1823)
	at java.net.URI.<init>(URI.java:745)
	at org.apache.hadoop.fs.Path.initialize(Path.java:202)
	... 12 more

7. 为Hive建立相对应的Mysql账户,并赋予足够的权限

CREATE USER 'hive' IDENTIFIED BY '123456';
GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION;
flush privileges;

8.将mysql-connector-java-5.1.30-bin.jar 放入 $HIVE_HOME/lib下 

9.启动Hive

./bin/hive

10.启动Hive报错(如无请忽略) 

Caused by: MetaException(message:Hive metastore database is not initialized. Please use schematool (e.g. ./schematool -initSchema -dbType ...) to create the schema.
If needed, don't forget to include the option to auto-create the underlying database in your JDBC connection string (e.g. ?createDatabaseIfNotExist=true for mysql))
这是由于没有初始化Hive元数据的数据库,默认情况下,Hive的元数据保存在了内嵌的derby数据库里

执行如下命令方可
./bin/schematool -initSchema -dbType derby

11.测试Hive

create table table_name (
  id                int,
  dtDontQuery       string,
  name              string
);
show tables;

 

 

分享到:
评论

相关推荐

    apache-hive-2.1.0-bin.tar.gz

    安装和配置Hive时,需要确保先安装了Java和Hadoop,并设置好相应的环境变量。然后,您可以根据需求配置Hive的metastore服务、Hive-site.xml配置文件,以及Hadoop的相关设置。一旦配置完成,就可以通过Hive CLI或...

    apache-hive-2.1.0-bin.tar.zip

    在实际使用中,你需要先解压"apache-hive-2.1.0-bin.tar.gz",配置环境变量,连接到Hadoop集群,并设置Metastore数据库。然后,你可以通过Hive CLI或者使用JDBC/ODBC驱动连接的第三方工具来执行HQL查询。对于复杂的...

    第7集-Hadoop环境搭建 - linux(centos7) - 安装配置hive2.1.1.pdf

    4. **MySQL 5.5.44安装配置**: 用于存储Hive的元数据。 5. **Scala 2.11.8安装配置**: 虽然不是必须的,但安装Scala有助于更好地理解和使用Hive背后的原理。 6. **HBase 1.3.6安装配置**: 可选组件,用于支持Hive...

    SQuirreL连接hive2.1所需的全部jar驱动

    为了配置SQuirreL以连接Hive 2.1.0,你需要按照以下步骤操作: 1. 将"apache-hive-2.1.0-lib"目录下的所有jar文件复制到SQuirreL的类路径中,通常是`$SQUIRREL_HOME/lib`目录。 2. 启动SQuirreL SQL Client。 3. ...

    hive-exec-2.1.1.jar

    4. **数据库连接**:如果Hive与外部数据库交互,如MySQL,确保数据库的字符集设置也是UTF-8。 5. **替换jar文件**:在某些情况下,可能需要更新或替换特定版本的jar包,例如这里提到的`hive-exec-2.1.1.jar`。这...

    Apache Atlas 2.1.0 集成CDH6.3.2 编译包

    2. **安装与配置**:在CDH集群上部署Apache Atlas需要对环境进行适当的配置,包括设置数据库连接(如使用HBase或MySQL作为元数据存储)、配置服务发现(如使用Zookeeper)以及配置Atlas的REST API接口以供其他CDH...

    ranger-2.1.0-admin.tar.gz

    在"ranger-2.1.0-admin.tar.gz"这个压缩包中,我们将会探讨Ranger的安装、配置以及它如何在不同组件中实现数据保护。 1. **Ranger的架构与组件** Apache Ranger 包含几个关键组件: - **Ranger Admin**: 管理界面...

    CDH6.3.2之升级Hive-3.1.3.doc

    在替换Hive相关的文件之前,还需要备份现有的Hive安装目录。这一步是为了防止升级过程中出现意外情况导致原有配置丢失。 ``` cd /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/ cp -r hive/ hive.212...

    apache-atlas-2.1.0-bin.tar.gz

    - **配置步骤**:解压"apache-atlas-2.1.0"后,需要根据CDH 6.3.0的配置进行适当的调整,例如设置HBase、Zookeeper、Hive等服务的连接信息。 - **数据库配置**:Apache Atlas通常依赖于一个关系型数据库来存储元...

    202x年ambari搭建大数据平台安装手册(专业完整版).pdf

    * Hadoop 配置文档 Ambari:2.1.0 * HDP:2.3.0 * HDP-UTILS:1.1.0.20 服务器安装准备工作: * 下载 CentOS ISO 文件 * 下载 HDP Repository、HDP-UTILS Repository 和 Ambari Repository * 下载 MySQL 文件 * ...

    CentOS7局域网下安装离线Ambari

    安装JDK、MySQL以及设置好操作系统相关配置,如网络配置等,以确保Ambari的正常运行。 #### Ambari的安装与配置 在所有准备就绪后,按照安装指南一步步进行Ambari Server和Ambari Agent的安装。安装过程中要确保...

    Python库 | ibis-2.1.0-py3-none-any.whl

    它支持多种数据库后端,包括但不限于Apache Impala、Hive、MySQL、PostgreSQL等,极大地扩展了Python在大数据领域的应用范围。 ibis-2.1.0版本引入了一些关键特性,例如: 1. 性能优化:新版本在执行效率上进行了...

    Hadoop平台相关软件快速搭建教程

    此过程涉及多个组件的安装和配置,包括但不限于Hadoop、Hive、Sqoop、Spark、MySQL以及Azkaban等。每个组件都有其特定的功能,并且相互之间存在着紧密的协作关系,共同构成了一个强大而灵活的大数据处理平台。对于...

    RedHat7局域网下安装离线Ambari

    安装前的环境搭建工作是安装Ambari的基础和前提,它包括了安装操作系统、配置网络环境、设置静态IP地址、配置主机名和主机映射等步骤。这些步骤是确保Ambari安装成功和集群稳定运行的关键。 总而言之,安装Ambari...

    大数据的软件.rar

    apache-flume-1.7.0-bin.tar.gz,apache-hive-1.2.1-bin.tar.gz,apache-hive-2.1.0-bin.tar.gz,FileZilla_Server-0_9_60_2.exe,hadoop-2.7.2.tar.gz,hbase-1.1.5-bin.tar.gz,kafka_2.11-0.10.2.0.tgz,mysql-...

    hadoop集群搭建所需软件包.txt

    Hadoop及其生态圈搭建所需的一整套安装包,包括,zookeeper-3.4.13.tar.gz,spark-2.4.3-bin-hadoop2.7.tgz,scala-2.11.8.tgz,Python-3.6.4.tgz,mysql-connector-java-5.1.34.jar,kafka_2.11-2.1.0.tgz,jdk-8u...

    《大数据分析与内存计算》课程期末考核代码.rar

    Spark: 2.1.0 Eclipse: 3.8 (注意:Eclipse 3.8是一个较旧的版本,考虑使用更新版本) ECharts: 3.4.0 1.3 使用的核心技术 Spark大数据分析框架 MLlib机器学习库 MySQL数据库管理系统 Hadoop生态系统(HDFS, YARN等)...

    《大数据分析与内存计算》课程期末考核素材.rar

    Spark: 2.1.0 Eclipse: 3.8 (注意:Eclipse 3.8是一个较旧的版本,考虑使用更新版本) ECharts: 3.4.0 1.3 使用的核心技术 Spark大数据分析框架 MLlib机器学习库 MySQL数据库管理系统 Hadoop生态系统(HDFS, YARN等)...

Global site tag (gtag.js) - Google Analytics