`
superlxw1234
  • 浏览: 550768 次
  • 性别: Icon_minigender_1
  • 来自: 西安
博客专栏
Bd1c0a0c-379a-31a8-a3b1-e6401e2f1523
Hive入门
浏览量:44355
社区版块
存档分类
最新评论

大概记录一下hive安装步骤

阅读更多

1. rpm安装mysql

groupadd mysql

useradd -g mysql mysql

rpm -ivh MySQL-server-5.5.24-1.rhel5.i386.rpm 

rpm -ivh MySQL-client-5.5.24-1.rhel5.i386.rpm 

 

 

启动mysql:/etc/init.d/mysql start

添加系统启动:/sbin/chkconfig --add mysql

create database hive;

grant all on hive.* to hive@'%' identified by 'hive';

flush privileges;

2. 为hive建立相关的hdfs目录:

hadoop fs -mkdir /user/hive/

hadoop fs -chmod -R a+w /user/hive/

 

3. 安装配置hive:

 

tar -xzvf hive-0.7.1-bin.tar.gz

ln -s hive-0.7.1-bin hive-current

cd hive-current/conf

vi hive-site.xml

 

 

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>
  <name>hive.exec.drop.ignorenonexistent</name>
  <value>true</value>
  <description>
    Do not report an error if DROP TABLE/VIEW specifies a non-existent table/view
  </description>
</property>

<property>
  <name>hive.metastore.local</name>
  <value>true</value>
  <description>controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM</description>
</property>

<property>
  <name>hive.exec.scratchdir</name>
  <value>/user/hive/${user.name}/meta/hive-exec</value>
  <description>Scratch space for Hive jobs</description>
</property>

<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>/user/hive/${user.name}/meta/warehouse</value>
  <description>location of default database for the warehouse</description>
</property>

<property>
  <name>hive.exec.compress.output</name>
  <value>true</value>
  <description> This controls whether the final outputs of a query (to a local/hdfs file or a hive table) is compressed. The compression codec and other options are determined from hadoop config variables mapred.output.compress* </description>
</property>

<property>
  <name>hive.exec.compress.intermediate</name>
  <value>true</value>
  <description> This controls whether intermediate files produced by hive between multiple map-reduce jobs are compressed. The compression codec and other options are determined from hadoop config variables mapred.output.compress* </description>
</property>


<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://192.168.1.113:3306/hive?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
  <description>username to use against metastore database</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
  <description>password to use against metastore database</description>
</property>

<property>
  <name>hive.stats.dbclass</name>
  <value>jdbc:mysql</value>
  <description>The default database that stores temporary hive statistics.</description>
</property>

<property>
  <name>hive.stats.jdbcdriver</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>The JDBC driver for the database that stores temporary hive statistics.</description>
</property>

<property>
  <name>hive.stats.dbconnectionstring</name>
  <value>jdbc:mysql://192.168.1.113:3306/HiveStats?createDatabaseIfNotExist=true&amp;user=hive&amp;password=hive</value>
  <description>The default connection string for the database that stores temporary hive statistics.</description>
</property>

<!-- -->
<property>
  <name>hive.cli.print.header</name>
  <value>false</value>
  <description>Whether to print the names of the columns in query output.</description>
</property>

</configuration>

 

4. 下载mysql-connector-java-5.0.3-bin.jar并放到hive-current/lib目录下;

注意:hive的日志一般在/tmp/${user.name}/hive.log中

 

5。 初始化的时候需要注意这几个参数的配置

<property>
<name>datanucleus.fixedDatastore</name>
<value>false</value> 
</property>

<property>
<name>datanucleus.autoCreateSchema</name>
<value>true</value>
</property>

<property>
<name>datanucleus.autoCreateTables</name>
<value>true</value>
</property>

<property>
<name>datanucleus.autoCreateColumns</name>
<value>true</value>
</property>

 

 

否则会报错:

FAILED: Hive Internal Error: org.apache.hadoop.hive.ql.metadata.HiveException(javax.jdo.JDODataStoreException: Required table missing : "`DBS`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables"
NestedThrowables:
org.datanucleus.store.rdbms.exceptions.MissingTableException: Required table missing : "`DBS`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables")
org.apache.hadoop.hive.ql.metadata.HiveException: javax.jdo.JDODataStoreException: Required table missing : "`DBS`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables"
NestedThrowables:
org.datanucleus.store.rdbms.exceptions.MissingTableException: Required table missing : "`DBS`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables"
        at org.apache.hadoop.hive.ql.metadata.Hive.getDatabase(Hive.java:1028)
        at org.apache.hadoop.hive.ql.Driver.doAuthorization(Driver.java:433)
        at org.apache.hadoop.hive.ql.Driver.compile(Driver.java:393)
        at org.apache.hadoop.hive.ql.Driver.run(Driver.java:736)
        at org.apache.hadoop.hive.cli.NewCliDriver.processCmd(NewCliDriver.java:166)
        at org.apache.hadoop.hive.cli.NewCliDriver.processLine(NewCliDriver.java:243)
        at org.apache.hadoop.hive.cli.NewCliDriver.main(NewCliDriver.java:469)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:197)
Caused by: javax.jdo.JDODataStoreException: Required table missing : "`DBS`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables"
NestedThrowables:

 

 

 

分享到:
评论

相关推荐

    hive安装文件

    **Hive安装步骤**: 1. **环境准备**:确保已经安装了Java开发套件(JDK)并设置了`JAVA_HOME`环境变量。同时,确保已安装Hadoop,并正确配置了`hadoop-env.sh`和`core-site.xml`。 2. **获取Hive源码或二进制包**...

    第7集-Hadoop环境搭建 - linux(centos7) - 安装配置hive2.1.1.pdf

    通过上述步骤,我们成功地在CentOS 7环境下安装配置了Hive 2.1.1,并且配置了Hive与Hadoop之间的交互。这为后续进行大数据分析奠定了基础。接下来可以继续学习Hive的使用方法,以及如何利用Hive进行数据处理和查询。...

    Hive优化方法整理

    Hive 优化方法整理是 Hive 数据处理过程中的重要步骤,涉及到 Hive 的类 SQL 语句本身进行调优、参数调优、Hadoop 的 HDFS 参数调优和 Map/Reduce 调优等多个方面。 Hive 类 SQL 语句优化 1. 尽量尽早地过滤数据...

    Hive4--HIVE元数据库.pdf

    1. 进入Hive安装目录,例如`/home/admin/caona/hive/build/dist/`。 2. 启动Derby网络服务器,命令通常为`startNetworkServer -h 0.0.0.0`。 3. 使用Derby提供的`ij`工具连接到数据库,例如`./ij Connect 'jdbc:...

    Apache-Hive-Cookbook

    - **调试技巧**:利用日志记录、性能监控等手段优化 Hive 应用程序。 8. **使用 Hue** - **准备工作**:安装必要的依赖库。 - **操作步骤**: - 下载并安装 Hue。 - 配置 Hue 支持 Hive。 - 启动 Hue 服务。...

    Hive配置(Oracle数据库为元数据)

    ### Hive配置(Oracle数据库为元数据) #### 一、概述 ...通过以上步骤,Hive 将能够使用 Oracle 数据库作为其元数据存储,并且具备了基本的日志记录能力。后续可根据实际需求进一步调整配置或扩展功能。

    tools_hive-hwi

    在《http://blog.csdn.net/fangyuandoit/article/details/78860799》这篇博客文章中,作者详细介绍了如何安装和使用Hive-HWI,包括配置步骤、运行环境以及实际操作体验。 【标签】"Hive界面" 【知识点详细说明】:...

    修改hive表分区名称

    本文将详细介绍如何通过一系列步骤完成Hive表分区名称的修改。 #### 一、准备工作 在进行Hive表分区名称修改之前,需要先做一些准备工作: 1. **查看表结构**:使用`SHOW CREATE TABLE test;`命令查看表`test`的...

    hive影评案例.zip

    标题中的“hive影评案例.zip”表明这是一个关于使用Hive处理电影评论数据的示例。Hive是基于Hadoop的数据仓库工具,它允许用户通过SQL(HQL,Hive SQL)查询分布式存储的大数据集。这个压缩包可能包含了用于分析用户...

    Hive_1.2.1_Tez_0.9.1安装包.rar

    此外,Hive 1.2.1还改进了错误处理和日志记录,使得诊断问题更加方便。在安装Hive时,你需要配置Hadoop环境,并设置Hive的metastore服务,以便存储元数据信息。 Tez 0.9.1是Apache Tez的早期版本,它是Hadoop生态...

    hive2.0+开启审计日志.pdf

    在Hive 2.0及更高版本中,启用Metastore审计日志是确保数据安全性与合规性的重要步骤。审计日志记录了用户对Hive Metastore的所有操作,包括元数据的创建、修改和查询等,这对于追踪系统活动、故障排查以及满足法规...

    Hive教程.pdf

    ### Hive简明教程知识点概述 #### 一、Hive简介 - **定义**: Hive是一种基于Hadoop的数据仓库工具,它可以将结构化的数据文件映射成一张数据库表,并提供类SQL查询... - 使用Hive CLI执行简单查询以验证安装成功。

    kettle 从oracle数据库导数据到hive 表

    1. **复制 Hadoop 配置文件**:从 Hadoop 集群的 Hive 安装目录中,复制 `core-site.xml`、`hdfs-site.xml`、`hive-site.xml` 和 `yarn-site.xml` 四个 XML 文件,并将其替换到 `D:\pdi-ce-6.1.0.1-196\data-...

    hive所需jar包

    1. **Hive Common JAR (hive-common.jar)**:这是Hive的基础库,包含了很多通用的功能和辅助类,如Hive的配置管理、网络通信、日志记录以及元数据处理等。它是Hive运行时不可或缺的一部分,为其他Hive组件提供基础...

    java访问hive数据库所需全部jar包

    7. **连接Hive**:在Java代码中,你可以使用以下步骤来建立Hive连接: - 导入必要的JDBC和Hive类。 - 注册Hive JDBC驱动:`Class.forName("org.apache.hive.jdbc.HiveDriver")`。 - 创建HiveConnection对象:`...

    基于Hadoop的数据仓库Hive学习指南.doc

    它涵盖了Hive的基本概念、安装步骤、实验环境以及HiveQL的基本操作。 【知识点详解】: 1. **Hadoop数据仓库Hive**:Hive是由Facebook开发的一种基于Hadoop的数据仓库工具,它允许SQL熟悉的用户对存储在Hadoop...

    hive-testbench-hive14.zip大数据TPCDS-99SQL自动测试脚本

    1. **准备环境**:首先,确保你有一个配置良好的Hadoop集群,并安装了Hive 1.4版本。同时,你需要下载TPCDS的样本数据集,并将其加载到Hive表中。 2. **解压并运行测试脚本**:解压“hive-testbench-hive14.zip”,...

    hive官方文档整理

    官方文档作为学习和使用Hive的权威指南,提供了安装配置、使用方法、命令行选项、脚本编写、配置变量等多方面的信息。以下是文档中提及的一些关键知识点: 1. Hive命令行界面(CLI):Hive命令行界面是Hive的用户...

    java_hive简单查询

    在Java开发中,有时我们需要与大数据处理平台...通过以上步骤,你将能够利用Java与Hive进行有效的交互,执行简单的查询以及更复杂的分析任务。确保理解Hive的架构和最佳实践,这将有助于提高查询效率并确保数据安全性。

    dbeaver连接hive2.1.1依赖jar包

    要使用DBeaver连接到Hive 2.1.1,你需要确保安装了所有必要的JAR文件,这些文件提供了与Hive服务器通信的驱动程序和库。 Hive 2.1.1的连接依赖于以下关键组件: 1. **Hive JDBC驱动**:这是Java Database ...

Global site tag (gtag.js) - Google Analytics