安装环境:
机器 只需要安装一台机器
操作系统:Ubuntu 11.04 64操作系统
hadoop:版本是1.0.2,安装在/usr/local/hadoop
sun jdk:版本是1.6.0_31 64bit,安装在/usr/local/jdk
hive:版本是0.8.1,安装在/usr/local/hive
安装步骤:
1.下载
下载hive:http://labs.mop.com/apache-mirror/hive/hive-0.8.1/hive-0.8.1.tar.gz
2.安装
(1)上传hive安装包到机器上,使用root用户登陆:
tar -xvf hive-0.8.1.tar.gz
(2)将解压的hive分别移动并改名为/usr/local/hive
rm -rf /usr/local/hive
mv hive-0.8.1 /usr/local/hive
3.配置hive
(1)修改/usr/local/hive/bin/hive-config.sh
在文件末尾加入
export JAVA_HOME=/usr/local/jdk export HIVE_HOME=/usr/local/hive export HADOOP_HOME=/usr/local/hadoop
(2) 根据hive-default.xml复制hive-site.xml
cp /usr/local/hive/conf/hive-default.xml /usr/local/hive/conf/hive-site.xml
(3)配置hive-site.xml,主要配置项如下:
hive.metastore.warehouse.dir:(HDFS上的)数据目录
hive.exec.scratchdir:(HDFS上的)临时文件目录
hive.metastore.warehouse.dir默认值是/user/hive/warehouse
hive.exec.scratchdir默认值是/tmp/hive-${user.name}
以上是默认值,暂时不改。
(4)改变 /usr/local/hive的目录所有者为hadoop
chown -R hadoop:hadoop /usr/local/hive
(5)配置hive的log4j:
cp /usr/loca/hive/conf/hive-log4j.properties.template /usr/loca/hive/conf/hive-log4j.properties
修改/usr/loca/hive/conf/hive-log4j.properties将org.apache.hadoop.metrics.jvm.EventCounter改为org.apache.hadoop.log.metrics.EventCounter
(6)启动hive
使用hadoop用户登陆,执行/usr/local/hive/bin/hive
(7)测试hive
hive> create TABLE pokes( id INT, name string); hive> SHOW TABLES; hive> select * from pokes; hive> drop table pokes;
4.优化hive
默认meta数据库为derby ,为了避免使用默认的Derby数据库(有并发访问和性能的问题),通常还需要配置元数据库为MySQL
修改配置文件conf/hive-site.xml
<property> <name>hive.metastore.local</name> <value>false</value> <description>controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM</description> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://mysql_server_host:3306/hivedb?createDatabaseIfNotExist=true&useUnicode=true&characterEncoding=latin1</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>mysql_username</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>mysql_password</value> <description>password to use against metastore database</description> </property> <property> <name>hive.stats.dbconnectionstring</name> <value>jdbc:mysql://mysql_server_host:3306/hive_stats?useUnicode=true&characterEncoding=latin1&user=mysql_username&password=mysql_password&createDatabaseIfNotExist=true</value> <description>The default connection string for the database that stores temporary hive statistics.</description> </property> <property> <name>hive.stats.dbconnectionstring</name> <value>jdbc:mysql://mysql_server_host:3306/hive_stats?useUnicode=true&characterEncoding=utf8&user=mysql_username&password=mysql_password&createDatabaseIfNotExist=true</value> <description>The default connection string for the database that stores temporary hive statistics.</description> </property> <property> <name>hive.stats.dbclass</name> <value>jdbc:mysql</value> <description>The default database that stores temporary hive statistics.</description> </property> <property> <name>hive.stats.jdbcdriver</name> <value>com.mysql.jdbc.Driver</value> <description>The JDBC driver for the database that stores temporary hive statistics.</description> </property> <property> <name>hive.metastore.uris</name> <value>thrift://127.0.0.1:9083</value> </property>
添加metastore启动脚本bin/hive-metastore.sh
#!/bin/sh nohup ./hive --service metastore >> metastore.log 2>&1 & echo $! > hive-metastore.pid
添加hive server启动脚本bin/hive-server.sh
nohup ./hive --service hiveserver >> hiveserver.log 2>&1 &
echo $! > hive-server.pid
启动metastore和hive server
./hive-metastore.sh
./hive-server.sh
使用客户端连接和测试
参考之前的hive测试步骤一一执行。
如果出现
FAILED: Error in metadata: javax.jdo.JDODataStoreException: Error(s) were found while auto-creating/validating the datastore for classes. The errors are printed in the log, and are attached to this exception.
NestedThrowables:
com.mysql.jdbc.exceptions.MySQLSyntaxErrorException: Specified key was too long; max key length is 1000 bytes
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
或者是
FAILED: Error in metadata: MetaException(message:Got exception: org.apache.thrift.transport.TTransportException null)
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
以上错误,主要是在select操作、drop操作时,就会出错。
这样的错误,可以修改hivedb数据库编码:
mysql> alter database hivedb character set latin1;
然后重启hive metastore和hive server就可以了
mysql数据库的编码目前最好设置为latin1,否则使用hive会出现莫名其妙的问题
参考URL:
http://www.cnblogs.com/ggjucheng/archive/2012/04/26/2471341.html
相关推荐
2. **HIVE_CONF_DIR**:Hive配置文件的路径,通常是`/usr/local/hive/conf`。 3. **HIVE_AUX_JARS_PATH**:如果需要添加自定义库,可以在这里指定路径。 此外,还需要在`/usr/local/hive/conf/hive-site.xml`中配置...
hive-site.xml 这是一份我本地配置的好用的,hadoop2.7.3 搭建hive-site.xml可以参考一下,希望对您有帮助啊
使用DBeaver的原因是因为我之前连接关系型数据库使用的就是DBeaver,正好DBeaver支持连接hive,且个人认为DBeaver确实挺好用的,支持各种关系型数据库,如连接Oracle数据库不需要像plsql那样自己配置连接文件,...
2.Hive JDBC服务(参考java jdbc连接mysql) 3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别...
### Hive PDF PDF知识点详解 #### 1. Hive概述 Hive是一个构建在Hadoop上的数据...这些步骤对于保证Hive的稳定运行以及高可用性至关重要,对于想要深入学习和掌握Hive部署的同学来说,这是一份非常宝贵的参考资料。
2. 配置Hive的配置文件(如`hive-site.xml`),指定Hadoop的相关路径,包括HDFS的URI,Hive的metastore服务地址等。 3. 配置Tez的配置文件(如`tez-site.xml`),启用Tez作为Hive的执行引擎。 4. 将Hive和Tez的JAR...
对于当前的配置选项,建议参考HiveConf Java类或Hive语言手册中的相关部分,以获取最准确和最新的信息。 在实际操作中,确保正确配置元存储是非常重要的,因为它直接影响到Hive对数据的访问效率和整体系统的稳定性...
《Hadoop权威指南(第2版)》是Hadoop学习者的经典参考书,详细介绍了Hadoop的原理、设计和实际操作,包括如何搭建Hadoop集群、配置参数以及解决常见问题。这本书是深入理解Hadoop的基础,对于系统管理员和开发者来说...
- `docs`:Hive的文档和API参考。 - `sql-standard`:SQL标准相关的文件,Hive支持ANSI SQL标准。 - `metastore`:与Hive元数据相关的文件和脚本。 - `serde`:序列化/反序列化(SerDe)库,用于处理不同格式的数据...
主要功能和技术说明如下: (1)Flume数据采集,HDFS数据储存 (2)hive数据仓库分层设计,包含ODS、DWD、ADS层 ...(6)基于Cenots7 搭建虚拟机,配置Hadoop、HDFS、Hive、sqoop、flume、mysql等大数据组件。
总的来说,《Hive用户指南》中文版是学习和使用Hive的重要参考资料,对于大数据领域的开发人员和数据分析师来说,它能够帮助他们快速掌握Hive的使用,从而更好地在Hadoop环境中进行数据处理和分析。
“Hive搭建使用笔记”可能包含了实践过程中的注意事项、常见问题及其解决方案,是学习过程中宝贵的参考资料。 通过这个压缩包,你可以全面掌握Hive的基础知识,包括安装、配置、表管理和SQL操作。实践是学习最好的...
### Hive脚本任务参数优化配置详解 #### 一、概述 在大数据处理场景中,Apache Hive作为一款广泛...此外,随着Hive版本的更新,某些参数可能已经被废弃或新增了新的优化选项,建议参考最新版本的官方文档来进行配置。
Zhou Zxy”,它可能包含了Hive的实际操作步骤、技巧以及常见问题的解决方案,对于初学者来说是一份宝贵的参考资料。 通过这些资源,学习者可以从理论到实践,全面掌握Hive的使用,包括安装、配置、数据导入、查询...
《Hive编程指南》是大数据领域的一本重要参考资料,它主要关注的是Apache Hive,这是一个用于大数据处理和分析的开源框架。Hive最初由Facebook开发,后来成为Apache软件基金会的一个顶级项目,广泛应用于数据仓库和...
【大数据集群配置过程_Hive篇】 在大数据处理领域,Hive是一个基于Hadoop的数据仓库工具,它可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,使得数据分析人员无需编写MapReduce程序就能对存储在...
- **CDH-hive优化参数**:参考Cloudera提供的调优文档,针对不同场景调整参数配置。 通过以上对Hive监控、巡检和优化的知识点介绍,可以更好地管理和维护Hive系统,提升大数据处理效率和稳定性。
总之,《Hive用户指南》全面覆盖了Hive的各个方面,从基础概念到实际操作,再到高级优化技巧,对于Java开发者来说,是掌握Hive并利用其处理大数据问题的重要参考资料。学习和理解这份指南,能有效提升在大数据环境下...