`
conkeyn
  • 浏览: 1529527 次
  • 性别: Icon_minigender_1
  • 来自: 厦门
社区版块
存档分类
最新评论

Hive 问题处理记录

 
阅读更多

1、引用同志的链接:http://godlovesdog.iteye.com/blog/1897602

 

问题1:Specified key was too long; max key length is 767 bytes

在进入Hive后可以show databases; 但create table, show tables;等命令都报错,如下:

[ihadoop@Master ~]$ cd /home/ihadoop/hadoop/hive-0.11.0
[ihadoop@Master hive-0.11.0]$ bin/hive

Logging initialized using configuration in file:/home/ihadoop/hadoop/hive-0.11.0/conf/hive-log4j.properties
Hive history file=/tmp/ihadoop/hive_job_log_ihadoop_5723@Master.Hadoop_201306251428_1159551556.txt
hive> show tables;
FAILED: Error in metadata: MetaException(message:Got exception: org.apache.hadoop.hive.metastore.api.MetaException javax.jdo.JDODataStoreException: An exception was thrown while adding/validating class(es) :Specified key was too long; max key length is 767 bytes
com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Specified key was too long; max key length is 767 bytes
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:525)
        at com.mysql.jdbc.Util.handleNewInstance(Util.java:411)
        at com.mysql.jdbc.Util.getInstance(Util.java:386)......................................
 通过网上查找,发现是数据库字符集问题。只要修改MySQL中Hive元数据库MetaStore的字符集便可。
alter database dbname character set latin1;
问题2:java.io.EOFException: Premature EOF from inputStream
参考此链接地址的文章后发现:MapReduce使用lzo压缩注意
hive>set mapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec
 改为:
hive>set mapred.output.compression.codec=com.hadoop.compression.lzo.LzoCodec;
 虽然只有一个字符之差,但报错却是实实在在的。
 
问题3:java.lang.NoSuchMethodError: org.apache.thrift.EncodingUtils.setBit(BIZ)B
解决方法:检查所有引用的libthrift-x.x.x.jar,把旧版本的JAR包去掉即解决。
分享到:
评论

相关推荐

    Hive安装配置记录

    Hive 是一个基于 Hadoop 的数据仓库工具,用于处理和管理大数据集。它允许用户使用 SQL-like 查询语言(HiveQL)来查询、管理和构建数据仓库。以下是对 Hive 安装配置、常用命令及其功能的详细说明: 1. **Hive 的...

    Hive优化方法整理

    Hive 优化方法整理是 Hive 数据处理过程中的重要步骤,涉及到 Hive 的类 SQL 语句本身进行调优、参数调优、Hadoop 的 HDFS 参数调优和 Map/Reduce 调优等多个方面。 Hive 类 SQL 语句优化 1. 尽量尽早地过滤数据...

    kettle8.1Hive连接包

    8. **错误处理和日志记录**:Kettle 提供详细的日志记录和错误处理机制,帮助用户跟踪和解决在处理 Hive 数据时遇到的问题。 9. **与 SQL Server 和 Oracle 数据库的连接**:除了 Hive,这个连接包还包含了连接 SQL...

    连接hive依赖的jar包_hive连接方式

    - `slf4j-api-*.jar`和`slf4j-log4j12-*.jar`: 日志框架,用于记录Hive操作的日志。 - `commons-lang3-*.jar`等其他依赖库:Hive运行时可能需要的一些通用库。 5. **Kerberos认证** 如果Hive服务器配置了...

    Hive-jdbc-3.1.1.zip

    7. **错误处理和调试**:Hive JDBC提供了详细的错误信息和日志记录,帮助开发者诊断和解决连接、查询或数据加载等问题。 8. **API文档**:Hive-jdbc-3.1.1.zip可能包含了Javadoc文档,这为开发者提供了详细的API...

    hive相关jar包

    8. **log4j-1.2.14.jar**:这是一个流行的日志记录库,用于记录 Hive 运行时的日志信息。 9. **libfb303-0.9.0.jar**:Facebook Thrift 的一个版本,提供了监控和管理服务的接口,用于服务之间的通信和控制。 10. ...

    大数据 hive 实战数据

    在大数据处理领域,Hive是一个极其重要的工具,它被广泛应用于大数据分析和数据仓库操作。本实战数据集主要涉及两个核心部分:`video`数据和`user`数据,这些都是构建大数据分析模型的基础元素。让我们深入探讨一下...

    hbase和hive常用命令记录总结

    ### HBase 常用命令总结 #### 创建表 创建一个名为`member`的表,包含`member_id`、`address`以及`info`三个列族。...在实际应用中,根据具体需求灵活运用这些命令能够大大提高数据分析和处理效率。

    hive影评案例.zip

    标题中的“hive影评案例.zip”表明这是一个关于使用Hive处理电影评论数据的示例。Hive是基于Hadoop的数据仓库工具,它允许用户通过SQL(HQL,Hive SQL)查询分布式存储的大数据集。这个压缩包可能包含了用于分析用户...

    hive-part1-基础知识.pdf

    然而,Hive不支持记录级别的增删改操作,查询延时严重,也不支持事务,主要适用于OLAP(联机分析处理)而不适用于OLTP(联机事务处理)。 接下来,Hive和RDBMS的对比中,我们了解到Hive和传统关系数据库管理系统的...

    大数据Hive测试数据uaction.rar

    标题中的“大数据Hive测试数据uaction.rar”指的是一个用于测试Hive处理能力的数据集,这个数据集主要关注用户操作记录。Hive是Apache Hadoop生态系统中的一个组件,它提供了一个基于SQL的查询语言(HQL)来处理和...

    大数据系列-Hive

    【大数据系列-Hive】 Hive是Apache软件基金会下的一个数据仓库工具,主要设计...总之,Hive是大数据处理中的重要工具,它简化了对大规模数据的管理和分析,通过学习Hive的深入知识,可以更高效地处理和探索海量数据。

    hive-testbench-hive14.zip大数据TPCDS-99SQL自动测试脚本

    在“hive-testbench-hive14.zip”这个压缩包中,包含了针对Hive 1.4版本的测试脚本,这是一组精心设计的测试用例,用于评估Hive在处理TPCDS标准数据集时的性能。TPCDS包含99个标准SQL查询,这些查询涵盖了从简单到...

    java_hive简单查询

    为了跟踪查询性能和调试问题,可以启用Hive的日志记录,并结合Hadoop的YARN或Ambari监控工具进行性能分析。 通过以上步骤,你将能够利用Java与Hive进行有效的交互,执行简单的查询以及更复杂的分析任务。确保理解...

    hive2.1.1 + hadoop2.6.0jdbc驱动

    6. **log4j-1.2.17.jar**:日志记录库,用于记录Hive和Hadoop运行时的日志信息。 7. **hive-common-2.1.1.jar**:Hive的通用库,包含了各种公用工具和类。 8. **httpcore-4.4.jar**:Apache HttpCore库,是...

    hive所需jar包

    1. **Hive Common JAR (hive-common.jar)**:这是Hive的基础库,包含了很多通用的功能和辅助类,如Hive的配置管理、网络通信、日志记录以及元数据处理等。它是Hive运行时不可或缺的一部分,为其他Hive组件提供基础...

    hive tunning

    - **审计**:记录所有对Hive元数据和数据的访问,以便监控和审计。 #### Project Stinger:让Hive的速度提升百倍 Project Stinger是Hive的一个重大改进项目,目标是将Hive的性能提升100倍。这一项目通过引入内存...

    java访问hive数据库所需全部jar包

    在Java编程环境中,访问Hive数据库通常涉及到一系列的依赖库,这些库提供了与Hive通信...在实际操作中,你可能还需要根据具体的环境和需求调整配置,例如设置Hive的配置属性,或者处理安全性(如SSL/TLS加密)等问题。

    Hive SQL 编译过程详解

    在大数据处理领域,Hive作为一个基于Hadoop的数据仓库系统,起着至关重要的作用。...在日常工作中,这样的知识不仅能帮助我们排查和修复问题,也能指导我们编写更高效的Hive SQL,提升大数据处理的能力。

    atlas hive hook 编译依赖 apache-atlas-1.2.0-hive-hook.tar.gz

    2. **数据血缘**:通过追踪 Hive 操作,Hive Hook 可以生成数据血缘图,显示数据的来源和去向,这对于数据质量分析、问题排查和合规性审计至关重要。 3. **审计日志**:所有通过 Hive Hook 进行的操作都会被记录在...

Global site tag (gtag.js) - Google Analytics