Hive创建外部表,指向lzo格式文件时,无法解析出数据,报错如下:
java.io.IOException: No LZO codec found, cannot run.
hiveserver2日志报错如下:
Diagnostic Messages for this Task:
Error: java.io.IOException: java.lang.reflect.InvocationTargetException
at org.apache.hadoop.hive.io.HiveIOExceptionHandlerChain.handleRecordReaderCreationException(HiveIOExceptionHandlerChain.java:97)
at org.apache.hadoop.hive.io.HiveIOExceptionHandlerUtil.handleRecordReaderCreationException(HiveIOExceptionHandlerUtil.java:57)
at org.apache.hadoop.hive.shims.HadoopShimsSecure$CombineFileRecordReader.initNextRecordReader(HadoopShimsSecure.java:265)
at org.apache.hadoop.hive.shims.HadoopShimsSecure$CombineFileRecordReader.<init>(HadoopShimsSecure.java:212)
at org.apache.hadoop.hive.shims.HadoopShimsSecure$CombineFileInputFormatShim.getRecordReader(HadoopShimsSecure.java:332)
at org.apache.hadoop.hive.ql.io.CombineHiveInputFormat.getRecordReader(CombineHiveInputFormat.java:721)
at org.apache.hadoop.mapred.MapTask$TrackedRecordReader.<init>(MapTask.java:169)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:432)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:343)
at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:163)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1671)
at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)
Caused by: java.lang.reflect.InvocationTargetException
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:526)
at org.apache.hadoop.hive.shims.HadoopShimsSecure$CombineFileRecordReader.initNextRecordReader(HadoopShimsSecure.java:251)
... 11 more
Caused by: java.io.IOException: No LZO codec found, cannot run.
at com.hadoop.mapred.DeprecatedLzoLineRecordReader.<init>(DeprecatedLzoLineRecordReader.java:53)
at com.hadoop.mapred.DeprecatedLzoTextInputFormat.getRecordReader(DeprecatedLzoTextInputFormat.java:156)
at org.apache.hadoop.hive.ql.io.CombineHiveRecordReader.<init>(CombineHiveRecordReader.java:66)
... 16 more
FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask
MapReduce Jobs Launched:
Stage-Stage-1: Map: 1 Reduce: 1 HDFS Read: 0 HDFS Write: 0 FAIL
Total MapReduce CPU Time Spent: 0 msec
解决方法:
检查hadoop集群是否添加了hadoop-lzo-*.jar,该jar包是否已配置到HADOOP_CLASSPATH里
如果配置进去了,并检查core-site.xml里是否配置了如下信息:
<property>
<name>io.compression.codecs</name>
<value>
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.DefaultCodec,
org.apache.hadoop.io.compress.BZip2Codec,
org.apache.hadoop.io.compress.SnappyCodec,
com.hadoop.compression.lzo.LzoCodec,
com.hadoop.compression.lzo.LzopCodec
</value>
<description>
A comma-separated list of the compression codec classes
that can be
used for compression/decompression. In addition to any
classes
specified with this property (which take precedence), codec
classes
on the classpath are discovered using a Java ServiceLoader.
</description>
</property>
<property>
<name>io.compression.codec.lzo.class</name>
<value>com.hadoop.compression.lzo.LzoCodec</value>
</property>
如果满足这两点,应该就可以了(注意:hive安装包的lib目录不用添加hadoop-lzo-*.jar)。
相关推荐
本篇将探讨如何使用C++编程语言直接解析Windows注册表的Hive文件,而不依赖于系统提供的注册表API。 首先,我们需要理解Hive文件的结构。注册表Hive文件是一种二进制文件,其内部结构比较复杂,包括了键(Keys)、...
- 解析库文件(如FS.DLL)可能包含用于读取、修改或解析注册表HIVE的函数。 3. FAT (File Allocation Table): - FAT是早期Windows和MS-DOS系统广泛使用的文件系统,分为FAT16和FAT32两个主要变种。 - FAT简单且...
注册表文件读写,解析HIVE文件方式 NT Registry Hive access library, constants & structures 以直接读写注册表所属文件方式读写注册表,可以避开注册表监控软件. 支持系统:win2ksp4,winxp sp2, winxp sp3
这个压缩包文件“HIVE相关的jar包”包含了不同版本的Hive库文件,这些文件对于在Java环境下开发和运行Hive应用程序至关重要。下面我们将详细讨论Hive jar包及其在IT领域的应用。 首先,Hive jar包是Hive服务的核心...
在本课程设计中,主题是“基于Antlr4的Hive SQL解析”,这涉及到了两个主要的技术领域:Antlr4和Hive SQL。Antlr4是一个强大的解析工具,用于生成解析器和词法分析器,它能处理各种语言的语法,包括SQL。而Hive SQL...
hive解析用户名和密码的jar包
然而,Hive在处理大量小文件时可能会遇到性能问题,因为HDFS(Hadoop分布式文件系统)对小文件的管理效率较低。为了解决这个问题,我们需要执行小文件合并。这里我们将详细讨论如何通过Java程序实现Hive内部表的小...
在大数据处理领域,Hive是一个基于Hadoop的数据仓库工具,它允许用户使用SQL(HQL,Hive Query Language)对存储在Hadoop分布式文件系统(HDFS)中的大量数据进行查询和分析。这个"hive配置相关文件.zip"压缩包包含...
标题“hive所有jar文件”指的是这个压缩包包含了Hive运行时可能需要的所有依赖JAR文件,特别是一些为了连接和操作HBase而必要的组件。这些JAR文件通常包含各种库和API,使得Hive能够与HBase进行通信,执行如读取、...
Hive是Apache Hadoop生态系统中的一个数据仓库工具,它允许用户使用SQL(称为HQL,Hive查询语言)对大规模存储在Hadoop分布式文件系统(HDFS)中的结构化数据进行查询和分析。Hive提供了数据整理、离线查询以及用户...
hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+hadoop配置文件hive+...
hivesql解析 支持版本<!--<hive.version>1.0.0</hive.version> <hadoop.version>2.4.1</hadoop.version> --> <hive.version>2.0.1</hive.version> <hadoop.version>2.7.2</hadoop.version>
4. **配置Hive配置文件**: 修改`conf/hive-site.xml`,设置Hadoop的相关路径,例如HDFS的URI、Hive元数据存储的位置等。 5. **启动Hadoop服务**: 如果你已经在Windows上安装了Hadoop,确保Hadoop服务(如DataNode、...
在本篇中,我们将深入探讨如何在Linux环境下使用Hive进行文件读写,并了解BCD解析的概念。 首先,让我们理解Hive文件读写的基本流程。在Hive中,数据存储在表的形式下,而表则由分区和桶组成,提供了一种组织和管理...
- **`HIVE.semantic_analyzer_factory`**: 可以设置为`org.apache.hadoop.hive.ql.parse.SemanticAnalyzerFactory`,控制Hive解析器的行为。 - **`HADOOP_OPTS`**: 可以在这里添加额外的JVM选项,比如内存设置 `-...
背景:由于Hive需要开启权限管理,安装网上教程,开启权限配置,重启集群后。 使用root用户登录,进入Hive...Authorization failed:No privilege 'Create' found for outputs { }. Use SHOW GRANT to get more details
// 测试用例如下 // 设置元数据服务 Delegate.getDelegate().setMetaColumnService(new IMetaColumnService() { @Override public List<String> queryMetaColumn(String dbName, String tableName) { ...
hive解析json时所需jar包。具体使用: add jar ../../../target/json-serde-1.3-jar-with-dependencies.jar; CREATE TABLE json_nested_test ( country string, languages array, religions map,array<int>>) ...
在Hive中,配置文件主要指`hive-site.xml`,这个文件包含了Hive的各种运行参数。例如,你可以修改`metastore.uris`来设置Hive元数据存储的位置,`hive.exec.local.scratchdir`定义本地临时文件目录,`hive.exec.mode...
Apache Hive是建立在Hadoop之上的数据仓库工具,它为处理大数据提供了SQL查询功能。Hive Functions Cheat Sheet为我们提供了一系列Hive中内置函数的快速参考,并详细介绍了如何创建和使用这些函数。 首先,Hive提供...