`
dacoolbaby
  • 浏览: 1265750 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

Hive连接超长Hbase宽表异常

    博客分类:
  • Hive
阅读更多

我们用Hive去连接一个Hbase款表,大概有150多个字段。

因此,就报了异常:

FAILED: Error in metadata: MetaException(message:javax.jdo.JDODataStoreException: Put request failed : INSERT INTO `SERDE_PARAMS` (`PARAM_VALUE`,`SERDE_ID`,`PARAM_KEY`) VALUES (?,?,?)

NestedThrowables:

org.datanucleus.store.mapped.exceptions.MappedDatastoreException: INSERT INTO `SERDE_PARAMS` (`PARAM_VALUE`,`SERDE_ID`,`PARAM_KEY`) VALUES (?,?,?) )

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

 

后来翻了墙,查了谷歌度娘,发现了原因。

在hive元数据中,存放serde信息的是一个varchar(4000)的字段,为了兼容oracle。

但是超过4000个字段怎么办?

 

目前使用的是mysql数据库,解决方法是将字段扩充成30000如下:

mysql> desc SERDE_PARAMS;

+-------------+---------------+------+-----+---------+-------+

| Field       | Type          | Null | Key | Default | Extra |

+-------------+---------------+------+-----+---------+-------+

| SERDE_ID    | bigint(20)    | NO   | PRI | NULL    |       |

| PARAM_KEY   | varchar(256)  | NO   | PRI | NULL    |       |

| PARAM_VALUE | varchar(4000) | YES  |     | NULL    |       |

+-------------+---------------+------+-----+---------+-------+

3 rows in set (0.03 sec)

 

mysql> alter table SERDE_PARAMS modify column PARAM_VALUE varchar(30000);

Query OK, 447 rows affected (0.86 sec)

Records: 447  Duplicates: 0  Warnings: 0

 

mysql> desc SERDE_PARAMS;

+-------------+----------------+------+-----+---------+-------+

| Field       | Type           | Null | Key | Default | Extra |

+-------------+----------------+------+-----+---------+-------+

| SERDE_ID    | bigint(20)     | NO   | PRI | NULL    |       |

| PARAM_KEY   | varchar(256)   | NO   | PRI | NULL    |       |

| PARAM_VALUE | varchar(30000) | YES  |     | NULL    |       |

+-------------+----------------+------+-----+---------+-------+

3 rows in set (0.08 sec)  

 

异常解决。

但是只能暂时解决MySQL库中的问题,加入元数据存在其他库,则还会存在这样的问题。

 

 

分享到:
评论

相关推荐

    hive和hbase整合

    然而,在执行上述创建表的操作时,可能会遇到元数据错误,如ZooKeeper连接异常。这通常是由于HBase无法连接到ZooKeeper导致的。解决这个问题可能需要检查以下几个方面: - 确保ZooKeeper服务正在运行。 - 检查Hive...

    hive连接所需jar包

    "hive连接所需jar包"是针对这个需求的一个资源集合,据描述,这个压缩包包含了连接Hive所必需的、经过测试的JAR文件。 Hive的运行依赖于Java环境,并且与Hadoop生态系统的其他组件如HDFS、HBase、Zookeeper等紧密...

    kettle 从oracle数据库导数据到hive 表

    在企业级数据处理场景中,随着大数据技术的发展,越来越多的企业选择将原有的关系型数据库(如 Oracle)中的数据迁移到基于 Hadoop 生态系统的数据仓库(如 Hive、HBase)中。这种迁移不仅可以充分利用大数据平台的...

    hbase安装和使用

    6. **验证安装**:通过命令行工具`hbase shell`连接到HBase,尝试创建表并进行一些基本操作,如果一切正常,表示HBase已经成功安装。 二、HBase使用 1. **HBase Shell**:HBase提供了一个交互式的Shell,可以用于...

    HBase学习资料.zip

    3. **Java API**:提供创建、更新和查询HBase表的Java代码示例,包括连接、会话管理和异常处理。 4. **MapReduce集成**:展示如何在Hadoop MapReduce任务中使用HBase,进行批量数据处理。 5. **性能优化**:提供提高...

    机器学习算法的实现,对Hadoop,Spark,Hive等的搭建及其使用.zip

    在搭建这些环境时,你需要准备一个支持Hadoop、Spark和Hive的集群,这可能涉及到安装Hadoop的HDFS和YARN,配置Spark以连接Hadoop,以及设置Hive的元数据存储(如MySQL或HBase)。同时,确保所有节点之间的网络通信...

    java通过jdbc连接impala所需jar

    4. **其他依赖库**: 压缩包中的其他文件如hive_metastore.jar、TCLIServiceClient.jar等,是Impala和Hive相关的库,它们用于与Hadoop生态系统中的组件进行通信,例如元数据管理和协调服务。 以下是使用Java通过JDBC...

    2017最新大数据架构师精英课程

    109_hive连接查询-union查询-load数据 110_hbase概述 111_zk架构-集群搭建-容灾演练avi 112_zk API-观察者-临时节点-序列节点-leader选举 113_hadoop namenode HA自动容灾" X3 `' ^/ U+ u+ U" F: } b 114_hadoop RM ...

    主要介绍大数据数据仓库的理论知识,hadoop和hive相关知识

    - 结构更为复杂,通过其他维度表连接到事实表。 - 减少了数据冗余,提高了数据的规范化程度。 - 查询性能可能低于星型模型,但由于减少了冗余,存储空间更节省。 #### 六、数据模型的选择依据 1. **数据优化**...

    大数据-互联网大厂面试真题附含答案03.pdf

    4. **Hive与HBase的区别**:Hive更适合于离线批处理分析,而HBase适合实时数据查询。Hive基于HDFS存储,数据结构相对固定,适合复杂查询;HBase是NoSQL数据库,提供随机读写,适用于数据插入和更新频繁的场景。 5. ...

    hmyjsmst.docx

    - HBase的数据存储模型基于Google的Bigtable论文,它使用表来组织数据,表由行组成,每一行有一个行键,行键是唯一的,按照字典顺序排序。 以上内容涵盖了大数据领域的关键技术点,包括但不限于分布式计算框架、...

    《大数据平台搭建与配置管理》期末考试卷及答案.docx

    - **知识点**: 用户可以通过设置某些选项来忽略异常,比如在Hive中,可以设置`hive.exec.dynamic.partition.mode`为`nonstrict`来允许动态分区的创建。 36. **HBase的数据导入** - **知识点**: 为了方便在HBase上...

    imapla驱动jar包

    10. **Hive兼容性**:描述中提到可以通过Hive的jar进行连接,这意味着Impala和Hive的JDBC接口有一定的兼容性。这是因为Impala的语法和API设计受到了Hive的影响,所以某些情况下,一个针对Hive的JDBC驱动可能也能用于...

    datax的使用.pdf

    DataX是一款由阿里巴巴开源的高效离线数据同步工具,支持多种异构数据源之间的数据同步,包括但不限于MySQL、Oracle、HDFS、Hive、OceanBase、HBase、OTS、ODPS等。DataX采取了框架加插件的模式,其本身是一个离线...

    华为大数据认证HCIP-Big Data Developer H13-723大数据题库

    5. Hive文件格式:Hive是一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能。其中,Parquet和RCFile是列式存储格式,而TextFile是行式存储格式。CRC是用于校验文件的工具。因此...

    HCIP-Big Data培训视频教程【共43集】.rar

    目录: 网盘文件永久连接 01大数据行业与技术趋势 02 FusionInsight HD 03 HDFS分布式文件系统技术 04-06 MapReduce和Yarn分布式计算引擎技术 07 第一周回顾 08-09 HBase_技术原理 10 Hive技术原理 11 ...

    FLINK-1.14.0 cdh6.3.2 .zip

    首先,CDH 6.3.2是Cloudera提供的一套全面的Hadoop和大数据分析平台,它包含了多个组件如HDFS、YARN、HBase、Hive等,为用户提供了统一的数据管理和分析环境。而Flink的1.14.0版本则带来了诸多性能优化和新特性,如...

    sqoop-1.4.6-cdh5.16.2.tar.gz

    CDH 是一个企业级的 Hadoop 分发版,包含了 Hadoop 的核心组件和其他相关的开源项目,例如 Hive、Pig、HBase 等。 在这个版本中,Sqoop 提供了以下主要功能和特性: 1. **数据导入**:Sqoop 可以高效地将 RDBMS 中...

    连接hadoop资源的所需依赖jar包

    9. **Hadoop的其他模块**: 如HBase、Hive、Pig、Spark等,根据你的具体需求,可能还需要这些扩展服务的jar包。 在实际开发过程中,通常会使用Maven或Gradle等构建工具来管理这些依赖,通过指定相应的依赖项,自动...

    英特尔Hadoop发行版+企业级解决方案.pdf

    - **HBase数据库虚拟大表**:支持跨数据中心的HBase数据库虚拟大表功能,增强了数据的可用性和可靠性。 - **数据复制与备份**:提供HBase数据库的复制和备份功能,确保了关键业务数据的安全。 - **即时大数据分析**...

Global site tag (gtag.js) - Google Analytics