`

hive迁移hadoop namenode时遇到的问题

 
阅读更多

使用了一段时间的hive和hadoop,在迁移datanode时很容易,要迁移namenode,hive里就闹情绪了。更改namenode后,在hive中运行select 依旧指向之前的namenode地址。

要如何解决呢,具体操作如下:
1.复制打包老的namenode
2.复制打包老的namenode的hdfs目录
3.到新机器准备好:修改master的值 复制到各节点 修改hive的定义
4.hive这里使用了mysql来保存metadata
因为这些信息会被写死在hive的DBS和SBS表里,下面是关键的一步:
进入mysql,执行下面的sql,

update DBS set DB_LOCATION_URI=REPLACE(DB_LOCATION_URI,'old host','new host');
update SDS set LOCATION=REPLACE(LOCATION,'old host','new host');

启动,一切正常了!迁移hive namenode成功。

转载自:http://www.54chen.com/_linux_/hive-hadoop-namenode-problem.html

分享到:
评论

相关推荐

    hive配置文件信息修改

    在大数据处理领域,Hive、Hadoop和Spark是三个至关重要的组件。它们分别扮演着不同的角色,协同工作以实现高效的数据存储、管理和分析。本文将详细介绍如何在这些工具的环境中进行配置文件信息的修改,以优化系统...

    伪分布模式hadoop软件1,和hive_3,sqoop_2搭配使用

    - Sqoop是一个用于在Hadoop和关系型数据库之间进行数据迁移的工具。 - 将Sqoop解压到Hadoop的根目录下,保持一致的环境。 - 在`sqoop-site.xml`中配置Hadoop的连接信息,包括`fs.defaultFS`和`mapreduce....

    hadoop集群安装、配置、维护文档

    名Node是Hadoop HDFS的主要元数据管理节点,其迁移可能涉及备份现有NameNode的数据,配置新的NameNode服务器,执行格式化操作,更新集群的配置文件,以及将备份数据恢复到新节点。这是一个高风险的操作,需要仔细...

    RDBMS到Hadoop的迁移方案.pptx

    【RDBMS到Hadoop迁移】随着大数据时代的到来,企业面临着海量数据的处理挑战,传统的RDBMS(关系型数据库管理系统)在面对大数据量时显得力不从心。RDBMS主要用于结构化数据的存储和管理,但在处理非结构化和半结构...

    Hadoop单节点部署指导

    - **Sqoop**:用于在Hadoop和关系型数据库之间进行数据迁移的工具。 - **Oozie**:一个工作流调度系统,用于管理Hadoop中的复杂工作流程。 #### 六、总结 通过上述步骤,我们可以成功地在一个单节点上部署并配置...

    hadoop完整安装流程

    对于新手来说,安装过程中可能会遇到各种问题,如依赖库缺失、端口冲突、配置错误等,因此建议在安装时详细阅读官方文档,或者参考社区的教程和解决方案,以确保安装过程顺利。同时,安装完成后进行简单的测试,例如...

    Hadoop 2.10.0中文版API

    10. **Sqoop**:用于在Hadoop和传统关系型数据库之间导入导出数据的工具,提供了批处理数据迁移的API。 掌握Hadoop 2.10.0中文版API意味着开发者能够熟练地在Hadoop平台上开发、部署和优化大数据处理应用,从而充分...

    hadoop高级应用三

    2. **Hadoop生态系统的扩展**:除了基本的HDFS和MapReduce,Hadoop生态系统还包括了如HBase(分布式数据库)、Hive(数据仓库工具)、Pig(数据分析工具)、Oozie(工作流调度器)等,这些工具大大扩展了Hadoop的...

    Hadoop第一次培训材料

    - **数据导入与导出**:学习如何使用Hadoop的工具如`sqoop`进行传统数据库与Hadoop之间的数据迁移。 - **Hadoop MapReduce编程**:通过Java API编写MapReduce作业,理解Mapper和Reducer的工作流程。 - **故障恢复...

    hadoop集群搭建以及大数据平台搭建

    接着,Hadoop高可用可以通过设置多个NameNode和ResourceManager来实现。这需要配置HA相关的参数,如fs.defaultFS指向共享的编辑日志目录,以及启用Zookeeper以协助故障切换。 Flume是日志收集工具,常用于从各种...

    阿里云Hadoop在云上的最佳实践

    5. 阿里云Hadoop生态涉及到的技术组件包括EMR、Hive、Spark SQL、Spark GraphX、Spark MLLib、Spark Streaming、MapReduce/TEZ、Spark Core、HBase,以及其他的开源软件,如Storm、Impala、Flink等。 ### 云上...

    Ubuntu16.04搭建Hadoop2.6.7-纯命令.docx

    随着时间的推移,Hadoop逐渐发展成为一个庞大的生态系统,包括了如YARN(Yet Another Resource Negotiator)资源调度系统、ZooKeeper分布式协调服务、Hive数据仓库工具、HBase分布式数据库、Sqoop数据迁移工具以及...

    Hadoop基础面试题(附答案)

    - **解决了单点故障问题**:通过引入Active-Standby模式的NameNode,当Active NameNode故障时,Standby NameNode可以快速接管服务,避免了单点故障的问题。 #### 十六、HDFS Federation解决了什么问题 - **解决了...

    hadoop 面试题大全

    - Sqoop则用于在关系型数据库和Hadoop之间迁移数据。 4. "Hadoop"是指核心的分布式计算框架,包括HDFS和MapReduce,而"Hadoop生态系统"则包含了Hadoop及其周边的众多工具和服务,如Zookeeper、Flume、Hbase、Hive...

    hadoop运维经验分享

    在Hadoop运维领域,经验是宝贵的财富。2012年华东运维技术大会上分享的"Hadoop运维经验"涵盖了Hadoop生态系统中的多个关键方面,旨在帮助IT专业人士更好地管理和优化大规模数据处理环境。以下是对这些运维经验的详细...

    Hadoop常见的45个面试题

    - 混合云集成:企业寻求在私有云和公有云之间无缝迁移Hadoop集群。 10. **Hadoop生态系统**: - 随着技术发展,Hadoop不再是单一的解决方案,而是整个生态系统的一部分,包括Apache Storm、Tez、Flink等。 通过...

    最新Hadoop的面试题总结

    以上内容涵盖了Hadoop的基本概念、运行模式、生态系统组件、集群运行的关键进程以及数据处理中的序列化和切片机制,这些都是面试中常见的问题,理解和掌握这些知识点对于Hadoop开发者至关重要。

    Hadoop期末整理.pdf

    总的来说,Hadoop是一个强大的大数据处理平台,通过HDFS和MapReduce解决了大数据存储和计算的问题,同时通过一系列相关技术如HBase、Hive和ZooKeeper等,构建了一个完整的生态系统,支持大规模数据处理和分析。...

    《Hadoop 数据分析平台》课程毕业测试题

    根据提供的《Hadoop 数据分析平台》课程毕业测试题的相关信息,我们可以提炼出一系列与Hadoop相关的知识点,这些知识点不仅能够帮助学生更好地理解Hadoop的工作原理和技术细节,还能够加深他们对大数据处理技术的...

Global site tag (gtag.js) - Google Analytics