`

升级hadoop

 
阅读更多

在没有更换前先备份数据

[hadoop@Hadoop-10-4 hadoop]$ bin/hadoop dfsadmin -finalizeUpgrade

Warning: $HADOOP_HOME is deprecated.

 

[hadoop@Hadoop-10-4 hadoop]$ bin/hadoop dfsadmin -upgradeProgress status

Warning: $HADOOP_HOME is deprecated.

 

There are no upgrades in progress.

 

升级hadoop

1、解压hadoop

2、拷贝原来hadoop/conf/core-site.xml hdfs-site.xml mapred-site.xml masters slaves到新的hadoop/conf目录

3、修改新的hadoop/conf/hadoop-env.sh中JAVA_HOME的路径

4、从hbase/lib/guava-11.0.2.jar protobuf-java-2.4.0a.jar zookeeper-3.4.5.jar拷贝到hadoop/lib目录下,主要是因为在hadoop中运行以下命令会报找不到类的错误:

[hadoop@Hadoop-10-4 hadoop-1.0.4]$ bin/hadoop jar ../hbase-0.94.5/hbase-0.94.5.jar rowcounter games2

 

升级hbase

1、拷贝原来的hbase/conf/hbase-site.xml regionservers到新的hbase/conf目录

2、修改新的hbase/conf/hbase-env.sh中的信息如下:

export JAVA_HOME=/home/hadoop/soft/jdk1.6.0_41

export HBASE_CLASSPATH=/home/hadoop/soft/hadoop/conf

export HBASE_OPTS="-XX:+UseConcMarkSweepGC -XX:CMSInitiatingOccupancyFraction=70"

3、把hadoop的native连接到hbase/lib目录

mv hbase/lib/native native.bak

ln -s /home/hadoop/soft/hadoop/lib/native native

 

mv hadoop-core-1.0.4.jar hadoop-core-1.0.4.jar.bak

cp /home/hadoop/soft/hadoop/hadoop-core-1.2.1.jar ./

 

4、更换完毕后此时还不能直接启动hadoop,否则会出现以下错误:

File system image contains an old layout version -32.

An upgrade to version -41 is required.

Please restart NameNode with -upgrade option.

        at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:338)

        at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:104)

        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:427)

        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:395)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:299)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:569)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1479)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1488)

2013-09-04 15:07:11,813 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException:

File system image contains an old layout version -32.

An upgrade to version -41 is required.

Please restart NameNode with -upgrade option.

        at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:338)

        at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:104)

        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:427)

        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:395)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:299)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:569)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1479)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1488)

 正确方法是:

[hadoop@Hadoop-10-4 hadoop]$ bin/start-dfs.sh -upgrade

检查数据块是否完整

hadoop fsck -blocks

正常后关闭finalizeUpgrade

如果需要回滚

bin/start-dfs.sh -rollback

 

 hbase则直接启动即可

 

当集群正常并运行一段时间以后(如果确定没数据丢失,也可以立即final),使用 hadoop dfsadmin -finalizeUpgrade进行版本的序列化(在这之前如果你没有删除原来版本hadoop的,你完全可以使用start-dfs.sh -rollback返回到原来版本的hadoop)

finalizeUpgrade之后,需重启集群,空间才会释放,或hadoop namenode -finalize

bin/hadoop dfsadmin -upgradeProgress
  命令来查看版本升级的情况。
  bin/hadoop dfsadmin -upgradeProgress details
  来查看更多的详细信息。
  当升级过程被阻塞的时候,你可以使用
  bin/hadoop dfsadmin -upgradeProgress force
  来强制升级继续执行(这个命令比较危险,慎重使用)。

  当HDFS升级完毕后,Hadoop依旧保留着旧版本的有关信息,
  以便你可以方便的对HDFS进行降级操作。
  可以使用bin/start-dfs.sh -rollback来执行降级操作。

分享到:
评论

相关推荐

    hadoop1升级hadoop2步骤

    hadoop1升级到hadoop2具体步骤及方法

    Hadoop的升级和回滚

    升级Hadoop可以引入新的功能和改进性能,但是同时也可能引入新的bug或不兼容的修改,导致现有的应用出现问题。因此,了解Hadoop的升级和回滚机制是非常重要的。 Hadoop升级机制 Hadoop升级机制允许管理员将Hadoop...

    hadoop集群维护手册.pdf

    本文档提供了 Hadoop 集群维护的详细指南,涵盖了集群的启动、停止、增加存储量、平衡数据、升级 Hadoop 版本等多方面的内容。 一、Hadoop 集群启动和停止命令 Hadoop 集群可以使用 start-all.sh 命令启动,使用 ...

    hadoop2.8.3包含winutils.exe和hadoop.dll

    在安装或升级Hadoop时,你需要将这个“bin”目录的内容覆盖到你现有的Hadoop安装路径下的相应位置,以确保使用的是最新版本的这些关键组件。 为了使Hadoop在Windows上成功运行,还需要注意以下几点: - 环境变量...

    cdh升级文档

    ### CDH 5.11.2 升级 Hadoop 知识点详解 #### 一、CDH与Hadoop的关系 Cloudera Distribution Including Apache Hadoop (CDH) 是 Cloudera 公司推出的一个基于 Apache Hadoop 的发行版。它集成了大量的大数据处理...

    hadoop—集群维护手册分享.pdf

    本文档旨在为 Hadoop 集群维护提供详细的操作指南,从集群启动和停止到数据平衡、节点添加、副本系数设置、平衡阈值调整、Hadoop 升级等多个方面,提供了实践操作步骤和注意事项。 一、集群启动和停止 Hadoop 集群...

    Hadoop 2.9.0 已废除属性集

    因此,在升级Hadoop系统之前,管理员需要仔细审查配置文件,并对其中涉及已废除属性的部分进行相应的修改。 了解这些废除属性以及它们的替代属性,不仅有助于在升级过程中避免潜在的问题,而且还有助于管理员更好地...

    Ambari下Hive3.0升级到Hive4.0

    注意,可能需要同时升级依赖的组件,如 Hadoop、HBase 或 Tez,以确保兼容性。 4. **配置更新**:在 Ambari 管理界面中,选择 Hive 服务并查看配置变更。Hive 4.0 可能引入了新的配置选项,或者修改了某些默认值。...

    hadoop-2.6.0.tar.gz

    4. **格式化NameNode**:首次安装或升级Hadoop时,需要对NameNode进行格式化,这会清除所有旧的数据,因此要谨慎操作。 5. **启动Hadoop服务**:通过执行`start-dfs.sh`和`start-yarn.sh`脚本启动Hadoop的各个服务...

    hadoop2.7.0 windows

    描述中的"下载后直接替换原来bin就行"意味着在安装或升级Hadoop时,只需要将新的bin目录内容覆盖到原有的bin目录下即可。bin目录包含了许多可执行脚本,如hadoop、hdfs、yarn和mapred等,这些脚本在Hadoop集群的日常...

    Hadoop源码编译需要工具

    在某些情况下,如升级Hadoop版本或执行自定义构建流程时,可能需要Ant来进行辅助操作。 在准备编译Hadoop源码之前,确保系统已经安装了JDK(Java Development Kit)和Git。JDK是Java编程的基础,而Git则用于从...

    Hadoop64位库文件

    在升级Hadoop版本或迁移系统时,必须确保这些库文件与新环境匹配,并进行适当的更新或迁移。 总之,“Hadoop64位库文件”压缩包是Hadoop在64位系统上运行的基石,包含了与操作系统交互所需的底层支持。正确地部署和...

    hadoop-2.9.2 bin.zip

    这一步骤是升级Hadoop版本的关键步骤,务必确保在没有运行任何Hadoop进程的情况下进行,以防止数据丢失或系统错误。 在运行Hadoop的伪分布式模式时,一个单一的节点同时充当DataNode、NameNode、ResourceManager和...

    native(hadoop-2.5.0-cdh5.2.0).tar

    标题 "native(hadoop-2.5.0-cdh5.2.0).tar" 提供的是一个针对Hadoop 2.5.0 CDH5.2.0版本的本地库文件集合,它已经过编译,...在部署或升级Hadoop时,正确配置和使用这些本地库是至关重要的,以确保系统的稳定性和性能。

    win10系统编译好的hadoop源码

    4. **格式化NameNode**:首次安装或升级Hadoop时,需要对NameNode进行格式化。 5. **启动服务**:通过命令行启动Hadoop的相关守护进程,如`start-dfs.sh`和`start-yarn.sh`。 6. **测试运行**:验证Hadoop是否正常...

    Hadoop权威指南第三版

    了解不同版本之间的差异对于维护和升级Hadoop集群非常重要。 #### 二、MapReduce详解 - **MapReduce概念**: MapReduce是一种编程模型,用于处理和生成大数据集。它通过将任务分解为两个阶段(Map和Reduce)来实现...

    hadoop之clouderamanage安装共8页.pd

    7. **版本升级**:Cloudera Manager支持在线升级Hadoop组件,无需停机,大大降低了维护成本和风险。 8. **安全管理**:Cloudera Manager集成了身份验证和授权机制,如Kerberos和LDAP,保障了大数据环境的安全性。 ...

    基于hadoop的分布式存储平台的搭建与验证毕业论文.doc

    10. Hadoop 集群的扩展和升级:论文讨论了 Hadoop 集群的扩展和升级,包括添加新节点、升级 Hadoop 软件等。 本文档涵盖了基于 Hadoop 的分布式存储平台的设计和实现、NameNode 和 DataNode 的设计和实现、Hadoop ...

    CM-CDH升级文档

    随着CDH社区的持续活跃,CDH版本不断更新,为了使用版本新特性,本次将进行CM和CDH的版本升级,本次升级主要采用package升级,linux系统centos6.5,升级前CLOUDERA MANAGER 版本为5.7.1,升级后CLOUDERA MANAGER版本...

Global site tag (gtag.js) - Google Analytics