在没有更换前先备份数据
[hadoop@Hadoop-10-4 hadoop]$ bin/hadoop dfsadmin -finalizeUpgrade
Warning: $HADOOP_HOME is deprecated.
[hadoop@Hadoop-10-4 hadoop]$ bin/hadoop dfsadmin -upgradeProgress status
Warning: $HADOOP_HOME is deprecated.
There are no upgrades in progress.
升级hadoop
1、解压hadoop
2、拷贝原来hadoop/conf/core-site.xml hdfs-site.xml mapred-site.xml masters slaves到新的hadoop/conf目录
3、修改新的hadoop/conf/hadoop-env.sh中JAVA_HOME的路径
4、从hbase/lib/guava-11.0.2.jar protobuf-java-2.4.0a.jar zookeeper-3.4.5.jar拷贝到hadoop/lib目录下,主要是因为在hadoop中运行以下命令会报找不到类的错误:
[hadoop@Hadoop-10-4 hadoop-1.0.4]$ bin/hadoop jar ../hbase-0.94.5/hbase-0.94.5.jar rowcounter games2
升级hbase
1、拷贝原来的hbase/conf/hbase-site.xml regionservers到新的hbase/conf目录
2、修改新的hbase/conf/hbase-env.sh中的信息如下:
export JAVA_HOME=/home/hadoop/soft/jdk1.6.0_41
export HBASE_CLASSPATH=/home/hadoop/soft/hadoop/conf
export HBASE_OPTS="-XX:+UseConcMarkSweepGC -XX:CMSInitiatingOccupancyFraction=70"
3、把hadoop的native连接到hbase/lib目录
mv hbase/lib/native native.bak
ln -s /home/hadoop/soft/hadoop/lib/native native
mv hadoop-core-1.0.4.jar hadoop-core-1.0.4.jar.bak
cp /home/hadoop/soft/hadoop/hadoop-core-1.2.1.jar ./
4、更换完毕后此时还不能直接启动hadoop,否则会出现以下错误:
File system image contains an old layout version -32.
An upgrade to version -41 is required.
Please restart NameNode with -upgrade option.
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:338)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:104)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:427)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:395)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:299)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:569)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1479)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1488)
2013-09-04 15:07:11,813 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException:
File system image contains an old layout version -32.
An upgrade to version -41 is required.
Please restart NameNode with -upgrade option.
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:338)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:104)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:427)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:395)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:299)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:569)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1479)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1488)
正确方法是:
[hadoop@Hadoop-10-4 hadoop]$ bin/start-dfs.sh -upgrade
检查数据块是否完整
hadoop fsck -blocks
正常后关闭finalizeUpgrade
如果需要回滚
bin/start-dfs.sh -rollback
hbase则直接启动即可
当集群正常并运行一段时间以后(如果确定没数据丢失,也可以立即final),使用 hadoop dfsadmin -finalizeUpgrade进行版本的序列化(在这之前如果你没有删除原来版本hadoop的,你完全可以使用start-dfs.sh -rollback返回到原来版本的hadoop)
finalizeUpgrade之后,需重启集群,空间才会释放,或hadoop namenode -finalize
bin/hadoop dfsadmin -upgradeProgress
命令来查看版本升级的情况。
bin/hadoop dfsadmin -upgradeProgress details
来查看更多的详细信息。
当升级过程被阻塞的时候,你可以使用
bin/hadoop dfsadmin -upgradeProgress force
来强制升级继续执行(这个命令比较危险,慎重使用)。
当HDFS升级完毕后,Hadoop依旧保留着旧版本的有关信息,
以便你可以方便的对HDFS进行降级操作。
可以使用bin/start-dfs.sh -rollback来执行降级操作。
相关推荐
hadoop1升级到hadoop2具体步骤及方法
升级Hadoop可以引入新的功能和改进性能,但是同时也可能引入新的bug或不兼容的修改,导致现有的应用出现问题。因此,了解Hadoop的升级和回滚机制是非常重要的。 Hadoop升级机制 Hadoop升级机制允许管理员将Hadoop...
本文档提供了 Hadoop 集群维护的详细指南,涵盖了集群的启动、停止、增加存储量、平衡数据、升级 Hadoop 版本等多方面的内容。 一、Hadoop 集群启动和停止命令 Hadoop 集群可以使用 start-all.sh 命令启动,使用 ...
在安装或升级Hadoop时,你需要将这个“bin”目录的内容覆盖到你现有的Hadoop安装路径下的相应位置,以确保使用的是最新版本的这些关键组件。 为了使Hadoop在Windows上成功运行,还需要注意以下几点: - 环境变量...
### CDH 5.11.2 升级 Hadoop 知识点详解 #### 一、CDH与Hadoop的关系 Cloudera Distribution Including Apache Hadoop (CDH) 是 Cloudera 公司推出的一个基于 Apache Hadoop 的发行版。它集成了大量的大数据处理...
本文档旨在为 Hadoop 集群维护提供详细的操作指南,从集群启动和停止到数据平衡、节点添加、副本系数设置、平衡阈值调整、Hadoop 升级等多个方面,提供了实践操作步骤和注意事项。 一、集群启动和停止 Hadoop 集群...
因此,在升级Hadoop系统之前,管理员需要仔细审查配置文件,并对其中涉及已废除属性的部分进行相应的修改。 了解这些废除属性以及它们的替代属性,不仅有助于在升级过程中避免潜在的问题,而且还有助于管理员更好地...
注意,可能需要同时升级依赖的组件,如 Hadoop、HBase 或 Tez,以确保兼容性。 4. **配置更新**:在 Ambari 管理界面中,选择 Hive 服务并查看配置变更。Hive 4.0 可能引入了新的配置选项,或者修改了某些默认值。...
4. **格式化NameNode**:首次安装或升级Hadoop时,需要对NameNode进行格式化,这会清除所有旧的数据,因此要谨慎操作。 5. **启动Hadoop服务**:通过执行`start-dfs.sh`和`start-yarn.sh`脚本启动Hadoop的各个服务...
描述中的"下载后直接替换原来bin就行"意味着在安装或升级Hadoop时,只需要将新的bin目录内容覆盖到原有的bin目录下即可。bin目录包含了许多可执行脚本,如hadoop、hdfs、yarn和mapred等,这些脚本在Hadoop集群的日常...
在某些情况下,如升级Hadoop版本或执行自定义构建流程时,可能需要Ant来进行辅助操作。 在准备编译Hadoop源码之前,确保系统已经安装了JDK(Java Development Kit)和Git。JDK是Java编程的基础,而Git则用于从...
在升级Hadoop版本或迁移系统时,必须确保这些库文件与新环境匹配,并进行适当的更新或迁移。 总之,“Hadoop64位库文件”压缩包是Hadoop在64位系统上运行的基石,包含了与操作系统交互所需的底层支持。正确地部署和...
这一步骤是升级Hadoop版本的关键步骤,务必确保在没有运行任何Hadoop进程的情况下进行,以防止数据丢失或系统错误。 在运行Hadoop的伪分布式模式时,一个单一的节点同时充当DataNode、NameNode、ResourceManager和...
标题 "native(hadoop-2.5.0-cdh5.2.0).tar" 提供的是一个针对Hadoop 2.5.0 CDH5.2.0版本的本地库文件集合,它已经过编译,...在部署或升级Hadoop时,正确配置和使用这些本地库是至关重要的,以确保系统的稳定性和性能。
4. **格式化NameNode**:首次安装或升级Hadoop时,需要对NameNode进行格式化。 5. **启动服务**:通过命令行启动Hadoop的相关守护进程,如`start-dfs.sh`和`start-yarn.sh`。 6. **测试运行**:验证Hadoop是否正常...
了解不同版本之间的差异对于维护和升级Hadoop集群非常重要。 #### 二、MapReduce详解 - **MapReduce概念**: MapReduce是一种编程模型,用于处理和生成大数据集。它通过将任务分解为两个阶段(Map和Reduce)来实现...
7. **版本升级**:Cloudera Manager支持在线升级Hadoop组件,无需停机,大大降低了维护成本和风险。 8. **安全管理**:Cloudera Manager集成了身份验证和授权机制,如Kerberos和LDAP,保障了大数据环境的安全性。 ...
10. Hadoop 集群的扩展和升级:论文讨论了 Hadoop 集群的扩展和升级,包括添加新节点、升级 Hadoop 软件等。 本文档涵盖了基于 Hadoop 的分布式存储平台的设计和实现、NameNode 和 DataNode 的设计和实现、Hadoop ...
随着CDH社区的持续活跃,CDH版本不断更新,为了使用版本新特性,本次将进行CM和CDH的版本升级,本次升级主要采用package升级,linux系统centos6.5,升级前CLOUDERA MANAGER 版本为5.7.1,升级后CLOUDERA MANAGER版本...