论坛首页 Java企业应用论坛

Hadoop的升级

浏览 2504 次
锁定老帖子 主题:Hadoop的升级
精华帖 (0) :: 良好帖 (0) :: 新手帖 (4) :: 隐藏帖 (0)
作者 正文
   发表时间:2009-04-10   最后修改:2009-04-10
现在我使用的Hadoop版本是0.19.0,我要把它升级到0.19.1

操作步骤:
将hadoop-0.19.0升级到hadoop-0.19.1首先当然是下载hadoop-0.19.1

把传至主节点上,并且把0.19.1修改成和hadoop-0.19.0同样的配置后,分派到从节点上

停止Hadoop群集:在主节点的目录中 bin/stop-dfs.sh

进入从节点的hadoop-0.19.1 :
bin/start-dfs.sh -upgrade

然后启动namenode,这样就升级完成。


如果有需要回到老版本的Hadoop,那么可以:
a.停止集群,分发部署老版本的Hadoop
b.通过rollback选项启动集群,例如
bin/start-dfs.sh -rollback
   发表时间:2009-09-02  
为啥要进入从节点呢?
0 请登录后投票
论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics