论坛首页 入门技术论坛

hadoop升级小记

浏览 3543 次
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
作者 正文
   发表时间:2014-07-21  
迎合技术发展,公司最近需要对原有的hadoop进行升级操作,升级前的hadoop为1.2.1的版本,升级后的hadoop为hadoop2.2.0的版本,下面散仙总结下升级心得:

(1)hadoop的hdfs系统,支持不同的hadoop版本之间的数据平滑过渡,比如可以直接将Hadoop1.x的数据,升级到hadoop2.x的HDFS上,能够这样升级是最好了,直接从HDFS上进行过渡。此种方法适合同种hadoop版本之间的升级什么意思呢,就是apache hadoop只能和apache hadoop直接升级,而不能跨版本和CDH的hadoop升级,容易出现问题。

(2)如果是跨版本的hadoop升级,从Apache过渡到CDH的Hadoop,或者从CDH的hadoop过渡到Apache的hadoop,那么使用的办法,只能是数据的迁移了,把apache hadoop上的HDFS上的数据拷贝到CDH的hadoop即可。
当然如果你在同种版本之间升级失败了,你也可以直接把低版本的数据直接拷贝到高版本的hadoop上,即可。

下面开始正文:

1. 升级前原来的hadoop1.x的集群,先做数据备份,主要是对hadoop1.x集群上HDFS上的数据做备份,执行命令
2. hadoop  fs  -copyToLocal  hdfs上的数据目录  本地磁盘数据   将hadoop1.x上的HDFS上的数据备份下来。
3. 数据备完后,如有必要,可对hdfs-site.xml里面的dfs.name.dir和dfs.data.dir的路径指定的元数据进行备份,防止出现升级失败造成的不必要的损失
4. 第二步完成后,即可停掉hadoop1.x的集群,注意查看备份后的数据是否与HDFS上的一样。
5. 停掉集群后,需要修改环境变量,因为Hadoop1.x和Hadoop2.x的环境变量有一处不一样,就是conf目录的路径,如下所示:

<pre name="code" class="xml">export JAVA_HOME="/usr/local/jdk"
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$PATH:$JAVA_HOME/bin

export HADOOP_HOME=/home/search/hadoop
hadoop1.x的路径
export HADOOP_CONF_DIR=$HADOOP_HOME/conf
hadoop2.x的路径
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export CLASSPATH=.:$CLASSPATH:$HADOOP_HOME/lib
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export ANT_HOME=/usr/local/ant
export CLASSPATH=$CLASSPATH:$ANT_HOME/lib
export PATH=$PATH:$ANT_HOME/bin

export MAVEN_HOME="/usr/local/maven"
export CLASSPATH=$CLASSPATH:$MAVEN_HOME/lib
export PATH=$PATH:$MAVEN_HOME/bin

更改后,注意需要把/etc/profile.d/java.sh分发给各个机器。
</pre>
6,开始配置安装hadoop2.2.0,上传hadoop2.2.0的压缩包,并解压,解压后,进入etc/hadoop目录配置core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml,配置属性,参照1.x的配置。
core-site.xml里面的内容如下(部分设置参数需要根据机器实际情况做改变):

<pre name="code" class="xml">
&lt;configuration&gt;
  &lt;property&gt;
    &lt;name&gt;fs.defaultFS&lt;/name&gt;
    &lt;value&gt;hdfs://hadoop1:8020&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;io.file.buffer.size&lt;/name&gt;
    &lt;value&gt;131072&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;hadoop.tmp.dir&lt;/name&gt;
    &lt;value&gt;/home/search/tmp&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;hadoop.proxyuser.hadoop.hosts&lt;/name&gt;
    &lt;value&gt;*&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;hadoop.proxyuser.hadoop.groups&lt;/name&gt;
    &lt;value&gt;*&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;io.native.lib.available&lt;/name&gt;
    &lt;value&gt;true&lt;/value&gt;
  &lt;/property&gt;

&lt;/configuration&gt;

</pre>
hdfs-site.xml里面的内容如下(部分设置参数需要根据机器实际情况做改变):
<pre name="code" class="xml">
&lt;configuration&gt;
&lt;property&gt;
    &lt;name&gt;dfs.namenode.secondary.http-address&lt;/name&gt;
    &lt;value&gt;hadoop1:8021&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;dfs.webhdfs.enabled&lt;/name&gt;
    &lt;value&gt;true&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
        &lt;name&gt;dfs.blocksize&lt;/name&gt;
        &lt;value&gt;134217728&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
        &lt;name&gt;dfs.namenode.handler.count&lt;/name&gt;
        &lt;value&gt;20&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
        &lt;name&gt;dfs.datanode.max.xcievers&lt;/name&gt;
        &lt;value&gt;65535&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
        &lt;name&gt;dfs.replication&lt;/name&gt;
        &lt;value&gt;2&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
      &lt;name&gt;dfs.namenode.name.dir&lt;/name&gt;
      &lt;value&gt;/data/hadoop-nd&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
      &lt;name&gt;dfs.datanode.data.dir&lt;/name&gt;
      &lt;value&gt;/data/hadoop-dd&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
      &lt;name&gt;dfs.tmp.dir&lt;/name&gt;
      &lt;value&gt;/data/hadooptmp&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
      &lt;name&gt;dfs.support.broken.append&lt;/name&gt;
      &lt;value&gt;true&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
      &lt;name&gt;dfs.permissions.enabled&lt;/name&gt;
      &lt;value&gt;false&lt;/value&gt;
&lt;/property&gt;
&lt;/configuration&gt;
</pre>
mapred-site.xml里面的内容如下(部分设置参数需要根据机器实际情况做改变):
<pre name="code" class="xml">&lt;configuration&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.framework.name&lt;/name&gt;
    &lt;value&gt;yarn&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.jobtracker.address&lt;/name&gt;
    &lt;value&gt;hadoop1:8021&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.jobhistory.address&lt;/name&gt;
    &lt;value&gt;hadoop1:10020&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.jobhistory.webapp.address&lt;/name&gt;
    &lt;value&gt;hadoop1:19888&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapred.max.maps.per.node&lt;/name&gt;
    &lt;value&gt;8&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapred.max.reduces.per.node&lt;/name&gt;
    &lt;value&gt;4&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.map.memory.mb&lt;/name&gt;
    &lt;value&gt;4096&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.map.java.opts&lt;/name&gt;
    &lt;value&gt;-Xmx3072M&lt;/value&gt;
&lt;/property&gt;

&lt;property&gt;
    &lt;name&gt;mapreduce.reduce.memory.mb&lt;/name&gt;
    &lt;value&gt;8192&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.reduce.java.opts&lt;/name&gt;
    &lt;value&gt;-Xmx6144M&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.task.io.sort.mb&lt;/name&gt;
    &lt;value&gt;512&lt;/value&gt;
&lt;/property&gt;
&lt;property&gt;
    &lt;name&gt;mapreduce.task.io.sort.factor&lt;/name&gt;
    &lt;value&gt;100&lt;/value&gt;
&lt;/property&gt;
&lt;/configuration&gt;
</pre>
yarn-site.xml里面的内容如下(部分设置参数需要根据机器实际情况做改变):
<pre name="code" class="xml">
&lt;configuration&gt;

  &lt;property&gt;
    &lt;name&gt;yarn.resourcemanager.address&lt;/name&gt;
    &lt;value&gt;hadoop1:8032&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.resourcemanager.scheduler.address&lt;/name&gt;
    &lt;value&gt;hadoop1:8030&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.resourcemanager.scheduler.class&lt;/name&gt;
    &lt;value&gt;org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.resourcemanager.resource-tracker.address&lt;/name&gt;
    &lt;value&gt;hadoop1:8031&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.resourcemanager.admin.address&lt;/name&gt;
    &lt;value&gt;hadoop1:8033&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.resourcemanager.webapp.address&lt;/name&gt;
    &lt;value&gt;hadoop1:8088&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.nodemanager.aux-services&lt;/name&gt;
    &lt;value&gt;mapreduce_shuffle&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.nodemanager.aux-services.mapreduce.shuffle.class&lt;/name&gt;
    &lt;value&gt;org.apache.hadoop.mapred.ShuffleHandler&lt;/value&gt;
  &lt;/property&gt;
  &lt;property&gt; 
    &lt;description&gt;Classpath for typical applications.&lt;/description&gt; 
    &lt;name&gt;yarn.application.classpath&lt;/name&gt; 
    &lt;value&gt;$HADOOP_CONF_DIR
    ,$HADOOP_COMMON_HOME/share/hadoop/common/*
    ,$HADOOP_COMMON_HOME/share/hadoop/common/lib/*
    ,$HADOOP_HDFS_HOME/share/hadoop/hdfs/*
    ,$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*
    ,$YARN_HOME/share/hadoop/yarn/*&lt;/value&gt; 
  &lt;/property&gt;

&lt;!-- Configurations for NodeManager --&gt;
  &lt;property&gt;
    &lt;name&gt;yarn.nodemanager.resource.memory-mb&lt;/name&gt;
    &lt;value&gt;10240&lt;/value&gt;
  &lt;/property&gt;
&lt;/configuration&gt;
</pre>
(1)需要改动的地方,在原来的环境变量里java.sh里面,修改hadoop的conf的路径
改完后,记得scp到各个节点里的/etc/profile.d/路径下,并将原来hadoop1.x的hadoop目录更改为hadoop1.xold,将hadoop2.2.0的目录重命名为hadoop(可以新建个软连接)
(2)注意在hdfs-site.xml里面的namenode的dir和datanode.dir指向原来hadoop1.x的元数据地址。
(3)查看原来的本机是否为计算节点(TaskTracker),如果不是,slaves里面就不要添加本机的节点信息,slaves里面统一添加hosts里面映射的name信息。
(4)一切配置完毕后,用scp进行分发,每个节点上发一个
(5)无须进行格式化操作,直接启动集群,然后查看namenode.log,发现里面抛出error错误,说大概意思你有hdfs文件需要升级:

<pre name="code" class="java">File system image contains an old layout version -41.
An upgrade to version -47 is required.
Please restart NameNode with -upgrade option.
        at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:221)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:787)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFromDisk(FSNamesystem.java:568)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.loadNamesystem(NameNode.java:443)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:491)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.&lt;init&gt;(NameNode.java:684)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.&lt;init&gt;(NameNode.java:669)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1254)
        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1320)
2014-07-17 00:21:29,770 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1
2014-07-17 00:21:29,773 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:
</pre>


然后,停掉hadoop2.2.0的集群,准备执行升级,命令如下:
sbin/hadoop-daemon.sh start namenode -upgrade
然后查看,hadoop-namenode.log发现没有原来的的异常,就代表升级成功。此时
可以先停掉hadoop.2.2.0,执行命令stop-all.sh ,然后重新启动集群,start-all.sh,再次查看namenode.log如果不出错,就代表升级成功了,可以hadoop fs -ls / 查看HDFS上的文件,查看升级后的文件,如果升级失败,清空hadoop2.2.0的集群元数据,格式化namenode,重启hadoop2.2.0的集群,直接把原来hadoop1.x的备份数据,上传到
hadoop2.2.0的集群即可。


注意原来hadoop1的文件参数,hadoop2的对应的配置文件参数一致即可


查看各个节点上的jps进程,发现没有问题,,可以跑个基准测试


Hadoop自带一些基准测试程序,用来测试集群性能。例如:
如下的这个程序,会现在每个节点生成1个G的随机数字,然后排序出结果:
(1)./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar randomwriter rand
(2)./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar sort rand sort-rand
第一个命令会在rand 目录的生成没有排序的数据。第二个命令会读数据,排序,然后写入rand-sort 目录。

如果启动后的hadoop是安全模式的话,可以手动执行hadoop dfsadmin -safemode leave 退出安全模式。
论坛首页 入门技术版

跳转论坛:
Global site tag (gtag.js) - Google Analytics