论坛首页 Java企业应用论坛

影响Hadoop集群稳定性后续

浏览 2532 次
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
作者 正文
   发表时间:2010-09-09  
由于目前处理的数据量还未称的上大规模,但每个节点的压力都不小,真是稳定压倒一切呀。

在系统的作业过程中,不仅仅是关注磁盘使用量,CPU,Load,以及IOWait等指标,更重要的是深入到进程内部,来发现潜在的问题。近期一直在关注Hadoop系统的运行,我把dfshealth.jsp 的web管理页面加了一个新的指标,就是每个Node的Xceiver Count,该参数表示当前Node有多少线程数在服务w/r;另外一个很有用的指标就是每个Node的Last Contact,这个心跳包的最后更新时间一般超过3时你就得留意着是不是还会继续增长,如果持续走高,那你就得花点时间来care一下这台node各方面的压力。

Last Contact增高是各个Node出现问题的前兆,所以得相当注意,以前我曾记录过方面的问题:http://dongyajun.iteye.com/blog/627905, 后来我最终还是放弃hadoop的shell实现,改用本地脚本运行的方式,把磁盘的使用量等信息输出到临时文件中,供hadoop读取,不过这个问题并没有因此得到完全解决。

1. Node收到删除大量block的命令,请参见:https://issues.apache.org/jira/browse/HDFS-611, 升级到0.21.0版本会解决
2. Node report block给NN,这个长长也会花较长时间,如果你节点的Block够多,一般在30w+时,要花30秒左右时间,甚至更多。(默认一个小时报告一次),其实report block是不应该放到DN的 offerService中执行的,这个在0.21.0在始终未解决。
3. 在reprt block 之前,首先要从FSDataset中,获取该Node所有block列表,这个操作将花大量的时间,有时甚至要250秒甚至更多。此操作加上之后的report block方法调用,已经花了近300秒时间了。

Node长时间不发送心跳给NN产生的问题并不仅仅是该Node无冤的沦为dead node,更重要的是对客户端put的影响,虽然这种现象不会同时发生在put操作时的那几台Node上,但由于压力等诸多因素,仍然会导致Node无法正常把刚写完的block报告给NN,如果该block未报告给NN,客户端则不能成功申请新的block,如果该block是客户端最后升请的block,客户端关闭文件时就会报 Could not complete file *** retrying...异常。

解决方案:
1. DN的offerservice 中,把block report 放到单独线程中运行。
心跳和block report异步来做,对于0.21.0以下版本仍然有问题,当block report从FSDataset获取block info时,会对FSDataset类实例持有锁,由于这个操作花大量时间,会导致心跳在调用getCapacity时,被无情的BLOCKED,Last Contact仍然会增高。
"DataNode: [/sd01/hadoop/data/, …]" daemon prio=10 tid=0x08b1b800 nid=0x4cdd waiting for monitor entry [0x6df25000..0x6df25e30]
   java.lang.Thread.State: BLOCKED (on object monitor)
    at org.apache.hadoop.hdfs.server.datanode.FSDataset$FSVolumeSet.getCapacity(FSDataset.java:557)
    - waiting to lock <0x74faca20> (a org.apache.hadoop.hdfs.server.datanode.FSDataset$FSVolumeSet)
    at org.apache.hadoop.hdfs.server.datanode.FSDataset.getCapacity(FSDataset.java:755)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.offerService(DataNode.java:713)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.run(DataNode.java:1297)
    at java.lang.Thread.run(Thread.java:619)

   Locked ownable synchronizers:
    - None

2. 如果使用的低版本Hadoop,在FSDataset中,引入:
//Used for synchronizing access to usage stats
  private Object statsLock = new Object(); 

去掉FSDataset#getCapacity, #getRemaining 等方法的synchronized,改为:
/**
   * Return the total space used by dfs datanode
   */
  public long getDfsUsed() throws IOException {
	  synchronized(statsLock) {
	      return volumes.getDfsUsed();
	  }
  }
  
  /**
   * Return total capacity, used and unused
   */
  public long getCapacity() throws IOException {
	  synchronized(statsLock) {
	      return volumes.getCapacity();
	  }
  }

  /**
   * Return how many bytes can still be stored in the FSDataset
   */
  public long getRemaining() throws IOException {
	  synchronized(statsLock) {
	      return volumes.getRemaining();
	  }
  }
   发表时间:2010-09-09  
等,很详细的解决方法
1 请登录后投票
论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics