`

Hadoop心跳机制源码分析

 
阅读更多

Hadoop心跳机制源码分析
前言:



这些天遇到了一些感情方面的问题,着实比较痛苦。不过最终在亲人、朋友的开导下,我已度过了最艰难的那段时期。在这里我要谢谢我的爸爸,是你一直相信着 我,支持着我,虽然我一年在家只能呆上一两个月,可我却一直能够感受到家的温暖;我要感谢马总,是你用切身的经历为我开导,是你告诉我该如何正确地对待。 我要感谢亮仔,虽然你就是个小屁孩,但谢谢你喝醉了酒还要陪我回铁道,用几乎是孩子的话来安慰我。我要感谢汤帅,是你让我知道了,其实你的情况比我还糟糕 (呵呵,开个玩笑)。还有信管院的那些美女程序媛们,我也要感谢你们,是你们让我看到了希望,你懂的。

突然发现,我已经很长时间没有写技术博客了,因为一直被各种各样的事情给耽搁着,以至于这篇文章到现在才发表出来。

正文:

一.体系背景

首先和大家说明一下:hadoop的心跳机制的底层是通过RPC机制实现的,这篇文章我只介绍心跳实现的代码,对于底层的具体实现,大家可以参考我的另几篇博客:

1. hadoop的RPC机制(参考:http://weixiaolu.iteye.com/blog/1504898
2. 动态代理(参考 :http://weixiaolu.iteye.com/blog/1477774
3. Java NIO(参考 :http://weixiaolu.iteye.com/blog/1479656

以上三篇文章和这篇文章完整地分析了hadoop的数据传输过程。大家可以当成一个体系来阅读。

二.心跳机制

1. hadoop集群是master/slave模式,master包括Namenode和Jobtracker,slave包括Datanode和Tasktracker。

2. master启动的时候,会开一个ipc server在那里,等待slave心跳。

3. slave启动时,会连接master,并每隔3秒钟主动向master发送一个“心跳”,这个时间可 以通过”heartbeat.recheck.interval”属性来设置。将自己的状态信息告诉master,然后master也是通过这个心跳的返 回值,向slave节点传达指令。

4. 需要指出的是:namenode与datanode之间的通信,jobtracker与tasktracker之间的通信,都是通过“心跳”完成的。

三.Datanode、Namenode心跳源码分析


既然“心跳”是Datanode主动给Namenode发送的。那Datanode是怎么样发送的呢?下面贴出Datanode.class中的关键代码:

代码一:

Java代码  收藏代码
  1. /** 
  2.    * 循环调用“发送心跳”方法,直到shutdown 
  3.    * 调用远程Namenode的方法 
  4.    */  
  5.   public void offerService() throws Exception {  
  6. •••  
  7.     while (shouldRun) {  
  8.       try {  
  9.         long startTime = now();  
  10.          // heartBeatInterval是在启动Datanode时根据配置文件设置的,是心跳间隔时间  
  11.         if (startTime - lastHeartbeat > heartBeatInterval) {  
  12.           lastHeartbeat = startTime;  
  13. //Datanode发送心跳  
  14.           DatanodeCommand[] cmds = namenode.sendHeartbeat(dnRegistration,  
  15.                                                        data.getCapacity(),  
  16.                                                        data.getDfsUsed(),  
  17.                                                        data.getRemaining(),  
  18.                                                        xmitsInProgress.get(),  
  19.                                                        getXceiverCount());  
  20.           myMetrics.addHeartBeat(now() - startTime);  
  21.            
  22.           if (!processCommand(cmds))  
  23.             continue;  
  24.         }  
  25.          
  26.       •••  
  27.       }  
  28.     } // while (shouldRun)  
  29.   } // offerService  

 

需要注意的是:发送心跳的对象并不是datanode,而是一个名为namenode的对象,难道在datanode端就直接有个namenode的引用吗?其实不然,我们来看看这个namenode吧:

代码二:

Java代码  收藏代码
  1. public DatanodeProtocol namenode = null;  

 

namenode其实是一个DatanodeProtocol的引用,在对 hadoop RPC机制分析的文章中我提到过,这是一个Datanode和Namenode通信的协议,其中有许多未实现的接口方法,sendHeartbeat() 就是其中的一个。下面看看这个namenode对象是怎么被实例化的吧:

代码三:

Java代码  收藏代码
  1. this.namenode = (DatanodeProtocol)   
  2.     RPC.waitForProxy(DatanodeProtocol.class,  
  3.                      DatanodeProtocol.versionID,  
  4.                      nameNodeAddr,   
  5.                      conf);  

 

其实这个namenode并不是Namenode的一个对象,而只是一个Datanode端对Namenode的代理对象,正是这个代理完成了“心跳”。代理的底层实现就是RPC机制了。参考博客:http://weixiaolu.iteye.com/blog/1504898

四.Tasktracker、Jobtracker心跳源码分析


同样我们从Tasktracker入手,下面贴出Tasktracker.class的关键代码:


代码四:

Java代码  收藏代码
  1. 代码一:  
  2. State offerService() throws Exception {  
  3.     long lastHeartbeat = System.currentTimeMillis();  
  4.     while (running && !shuttingDown) {  
  5.      •••  
  6.           
  7.         // 发送心跳,调用代码二  
  8.         HeartbeatResponse heartbeatResponse = transmitHeartBeat(now);  
  9.   
  10.       •••  
  11.     return State.NORMAL;  
  12.   }  
  13.   
  14. 代码二:  
  15. HeartbeatResponse transmitHeartBeat(long now) throws IOException {  
  16.    •••  
  17.     HeartbeatResponse heartbeatResponse = jobClient.heartbeat(status,   
  18.                                                               justStarted,  
  19.                                                               justInited,  
  20.                                                               askForNewTask,   
  21.                                                          heartbeatResponseId);                                
  22. •••  
  23.     return heartbeatResponse;  
  24.   }  

 

其实我觉得分析到这里大家就可以自己分析了,jobClient也是一个协议:

代码五:

Java代码  收藏代码
  1. InterTrackerProtocol jobClient;  

 

该协议用于定义Tasktracker和Jobtracker的通信。同样,它也是一个代理对象:

 

代码六:

Java代码  收藏代码
  1. this.jobClient = (InterTrackerProtocol)   
  2.  UserGroupInformation.getLoginUser().doAs(  
  3.      new PrivilegedExceptionAction<Object>() {  
  4.    public Object run() throws IOException {  
  5.      return RPC.waitForProxy(InterTrackerProtocol.class,  
  6.          InterTrackerProtocol.versionID,  
  7.          jobTrackAddr, fConf);  
  8.    }  
  9.  });  

 

代理的底层实现也是RPC机制。参考博客:http://weixiaolu.iteye.com/blog/1504898

终于,hadoop底层通信整个系列的源码分析全部完成了。我可以好好地复习学校的功课了。呵呵。

 http://weixiaolu.iteye.com/blog/1544860

分享到:
评论

相关推荐

    Hadoop源码分析视频下载

    分析Hadoop源码可以帮助我们深入了解其实现细节,例如数据块的分配策略、心跳机制、故障检测和恢复等。这不仅可以帮助我们优化Hadoop集群的性能,还能使我们有能力解决实际运行中遇到的问题,提高开发效率。 4. ...

    hadoop-2.8.4源码

    在Hadoop 2.8.4源码中,我们可以看到HDFS的设计理念,包括数据块的复制策略、心跳机制、数据节点和名称节点的交互过程,以及故障检测和恢复机制。通过分析源码,我们可以了解到如何实现数据的高可用性和容错性。 ...

    Hadoop源码分析完整版

    这份“Hadoop源码分析完整版”资料深入剖析了Hadoop的核心组件及其工作原理,旨在帮助开发者理解并优化Hadoop系统。 1. **Hadoop概述** Hadoop由Apache基金会开发,其核心包括两个主要部分:Hadoop Distributed ...

    实战hadoop中的源码

    4. **源码分析**:深入Hadoop源码,可以了解如数据分块策略、Block和Packet的定义、心跳机制、故障恢复策略等细节。例如,NameNode如何处理文件操作请求,DataNode如何与NameNode通信,以及MapReduce如何调度任务。 ...

    hadoop 分布式缓存源码

    3. **文件分发**:Hadoop使用心跳机制来确保节点上的缓存是最新的。如果某个节点上的缓存文件丢失或过期,会根据心跳信息重新复制。 深入源码分析: 1. **配置参数**:在`conf.Configuration`类中,可以找到关于...

    hadoop源码分析-HDFS&MapReduce

    4. **Fault Tolerance**:HDFS的容错性主要通过心跳机制、数据块报告和故障检测来实现。源码分析可以帮助理解这些机制的工作原理。 5. **Secondary NameNode**:Secondary NameNode并非NameNode的备份,而是帮助...

    Hadoop2.6.4的源码包

    源码分析有助于理解数据存储、心跳机制和BlockReport等核心过程。 - **BlockPlacementPolicy**:块放置策略决定了数据复制的位置,源码中可以学习到如何优化数据分布和容错性。 4. **MapReduce源码分析** - **...

    Hadoop源代码分析(三三)

    ### Hadoop源代码分析——DataNode与NameNode交互之心跳机制 #### 概述 Hadoop作为一款开源的大数据处理框架,在分布式存储方面扮演着重要角色。本文将深入剖析Hadoop内部实现的一个关键部分——DataNode与...

    hadoop源码分析-HDFS部分

    《Hadoop源码分析——HDFS部分》 Hadoop,作为开源大数据处理的基石,其核心组件之一就是HDFS(Hadoop Distributed File System),这是一个高度容错性的分布式文件系统,设计用于运行在廉价硬件上,能够处理大规模...

    hadoop源码

    HDFS的副本策略和故障恢复机制也在源码中体现,如心跳机制、Block Checksums等。 2. MapReduce:MapReduce由三个主要部分组成:Mapper、Reducer和Shuffle & Sort。Mapper处理输入数据,Reducer聚合Mapper的输出,...

    Hadoop源码剖析

    在阅读Hadoop源码时,除了分析这些关键类,还需要理解Hadoop的整个工作流程,包括数据分片、任务划分、数据本地化策略、心跳机制等。同时,理解Hadoop的Shuffle和Sort过程,这对于优化MapReduce作业性能至关重要。...

    Hadoop权威指南第3版源码(中文版)

    通过学习和分析《Hadoop权威指南》第三版的源码,你可以深入了解Hadoop的内部机制,例如HDFS的数据块分布、心跳机制,以及MapReduce的作业调度、Shuffle阶段等关键概念。此外,源码中的示例应用也能帮助你更好地理解...

    《Hadoop实战》源码.zip

    节点之间通过心跳机制监控状态,当检测到故障时,可以自动恢复。 2. **MapReduce**:MapReduce的工作流程分为三个阶段:shuffle、map和reduce。map阶段将输入数据分割成多个键值对,然后并行处理;shuffle阶段负责...

    Hadoop源码包

    - 了解内部实现:源码可以帮助开发者深入理解Hadoop的工作机制,如数据分布、任务调度、容错策略等。 - 二次开发:源码可作为基础进行定制化开发,满足特定业务需求。 - 性能优化:通过分析源码,可以找出性能...

    hadoop源码分析

    通过对Hadoop源码的深入分析,我们可以更清晰地理解其工作原理,这有助于优化性能,解决实际问题,以及为未来的分布式系统设计提供灵感。Hadoop的源码不仅是一份技术文档,更是学习分布式计算、云计算和大数据处理的...

    Hadoop源码分析PDF(高清版)

    《Hadoop源码分析》是一本深度探讨Hadoop核心组件HDFS和MapReduce的书籍,提供了高清版的PDF格式供读者学习。这本书共分为55章,其中41章专门致力于HDFS(Hadoop分布式文件系统)的解析,剩余14章则详细剖析了...

    Hadoop源代码分析(一)

    7. **扩展性与插件机制**:Hadoop允许用户自定义InputFormat、OutputFormat、Partitioner和Reducer等,源码分析可以帮助我们理解这些接口的实现,以及如何为特定需求定制Hadoop组件。 8. **Hadoop与其他组件的集成*...

    Hadoop源代码分析(完整版)

    HDFS通过心跳机制和Block Report来监控DataNode的状态,确保数据的可用性和一致性。 2. **MapReduce**:MapReduce的工作流程分为三个阶段:Map、Shuffle和Reduce。Map阶段,输入数据被分成键值对,然后在不同的节点...

    Hadoop client server通讯分析

    本文将深入探讨Hadoop客户端与服务器之间的通信机制,帮助读者理解这一核心过程,以便更好地利用和优化Hadoop系统。 一、Hadoop通信架构概述 Hadoop的通信架构基于其分布式文件系统HDFS(Hadoop Distributed File ...

Global site tag (gtag.js) - Google Analytics