`
langyu
  • 浏览: 887882 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

MapReduce:Fair Scheduler前传

阅读更多

        Fair Scheduler是由Facebook贡献给Hadoop社区的一种task调度策略。Facebook推出它的目的是在生产环境中替换毫无特点的MapReduce默认Scheduler

        Fair Scheduler的诞生源于加州大学Berkeley分校、Facebook与Yahoo的研究人员于2009年4月底发表的论文《Job Scheduling for Multi-User MapReduce Clusters》。他们在文章中不仅介绍了开发Fair Scheduler的动机,更重要的是,针对一些job效率的问题,他们开发了相应的解决方案,并做出详细的评测。在具体介绍Fair Scheduler之前,我感觉还是有必要对他们提出的两种技术做简单介绍,希望吸引更多的人也能关注MapReduce Scheduler的设计。对于具体细节有兴趣的朋友请参考他们的论文。

        Map task的执行效率对job运行时间有很大影响。这取决于map task的输入数据源是位于Task Tracker本地还是远端(处于本TT同一rack内的其它TT,或是另外rack的TT)。Map task的输入源离它越近就执行的越快。为了有效控制map task数据源对执行效率的影响,job tracker定义了map task输入数据的几种缓存级别(cache level) :1表示数据就在TT本地(node-local),2表示数据在TT的同一rack的其它TT内(rack-local),大于2表示数据在其它rack内(off-rack)。当某个TT的心跳数据到达JT时,task调度程序为这个TT分派cache level为1的map task,这是最好的结果。像HDFS这样的集群环境最宝贵的也许就是网络流量,所以延迟调度的初衷就是让map task需要的数据尽可能在本地,避免网络资源的消耗。

        但MapReduce默认的FIFO调度策略不给力。当它为TT选择不到cache level为1或2的map task时,就会选择off-rack的map task来执行,这是一种效率很低的分派策略。一般我们不会为集群配置网络拓扑信息,但Facebook的研究性集群就有配置。那个集群有六百多个节点,如果调度程序分派很多这种跨网络的数据源请求,对集群job执行效率有很大影响。

        为了解决这个问题,研究小组提出的解决方案是:延迟调度(Delay Scheduling)。假设TT每隔3秒向JT发出心跳包,理论上3秒之内每个TT都会从JT走一圈;调度程序如果只分派node-local级别的map task,那么极有可能有一段时间每个TT都在执行这种node-local的map task,或许有些job的task可能暂时因不符合cache level而没机会执行,但3秒内还是有机会分派node-local的map task的。 如果某个job没有node-local级别的map task,那么就跳过此job继续在所有job中寻找,直到为TT找到一个node-local级别的map task。可能出现的异常情况有:1. 当前的TT还真没有存储任何task的输入数据,那么忽略此次心跳。2. 有些存储有task输入数据的节点因为某些原因,心跳包发送延迟。为了不能饿着那些很长时间没有分派map task的job,当它等待node-local执行的时间超过一定范围,就容许调度程序可以启动下一cache level的map task,如果等待时间再长的话,还可以启动任何的map task。比方说某个job的task在五秒内都没有启动一个node-local的map task,那么在下一个TT心跳到来时,就可以为此job分派一个rack-local的map task;如果十秒内也没有启动node-local的task,也可以容忍job分派off-rack的map task。因一个心跳周期,每个TT都会去请求JT,所以后面的情况理论上出现的概率不大。

        第一种方案是针对map task的优化,下一个方案是解决reduce task执行过程中遇到的问题。正常情况下job中启动一些map task后,就可以分派reduce task。假设一个job很大,每个reduce task都得等待100个map task执行完成,它才能做reduce的工作,那么reduce task就长期占据着reduce slot,从而影响这个slot为其它task服务。

        Reduce task的执行分为两步:复制(copy)和计算(compute)。复制阶段属于网络IO密集型,它需要跨网络从其它TT上拉取map的输出结果。计算阶段是CPU密集型工作,执行reduce方法,需要大量的CPU处理。我们在定义slot数量时,一般是按机器处理器的数量为依据,这不是什么标准,只是我们认为map 和reduce阶段都要处理大量的数据,希望每个处理器都能发挥最大的作用。这样reduce在执行之前,是浪费着大量的TT CPU处理能力,这些处理能力可以交付其它的task来运行。

        程序小组针对这个问题开发的解决方案是:复制和计算分离(Copy-Compute Splitting)。这种方案可有两种解读:一是把reduce task分拆成两种基本task,一种是copy task,另外一种compute task。当copy task将map输出数据抓取完成时通知compute task做reduce处理,它们之间可能需要共享内存。 二是增加reduce slot的数量。Reduce slot可有两种设置,一种是计算型slot(computing slot),一种是普通reduce slot。计算型slot的数量还是依据CPU数量来定,而普通reduce slot则不受限制(可以受网络流量或网卡的限制)。尽管这些方案实现起来有些麻烦,但对slot的有效利用有很多的好处。

        上面的方案解决了reduce task执行分两步的问题。当然map task也有同样的问题存在,但解决方案如延迟调度策略,尽量让数据源在执行map task的TT本地,减少了网络流量,而专注于CPU工作。从这看来,两个方案的核心思想是一致的。
  
        这里我只是介绍性的描述了解决这两个问题的方案,细节部分请参考附件中的论文。一切祝好,下一篇我会细说Fair Scheduler,它更适合于你的集群。

        附件下载:Job Scheduling for Multi-User MapReduce Clusters
1
3
分享到:
评论
1 楼 swordice 2011-06-22  
很不错的文章,最近正好做MapReduce Scheduler这一块,希望能跟您交流一下

相关推荐

    MapReduce:Fair Scheduler PPT分享

    在这个主题中,我们将深入探讨“Fair Scheduler”,这是一个在Hadoop MapReduce中用于资源调度的策略,其目标是实现集群资源的公平分配,提高系统整体效率。 Fair Scheduler的PPT分享将帮助我们理解它的设计理念和...

    Delay Tails in MapReduce Scheduling

    基于广泛的测量和源代码调查,我们提出了针对默认的FIFO调度器、Fair Scheduler以及我们实现的Coupling Scheduler的分析模型。对于一类重尾分布的Map服务时间分布,即指数为-α的正则变化分布,我们分别导出了在这三...

    Hadoop MapReduce v2 Cookbook.pdf

    5. **优化的调度器**:YARN支持多种调度策略,如FIFO、Capacity Scheduler和Fair Scheduler,以满足不同工作负载的需求。 本书《Hadoop MapReduce v2 Cookbook》会详细介绍如何使用Hadoop MapReduce v2进行大数据...

    HADOOP 的工作调度器介绍

    Fair Scheduler 提供了一个 Scheduler Dashboard,用于实时监控和调整任务的调度。用户可以通过 dashboard 来重新分配池的资源、更改任务的优先级、调整调度算法等。 七、Additional Features Fair Scheduler 还...

    23、hadoop集群中yarn运行mapreduce的内存、CPU分配调度计算与优化

    - 考虑使用资源调度策略,如Fair Scheduler或Capacity Scheduler,确保多用户公平共享资源。 - 对于内存敏感的应用,可以设置溢写策略,如使用MapReduce的`mapreduce.task.io.sort.mb`和`io.sort.factor`来控制排序...

    Mapreduce并行编程模型研究

    常见的调度策略有FIFO、Capacity Scheduler和Fair Scheduler等。 4. **负载均衡**:在分布式环境中,负载均衡是非常关键的技术之一。合理的负载均衡不仅可以避免部分节点过载,还能提高整个系统的吞吐量。MapReduce...

    Hadoop期末整理.pdf

    7. 调度器:Hadoop 提供了FIFO(先进先出)、Capacity Scheduler和Fair Scheduler三种调度策略,以优化资源分配和作业执行效率。 总结来说,Hadoop 是一种针对大数据处理的解决方案,通过HDFS存储数据,MapReduce...

    Hadoop平台中MapReduce调度算法研究.pdf

    例如,Fair Scheduler引入了动态优先级的概念,让活跃和等待的任务能够更公平地分享资源。另一些算法如Delay Scheduling,通过延迟某些任务的启动时间,避免了任务间的资源争抢,从而优化了整体性能。 此外,基于...

    Yarn知名培训私密资料

    - Fair Scheduler:公平调度器,确保所有应用程序平均获得资源,提高整体效率。 【YARN作业执行流程】 1. 用户提交应用程序,包含ApplicationMaster的实例化信息。 2. ResourceManager接收请求,为应用程序分配第...

    hadoop2.2.0

    4. 资源调度:YARN通过Capacity Scheduler和Fair Scheduler提供资源调度策略。Capacity Scheduler适用于多用户环境,保证每个队列的最小资源分配;Fair Scheduler则依据应用程序的需求公平分配资源,适合共享集群...

    基于Hadoop的调度算法研究与实现.docx

    除了Capacity Scheduler和Fair Scheduler之外,还有一些先进的算法被提出,例如Backpressure Scheduling、Resource-aware Scheduling等,它们能够在不同程度上解决传统调度算法中存在的问题。 ##### 3.2 调度算法...

    大数据应用的中存储和处理问题剖析.pptx

    因此,后来出现了公平份额调度算法(Fair Scheduler)和计算能力调度算法(Capacity Scheduler)。Fair Scheduler旨在确保所有作业都能获得相等的资源份额,特别适合处理不同类型和优先级的作业。它允许设置作业池和...

    Hadoop 2.0部署配置文件示例.zip

    7. **fair-scheduler.xml**(可选):如果使用公平调度器,此文件将定义作业队列和资源分配策略。 三、部署与配置流程 1. 安装Java环境:Hadoop依赖Java,需要先安装JDK,并设置好JAVA_HOME环境变量。 2. 下载...

    Yarn框架代码详细分析V0.3.pdf

    - **FairScheduler container分配:** - 容器的分配遵循公平原则,确保每个应用程序都能获得其应得的份额。 **3.3 MRAppMaster分配器** - **代码分析:** - MRAppMaster中的分配器负责任务的具体调度和资源管理...

    apache hadoop 2.7.2.chm

    Fair Scheduler ResourceManager Restart ResourceManager HA Node Labels Web Application Proxy YARN Timeline Server Writing YARN Applications YARN Commands NodeManager Restart DockerContainer...

Global site tag (gtag.js) - Google Analytics