`
nlslzf
  • 浏览: 1049262 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Hadoop的mapred JobTracker端源码概览

阅读更多

http://jiwenke.iteye.com/blog/335093

上一节看到TaskTracker启动新任务的过程,这里接着看看在JobTracker中是怎样响应和调度的,在hadoop中,我们看到采用的是pull的方式拿到任务。 

Java代码 
  1.       
  2. HeartbeatResponse heartbeatResponse = jobClient.heartbeat(status,   
  3.                                                             justStarted, askForNewTask,   
  4.                                                               heartbeatResponseId);  

这里是TaskTracker想JobTracker发送heartbeat的地方 - 使用的是RPC,这样我们你就来到JobTracker了: 
Java代码 
  1.     
  2. public synchronized HeartbeatResponse heartbeat(TaskTrackerStatus status,   
  3.                                                   boolean initialContact, boolean acceptNewTasks, short responseId)   
  4.     throws IOException {  
  5. .............  
  6.     //如果是接受新任务的话,让JotTracker去进行调度,这里会调用taskScheduler的assignTasks  
  7.     if (acceptNewTasks) {  
  8.       TaskTrackerStatus taskTrackerStatus = getTaskTracker(trackerName);  
  9.       if (taskTrackerStatus == null) {  
  10.         LOG.warn("Unknown task tracker polling; ignoring: " + trackerName);  
  11.       } else {  
  12.         List<Task> tasks = getSetupAndCleanupTasks(taskTrackerStatus);  
  13.     //这里是准备assignTask的地方,由配置的调度器来决定怎样调度  
  14.         if (tasks == null ) {  
  15.          tasks = taskScheduler.assignTasks(taskTrackerStatus);  
  16.         }  
  17.         if (tasks != null) {  
  18.           for (Task task : tasks) {  
  19.             expireLaunchingTasks.addNewTask(task.getTaskID());  
  20.             LOG.debug(trackerName + " -> LaunchTask: " + task.getTaskID());  
  21.             actions.add(new LaunchTaskAction(task));  
  22.           }  
  23.         }  
  24.       }  
  25.     }  

这个taskScheduler采用的是默认的    
Java代码 
  1. taskScheduler = (TaskScheduler) ReflectionUtils.newInstance(schedulerClass,conf);  

这是在配置文件中指定的,"mapred.jobtracker.taskScheduler",常常是JobQueueTaskScheduler是hadoop的实现,FIFO类型的调度器,让我们看看这个调度器是怎样assignTasks的: 
Java代码 
  1.     
  2. public synchronized List<Task> assignTasks(TaskTrackerStatus taskTracker)  
  3.       throws IOException {  
  4.   
  5.     ClusterStatus clusterStatus = taskTrackerManager.getClusterStatus();  
  6.     int numTaskTrackers = clusterStatus.getTaskTrackers();  
  7.   
  8.     Collection<JobInProgress> jobQueue =  
  9.       jobQueueJobInProgressListener.getJobQueue();  
  10.   
  11.     //  
  12.     // Get map + reduce counts for the current tracker.  
  13.     //  
  14.     int maxCurrentMapTasks = taskTracker.getMaxMapTasks();  
  15.     int maxCurrentReduceTasks = taskTracker.getMaxReduceTasks();  
  16.     int numMaps = taskTracker.countMapTasks();  
  17.     int numReduces = taskTracker.countReduceTasks();  
  18.   
  19.     //  
  20.     // Compute average map and reduce task numbers across pool  
  21.     //  
  22.     int remainingReduceLoad = 0;  
  23.     int remainingMapLoad = 0;  
  24.     synchronized (jobQueue) {  
  25.       for (JobInProgress job : jobQueue) {  
  26.         if (job.getStatus().getRunState() == JobStatus.RUNNING) {  
  27.           int totalMapTasks = job.desiredMaps();  
  28.           int totalReduceTasks = job.desiredReduces();  
  29.           remainingMapLoad += (totalMapTasks - job.finishedMaps());  
  30.           remainingReduceLoad += (totalReduceTasks - job.finishedReduces());  
  31.         }  
  32.       }  
  33.     }  
  34.   
  35.     // find out the maximum number of maps or reduces that we are willing  
  36.     // to run on any node.  
  37.     int maxMapLoad = 0;  
  38.     int maxReduceLoad = 0;  
  39.     if (numTaskTrackers > 0) {  
  40.       maxMapLoad = Math.min(maxCurrentMapTasks,  
  41.                             (int) Math.ceil((double) remainingMapLoad /   
  42.                                             numTaskTrackers));  
  43.       maxReduceLoad = Math.min(maxCurrentReduceTasks,  
  44.                                (int) Math.ceil((double) remainingReduceLoad  
  45.                                                / numTaskTrackers));  
  46.     }  
  47.           
  48.     int totalMaps = clusterStatus.getMapTasks();  
  49.     int totalMapTaskCapacity = clusterStatus.getMaxMapTasks();  
  50.     int totalReduces = clusterStatus.getReduceTasks();  
  51.     int totalReduceTaskCapacity = clusterStatus.getMaxReduceTasks();  
  52.   
  53.     //  
  54.     // In the below steps, we allocate first a map task (if appropriate),  
  55.     // and then a reduce task if appropriate.  We go through all jobs  
  56.     // in order of job arrival; jobs only get serviced if their   
  57.     // predecessors are serviced, too.  
  58.     //  
  59.   
  60.     //  
  61.     // We hand a task to the current taskTracker if the given machine   
  62.     // has a workload that's less than the maximum load of that kind of  
  63.     // task.  
  64.     //  
  65.          
  66.     if (numMaps < maxMapLoad) {  
  67.   
  68.       int totalNeededMaps = 0;  
  69.       synchronized (jobQueue) {  
  70.         for (JobInProgress job : jobQueue) {  
  71.           if (job.getStatus().getRunState() != JobStatus.RUNNING) {  
  72.             continue;  
  73.           }  
  74.       //这里是取得Task的地方,需要到job中去取  
  75.           Task t = job.obtainNewMapTask(taskTracker, numTaskTrackers,  
  76.               taskTrackerManager.getNumberOfUniqueHosts());  
  77.           if (t != null) {  
  78.             return Collections.singletonList(t);  
  79.           }  
  80.   
  81.           //  
  82.           // Beyond the highest-priority task, reserve a little   
  83.           // room for failures and speculative executions; don't   
  84.           // schedule tasks to the hilt.  
  85.           //  
  86.           totalNeededMaps += job.desiredMaps();  
  87.           int padding = 0;  
  88.           if (numTaskTrackers > MIN_CLUSTER_SIZE_FOR_PADDING) {  
  89.             padding = Math.min(maxCurrentMapTasks,  
  90.                                (int)(totalNeededMaps * padFraction));  
  91.           }  
  92.           if (totalMaps + padding >= totalMapTaskCapacity) {  
  93.             break;  
  94.           }  
  95.         }  
  96.       }  
  97.     }  
  98.   
  99.     //  
  100. font-size: 1em; margin-top:
    分享到:
    评论

相关推荐

    Hadoop源码 包含mapred及mapreduce

    Hadoop源码 包含mapred

    基于Hadoop图书推荐系统源码+数据库.zip

    基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书...

    hadoop mapred_tutorial官方文档

    hadoop mapred_tutorial官方文档

    hadoop-2.8.1源码

    《深入剖析Hadoop 2.8.1源码:分布式系统的智慧结晶》 Hadoop,作为开源的大数据处理框架,自2006年诞生以来,一直是大数据领域的重要支柱。其2.8.1版本是Hadoop发展的一个关键节点,为用户提供了更稳定、高效的...

    hadoop权威指南4和源码

    这本书是许多开发者和数据工程师学习Hadoop的首选资料,而附带的源码则为读者提供了更直观的理解途径。在深入探讨Hadoop的知识点时,我们可以从以下几个方面进行: 1. **Hadoop概述**:Hadoop是一个开源的分布式...

    Hadoop商品推荐系统-源码.zip

    使用Eclipse的export功能把所有源码打包,然后把打包后的jar文件拷贝到hadoop集群的$HADOOP_HOME/share/hadoop/mapreduce/lib目录下面。这一步相当重要,否则项目将无法找到相关类。注意,如果搭建的是全分布集群,...

    实战hadoop中的源码

    【标题】"实战hadoop中的源码"涵盖了在大数据处理领域深入理解并应用Apache Hadoop的核心技术。Hadoop是开源的分布式计算框架,它允许在大规模集群上存储和处理海量数据。通过研究Hadoop的源码,开发者可以深入了解...

    Hadoop源码分析(完整版)

    Hadoop源码分析是深入理解Hadoop分布式计算平台原理的起点,通过源码分析,可以更好地掌握Hadoop的工作机制、关键组件的实现方式和内部通信流程。Hadoop项目包括了多个子项目,其中最核心的是HDFS和MapReduce,这两...

    Hadoop学习总结和源码分析

    本文将基于“Hadoop学习总结和源码分析”这一主题,结合提供的文档资源,深入探讨Hadoop的核心组件HDFS(Hadoop Distributed File System)和MapReduce。 首先,我们从“Hadoop学习总结之一:HDFS简介.doc”开始,...

    hadoop 2.2.2 已编译源码

    当你拥有已编译的Hadoop 2.2.2源码时,你可以深入理解其内部工作原理,这对于Java开发者尤其是那些专注于大数据处理的工程师来说,具有极大的学习价值。 首先,让我们关注Hadoop的核心组件:HDFS(Hadoop ...

    hadoop 2.9.0 mapred-default.xml 属性集

    Hadoop 2.9.0版本中的mapred-default.xml文件包含了MapReduce作业的配置属性,这些属性定义了MapReduce作业执行过程中的各种行为和参数。下面我们来详细介绍mapred-site.xml文件中的一些关键属性。 1. mapreduce....

    hadoop-3.1.3.tar.gz编译后的源码包

    这个hadoop-3.1.3.tar.gz文件是一个包含了Hadoop 3.1.3版本的源码压缩包,对于理解Hadoop的工作原理、进行二次开发或者定制化配置来说,研究源码是非常重要的。 首先,Hadoop的核心组件包括HDFS(Hadoop ...

    hadoop2.7.3源码包,hadoop2.7.3zip源码包

    - `hadoop/mapreduce`: MapReduce的实现,包括JobTracker、TaskTracker、作业提交和执行机制。 3. `hadoop/yarn`: YARN(Yet Another Resource Negotiator)是Hadoop的资源管理系统,负责任务调度和集群资源管理。 ...

    Hadoop 源码编译所需软件

    本文将深入探讨在编译Hadoop CDH源码时所需的软件及其重要性。 首先,我们来看“google-snappy-ea660b5”。Snappy是由Google开发的一个高效的数据压缩库,它主要关注的是高速度而非最高压缩率。在Hadoop中,Snappy...

    基于Python和大数据hadoop电影分析系统源码+文档说明.zip

    基于Python和大数据hadoop电影分析系统源码+文档说明.zip,本项目是一套98分毕业设计系统,主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者,也可作为课程设计、期末大作业,包含:项目源码、...

    hadoop-2.8.4源码

    在Hadoop 2.8.4源码中,我们可以看到HDFS的设计理念,包括数据块的复制策略、心跳机制、数据节点和名称节点的交互过程,以及故障检测和恢复机制。通过分析源码,我们可以了解到如何实现数据的高可用性和容错性。 ...

    hadoop2.6.0源码和eclipse插件

    源码包含了JobTracker、TaskTracker、Task等核心组件,以及作业提交、任务调度和容错机制的实现。 3. **YARN(Yet Another Resource Negotiator)**:从Hadoop 2.x开始,资源管理从MapReduce中剥离出来,形成了独立...

    hadoop 2.5.2 源码

    Hadoop 2.5.2源码分析 Hadoop是一个开源框架,主要用于处理和存储大量数据,它由Apache软件基金会开发并维护。Hadoop 2.5.2是Hadoop发展过程中的一个重要版本,它引入了许多改进和优化,旨在提高系统的稳定性和性能...

    hadoop2.7.2源码包

    源码在`hadoop-mapreduce-project`目录下,包括Map任务、Reduce任务、JobTracker(在Hadoop 2.x中被YARN取代)和TaskTracker等组件的实现。 3. **YARN(Yet Another Resource Negotiator)**:从Hadoop 2.x开始,...

Global site tag (gtag.js) - Google Analytics