`
wsjiang
  • 浏览: 394179 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

MapReduce-大规模数据集分布式并行运算编程模型

阅读更多

    本文转载自CSDN博客,纯为技术资料备份!

    MapReduce的名字源于函数式编程模型中的两项核心操作:MapReduce。也许熟悉Functional Programming(FP)的人见到这两个词会倍感亲切。因为MapReduce这两个术语源自Lisp语言和函数式编程。Map是把一组数据一对一的映射为另外的一组数据,其映射的规则由一个函数来指定。Reduce是对一组数据进行归约,这个归约的规则由一个函数指定。Map是一个把数据分开的过程,Reduce则是把分开的数据合并的过程。如Hadoopwordcount例子:用Map[one,word,one,dream]进行映射就变成了[{one,1}, {word,1}, {one,1}, {dream,1}],再用Reduce[{one,1}, {word,1}, {one,1}, {dream,1}]归约变成[{one,2}, {word,1}, {dream,1}]的结果集。

 

    对数组里的每个元素进行相同操作的一段代码:

a = [1, 2, 3];
for (i = 0; i < a.length; i++){
    a[i] = a[i] * 2;
}
for (i = 0; i < a.length; i++){
    print(a[i]);
}

 

   常常要对数组里的所有元素做同一件事情,因此你可以写个这样的函数:   

function map(fn, a){
     for (i = 0; i < a.length; i++){
             fn(a[i]);
    }
}

 

   现在可以把上面的东西改成:

map(function(x) { return x * 2; }, a);
map(print, a);
 

    另一个常见的任务是将数组内的所有元素按照某种方式汇总起来:

function sum(a){
    s = 0;
    for (i = 0; i < a.length; i++){
        s += a[i];
    }
    return s;
}

function join(a){
    s = "";
    for (i = 0; i < a.length; i++){
         s = s .. a[i]; // ..是字符串连接操作符
    }
    return s;
}

print(sum([1,2,3]));
print(join(["a","b","c"]));

    注意sumjoin长得很像,你也许想把它们抽象为一个将数组内的所有元素按某种算法汇总起來的泛型函数:

function reduce(fn, a, init){
   s = init;
   for (i = 0; i < a.length; i++){
      s = fn(s, a[i]);
   }
   return s;
}

    这样sumjoin就变成下面的样子了:

function sum(a){
    return reduce(function(a, b) { return a + b; }, a, 0 );
}

function join(a){
    return reduce(function(a, b) { return a .. b; }, a, "" );
}
 

    让我们看回map函数。当你要对数组内的每个元素做一些事,你很可能不在乎哪个元素先做。无论由第一个元素开始执行,还是是由最后一个元素开始执行,你的结果都是一样的。这样如果你手头上有2个CPU,你可以写段代码,使它们各自处理1/2元素,于是乎map快了两倍。设想你在全球有千千万万台服务器,恰好你有一个真的很大很大的数组,现在你可以在几千台服务器上同时执行map,让每台服务器都来解决同一个问题的一小部分。

     Map的定义:

Map, written by the user, takes an input pair and produces a set of intermediate key/value pairs. The MapReduce library groups together all intermediate values associated with the same intermediate key I and passes them to the Reduce function.

     Reduce的定义:

The Reduce function, also written by the user, accepts an intermediate key I and a set of values for that key. It merges together these values to form a possibly smaller set of values. Typically just zero or one output value is produced per Reduce invocation. The intermediate values are supplied to the user’s reduce function via an iterator. This allows us to handle lists of values that are too large to fit in memory.

 

    MapReduce论文中给出了这样一个例子:在一个文档集合中统计每个单词出现的次数。Map操作的输入是每一篇文档,将输入文档中每一个单词的出现输出到中间文件中去。

map(String key, String value):
    // key: document name
    // value: document contents
    for each word w in value:
            EmitIntermediate(w, "1");

    比如我们有两篇文档,内容分别是

        A - "I love programming"

        B - "I am a blogger, you are also a blogger"

    A文档经过Map运算后输出的中间文件将会是:

        I,1

        love,1

        programming,1

    B文档经过Map运算后输出的中间文件将会是:

        I,1

       am,1

       a,1

       blogger,1

       you,1

       are,1

       also,1

       a,1

       blogger,1

    Reduce操作的输入是单词和出现次数的序列。用上面的例子来说,就是 (I, [1, 1]), (love, [1]), (programming, [1]), (am, [1]), (a, [1,1]) 等。然后根据每个单词,算出总的出现次数。

reduce(String key, Iterator values):
    // key: a word
    // values: a list of counts
    int result = 0;
    for each v in values:
        result += ParseInt(v);
    Emit(AsString(result));

    最终结果是:("I", "2"), ("a", "2"), ……

    实际的执行顺序是:

        MapReduce LibraryInput分成M份。这里的Input Splitter也可以是多台机器并行Split

        MasterMJob分给Idle状态的Mworker来处理;

        对于输入中的每一个<key, value> pair 进行Map操作,将中间结果BufferMemory里;

        定期的(或者根据内存状态),将Buffer中的中间信息Dump到本地磁盘上,并且把文件信息传回给MasterMaster需要把这些信息发送给Reduce worker)。这里最重要的一点是,在写磁盘的时候,需要将中间文件做Partition(比如R个)。拿上面的例子来举例,如果把所有的信息存到一个文件,Reduce worker又会变成瓶颈。我们只需要保证相同Key能出现在同一个Partition里面就可以把这个问题分解。

         RReduce worker开始工作,从不同的Map workerPartition那里拿到数据(read the buffered data from the local disks of the map workers),用key进行排序(如果内存中放不下需要用到外部排序 – external sort)。很显然,排序(或者说Group)是Reduce函数之前必须做的一步。 这里面很关键的是,每个Reduce worker会去从很多Map worker那里拿到X(0<X<R) Partition的中间结果,这样,所有属于这个Key的信息已经都在这个worker上了。

         Reduce worker遍历中间数据,对每一个唯一Key,执行Reduce函数(参数是这个key以及相对应的一系列Value)。

         执行完毕后,唤醒用户程序,返回结果(最后应该有ROutput,每个Reduce Worker一个)。

     可见,这里的分(Divide)体现在两步,分别是将输入分成M份,以及将Map的中间结果分成R份。将输入分开通常很简单,Map的中间结果通常用”hash(key) mod R”这个结果作为标准,保证相同的Key出现在同一个Partition里面。当然,使用者也可以指定自己的Partition Function,比如,对于Url Key,如果希望同一个HostURL出现在同一个Partition,可以用”hash(Hostname(urlkey)) mod R”作为Partition Function

     对于上面的例子来说,每个文档中都可能会出现成千上万的 ("the", 1)这样的中间结果,琐碎的中间文件必然导致传输上的损失。因此,MapReduce还支持用户提供Combiner Function。这个函数通常与Reduce Function有相同的实现,不同点在于Reduce函数的输出是最终结果,而Combiner函数的输出是Reduce函数的某一个输入的中间文件。


分享到:
评论

相关推荐

    大数据-互联网大规模数据挖掘与分布式处理.pdf

    通过MapReduce编程模型实现大规模数据的并行处理,Map任务、分组和聚合、Reduce任务、组合器和Map-Reduce的执行细节都是MapReduce模型的重要组成部分。此外,还讨论了使用Map-Reduce算法实现的矩阵—向量乘法、各种...

    分布式并行智能计算模型研究.pdf

    由于Spark可以利用分布式集群所有节点的内存进行快速的RDD(弹性分布式数据集)遍历扫描运算,这使得Spark在执行迭代类操作和低延迟交互式数据挖掘任务时,比传统的大数据处理平台如Hadoop MapReduce具有显著的速度...

    基于Spark的分布式并行推理算法.pdf

    本文中提到的MapReduce是一种编程模型,用于在大数据集上执行并行运算,它将数据处理分为Map(映射)和Reduce(归约)两个阶段。MapReduce模型可以有效地分配和处理大规模数据集,然而它也有自身的局限性,尤其是在...

    一种基于Spark的大规模语义数据分布式推理框架.pdf

    MapReduce是一种编程模型,用于处理大规模数据集的并行运算,它是Hadoop的核心组件之一。Hadoop是一个开源的分布式存储和计算平台,能够处理PB级别的数据。Mesos是一个分布式资源管理器,可以在集群中协调和管理计算...

    Hadoop分布式架构下大数据集的并行挖掘

    本文提出的“Hadoop 分布式架构下大数据集的并行挖掘”算法,针对非结构化的大数据集,通过垂直划分策略确保了完整的频繁项集的获取。传统的数据挖掘算法在处理大数据时可能会遇到存储和计算瓶颈,尤其是在执行大量...

    基于MapReduce的高阶矩阵乘法分布式并行算法研究

    综上所述,基于MapReduce的高阶矩阵乘法分布式并行算法研究,不仅需要深入理解MapReduce模型,还要深入探索矩阵乘法算法的分布式并行化策略,以及如何在保证计算效率的同时,应对大规模数据处理中的各种挑战。...

    MapReduce详解

    MapReduce的核心思想是将复杂的分布式并行编程简化,使得不具备相关经验的程序员也能在分布式系统上运行自己的程序。 Map阶段,程序员定义一个Map函数,该函数接收一组键值对(key-value pairs)作为输入,并输出一...

    基于MapReduce的分布式云计算数据挖掘方法.pdf

    MapReduce模型能够基于实际运行状态,科学地分配程序任务和运算量,实现实时的并行运算。 K-means算法是一种经典的数据聚类方法,其原理是通过比较样本之间的欧氏距离来判断相似性,并据此进行数据归类。K-means...

    MapReduce-a-flexible-data-.rar_mapReduce_reduce

    总的来说,MapReduce通过将复杂的大数据处理任务分解为可并行处理的小部分,极大地提高了大规模数据处理的效率和可行性。其设计理念和实现方式对分布式计算领域产生了深远影响,成为现代大数据技术栈中的重要组成...

    基于Hadoop的分布式并行增量爬虫技术研究.docx

    MapReduce则是一种编程模型,用于大规模数据集的并行运算。通过这两部分的结合,Hadoop能够实现高效的数据处理和分析。 ##### 2.2 Hadoop工作原理 - **HDFS**:HDFS将数据分成多个块进行存储,每个块默认大小为128...

    基于MapReduce分布式连接算法优化技术研究.pdf

    由于传统单机集群系统无法满足海量数据的时空开销需求,采用MapReduce分布式连接算法可以提高数据并行编程计算的便捷性,解决大规模数据集并行运算问题,因此该算法在各个领域获得了广泛认可和应用。 6. 研究成果与...

    02.分布式计算模型MapReduce.pptx

    MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念"Map(映射)"和"Reduce(归约)",是它们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。它极大地方便了编程...

    基于MapReduce的分布式贪心EM算法.pdf

    - MapReduce是分布式计算的一种编程模型,主要用于处理大规模数据集的并行运算。它允许开发者将计算任务拆分成较小的子任务,这些子任务可以在不同的计算节点上并行执行。 - MapReduce模型包含两个主要的操作:Map...

    mapreduce_reduce_mapReduce_settingn2p_

    MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念&quot;Map(映射)&quot;和&quot;Reduce(归约)&quot;,是它们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性...

    基于MapReduce的分布式近邻传播聚类算法.pdf

    MapReduce是一种编程模型,用于处理大规模数据集的并行运算。MapReduce框架包含Map(映射)和Reduce(归约)两个主要操作,适用于处理大数据的分布式计算。在聚类算法中,MapReduce可以并行处理数据集的不同部分,以...

Global site tag (gtag.js) - Google Analytics