`
foreversunyao
  • 浏览: 209562 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

排序--MapReduce

阅读更多

1、1TB(或1分钟)排序的冠军 
作为分布式数据处理的框架,集群的数据处理能力究竟有多快?或许1TB排序可以作为衡量的标准之一。 

1TB排序,就是对1TB(1024GB,大约100亿行数据)的数据进行排序。2008年,Hadoop赢得1TB排序基准评估第一名,排序1TB数据耗时209秒。后来,1TB排序被1分钟排序所取代,1分钟排序指的是在一分钟内尽可能多的排序。2009年,在一个1406个节点组成的hadoop集群,在59秒里对500GB完成了排序;而在1460个节点的集群,排序1TB数据只花了62秒。 

这么惊人的数据处理能力,是不是让你印象深刻呢?呵呵 

下面我们来看看排序的过程吧。 


2、排序的过程 

1TB的数据?100亿条数据?都是什么样的数据呢?让我们来看几条: 

Java代码 
  1. .t^#\|v$2\         0AAAAAAAAAABBBBBBBBBBCCCCCCCCCCDDDDDDDDDDEEEEEEEEEEFFFFFFFFFFGGGGGGGGGGHHHHHHHH  
  2. 75@~?'WdUF         1IIIIIIIIIIJJJJJJJJJJKKKKKKKKKKLLLLLLLLLLMMMMMMMMMMNNNNNNNNNNOOOOOOOOOOPPPPPPPP  
  3. w[o||:N&H,         2QQQQQQQQQQRRRRRRRRRRSSSSSSSSSSTTTTTTTTTTUUUUUUUUUUVVVVVVVVVVWWWWWWWWWWXXXXXXXX  
  4. ^Eu)<n#kdP         3YYYYYYYYYYZZZZZZZZZZAAAAAAAAAABBBBBBBBBBCCCCCCCCCCDDDDDDDDDDEEEEEEEEEEFFFFFFFF  
  5. +l-$$OE/ZH         4GGGGGGGGGGHHHHHHHHHHIIIIIIIIIIJJJJJJJJJJKKKKKKKKKKLLLLLLLLLLMMMMMMMMMMNNNNNNNN  
  6. LsS8)|.ZLD         5OOOOOOOOOOPPPPPPPPPPQQQQQQQQQQRRRRRRRRRRSSSSSSSSSSTTTTTTTTTTUUUUUUUUUUVVVVVVVV  
  7. le5awB.$sm         6WWWWWWWWWWXXXXXXXXXXYYYYYYYYYYZZZZZZZZZZAAAAAAAAAABBBBBBBBBBCCCCCCCCCCDDDDDDDD  
  8. q__[fwhKFg         7EEEEEEEEEEFFFFFFFFFFGGGGGGGGGGHHHHHHHHHHIIIIIIIIIIJJJJJJJJJJKKKKKKKKKKLLLLLLLL  
  9. ;L+!2rT~hd         8MMMMMMMMMMNNNNNNNNNNOOOOOOOOOOPPPPPPPPPPQQQQQQQQQQRRRRRRRRRRSSSSSSSSSSTTTTTTTT  
  10. M^*dDE;6^<         9UUUUUUUUUUVVVVVVVVVVWWWWWWWWWWXXXXXXXXXXYYYYYYYYYYZZZZZZZZZZAAAAAAAAAABBBBBBBB  



描述一下:每一行,是一条数据。每一条,由2部分组成,前面是一个由10个随即字符组成的key,后面是一个80个字符组成的value。 

排序的任务:按照key的顺序排。 

那么1TB的数据从何而来?答案是用程序随即生成的,用一个只有map,没有reduce的MapReduce job,在整个集群上先随即生成100亿行数据。然后,在这个基础上,再运行排序的MapReduce job,以测试集群排序性能。 


3、排序的原理 

先说明一点,熟悉MapReduce的人都知道:排序是MapReduce的天然特性!在数据达到reducer之前,mapreduce框架已经对这些数据按键排序了。 

所以,在这个排序的job里,不需要特殊的Mapper和Reducer类。用默认的 
IdentityMapper和IdentityReducer即可。 

既然排序是天然特性,那么1TB排序的难点在哪里呢??答:100亿行的数据随即分散在1000多台机器上,mapper和reducer都是Identity的,这个难点就在MapReduce的shuffle阶段!关键在如何取样和怎么写Partitioner。 

好在这个排序的源代码已近包含在hadoop的examples里了,下面我们就来分析一下。 


4、取样和partition的过程 

面对对这么大量的数据,为了partition的更均匀。要先“取样”: 

1) 对Math.min(10, splits.length)个split(输入分片)进行随机取样,对每个split取10000个样,总共10万个样 
2) 10万个样排序,根据reducer的数量(n),取出间隔平均的n-1个样 
3) 将这个n-1个样写入partitionFile(_partition.lst,是一个SequenceFile),key是取的样,值是nullValue 
4) 将partitionFile写入DistributedCache 

接下来,正式开始执行MapReduce job: 
5) 每个map节点: 
          a.根据n-1个样,build一棵类似于B-数的“索引树”: 
                    * 每个非叶子节点,都有256个子节点。 
                    * 不算根节点的非叶子节点有1层,加上根节点和叶子节点,共3层。 
                    * 非叶子节点代表key的“byte path” 
                    * 每个叶子节点代表key的前2个bytes path 
                    * 叶子节点上,保存的是partition number的范围,有多少个reducer就有多少partition number 

          b.前缀相同的key,被分配到同一个叶子节点。 
          c.一个子节点上,可能有多个reducer 
          d.比第i个样小的key,被分配到第i个reducer,剩下的被分配到最后一个reducer。 

6) 针对一个key,partition的过程: 

          a. 首选判断key的第1个byte,找到第1层非叶子节点 
          b. 再根据key的第2个byte,叶子节点 
          c. 每个叶子节点可能对应多个取样(即多个reducer),再逐个和每个样比较,确定分配给哪一个reducer 


5、图解partition的“索引树” 

对上面的文字描述可能比较难理解,etongg 同学建议我画个图。所有才有了下面这些文字。感谢etongg和大家对本帖的关注。 

“索引树”的作用是为了让key快速找到对应的reducer。下图是我画的索引树示意图: 

 


对上面的图做一点解释: 
1、为了简单,我只画了A、B、C三个节点,实际的是有256个节点的。 
2、这个图假设有20个reducer(下标0到19),那么我们最终获得n-1个样,即19个样(下标为18的为最后一个样) 
3、图中的圆圈,代表索引树上的节点,索引树共3层。 
4、叶子节点下面的长方形代表取样数组。红色的数字代表取样的下标。 
5、每个节点都对应取样数组上的一个下标范围(更准备的说,是对应一个partition number的范围,每个partition number代表一个reducer)。这个范围在途中用蓝色的文字标识。 


前面文中有一句话: 
比第i个样小的key,被分配到第i个reducer,剩下的被分配到最后一个reducer 

这里做一个小小的纠正,应该是: 
小于或者等于第i个样的key,被分配到第i个reducer,剩下的被分配到最后一个reducer。 

下面开始partition: 
如果key以"AAA"开头,被分配到第“0”个reducer。 
如果key以"ACA"开头,被分配到第“4”个reducer。 
如果key以"ACD"开头,被分配到第“4”个reducer。 
如果key以"ACF"开头,被分配到第“5”个reducer。 

那么, 
如果key以"ACZ"开头,被分配到第几个reducer?? 
答案是:被分配到第“6”个reducer。 

同理, 
如果key以"CCZ"开头,被分配到第“19”个reducer,也就是最后一个reducer。 


6、为什么不用HashPartitioner? 


还需要再说明的一点: 
上面自定义的Partitinoner的作用除了快速找到key对应的reducer,更重要的一点是:这个Partitioner控制了排序的总体有序! 

上文中提到的“排序是MapReduce的天然特性!”这句话有点迷惑性。更准确的说,这个“天然特性”只保证了:a) 每个map的输出结果是有序的; b) 每个reduce的输入是有序的(参考下面的图)。而1TB的整体有序还需要靠Partitioner的帮助! 


Partitioner控制了相似的key(即前缀相同)落在同一个reducer里,然后mapreduce的“天然特性”再保证每个reducer的输入(在正式执行reduce函数前,有一个排序的动作)是有序的! 


这样就理解了为什么不能用HashPartitioiner了。因为自定义的Partitioner要保证排序的“整体有序”大方向。 


另外,推荐一篇关于partitioner博文:Hadoop Tutorial Series, Issue #2: Getting Started With (Customized) Partitioning 

再贴《Hadoop.The.Definitive.Guide》中一张图,更有利于理解了: 
 

*** THE END *** 

转载www.iteye.com/topic/709986

分享到:
评论
1 楼 lookqlp 2012-03-05  
您好!
我写了个关键词关联度统计的mapreduce,排序非常慢(800k的数据跑完用了4个小时),不知道什么原因,按里说排序是mapreduce的强项。

请求您的帮助,qq595448615

相关推荐

    分布式文件系统实例-mapreduce-排序

    分布式文件系统实例——MapReduce排序 MapReduce是一种分布式计算模型,由Google提出,主要用于处理和生成大规模数据集。它将大型任务分解为可并行处理的小任务,通过“Map”阶段进行数据预处理,然后在“Reduce”...

    03-Hadoop-MapReduce.docx

    2. Shuffle阶段:对中间键值对进行排序和分区,为Reduce阶段做准备。 3. Reduce阶段:根据相同的键将中间键值对分组,并应用用户定义的Reduce函数,生成最终结果。 **1.4 MapReduce进程** MapReduce工作流程包括...

    阿里云E-MapReduce-API手册.pdf

    - 签名过程涉及对请求参数进行排序、拼接、加密等步骤,确保请求的完整性和不可篡改性。 5. **错误处理**: - 错误结果会返回错误代码和消息,如`UnsupportedOperation`表示不支持的操作。 - 当调用失败时,HTTP...

    福建师范大学精品大数据导论课程系列 (6.4.1)--5.1 一种并行编程模型--MapReduce-之四.rar

    《福建师范大学精品大数据导论课程系列 (6.4.1)--5.1 一种并行编程模型--MapReduce-之四》是针对大数据处理领域的一个重要主题——MapReduce的深入探讨。MapReduce是一种由Google公司提出的分布式计算框架,主要用于...

    福建师范大学精品大数据导论课程系列 (6.3.1)--5.1 一种并行编程模型--MapReduce-之三.rar

    《福建师范大学精品大数据导论课程系列 (6.3.1)--5.1 一种并行编程模型--MapReduce-之三》是针对大数据处理的一种重要技术的深入讲解。本课程聚焦于MapReduce,这是一种由Google发明的分布式计算框架,广泛应用于大...

    福建师范大学精品大数据导论课程系列 (6.1.1)--5.1 一种并行编程模型--MapReduce-之一.rar

    《福建师范大学精品大数据导论课程系列 (6.1.1)--5.1 一种并行编程模型--MapReduce-之一》这个压缩包文件是关于大数据处理领域中的核心概念——MapReduce的详细介绍。MapReduce是一种由Google开发的分布式计算框架,...

    理论部分-MapReduce-hadoop1

    MapReduce是一种分布式计算模型,由Google提出,广泛应用于大数据处理领域。Hadoop是Apache基金会开源的一个实现MapReduce的框架,它使得在大规模集群上运行MapReduce任务变得简单易行。以下将详细介绍MapReduce作业...

    福建师范大学精品大数据导论课程系列 (6.2.1)--5.1 一种并行编程模型--MapReduce-之二.rar

    《福建师范大学精品大数据导论课程系列 (6.2.1)--5.1 一种并行编程模型--MapReduce-之二》这篇资料主要探讨的是大数据处理领域中的核心算法模型——MapReduce。MapReduce是由Google在2004年提出的一种分布式计算框架...

    simple-cdmh-mapreduce

    "simple-cdmh-mapreduce" 是一个与MapReduce编程...对于实际的"cdmh-mapreduce-466206c"压缩包,解压后查看源代码和文档,可以获取更具体的信息。如果想深入了解,建议结合Hadoop官方文档和其他MapReduce教程进行学习。

    分布式文件系统经典实例-mapreduce-统计字符数

    - 在Map任务完成后,中间结果会被排序并分区,使得具有相同键的记录被聚集在一起,为Reduce阶段做好准备。 4. **Reduce阶段**: - 输入:Reducer接收来自多个Mapper的键值对。 - 处理:Reducer对所有相同键的值...

    Google-MapReduce中文版_1.0.zip

    - 在Map和Reduce之间,系统会自动进行 Shuffle 和 Sort 步骤,确保所有相同的中间键被分到同一个Reducer,且键值对按照键排序,这是Reduce阶段能够正确处理的前提。 4. **Reduce阶段**: - Reduce阶段将Map阶段...

    MapReduce模型--二次排序

    MapReduce模型中的二次排序是大数据处理中一项重要的技术,它通过多层排序功能来优化数据处理性能。二次排序的核心思想在于对Key(键)进行分层排序,而不能对Value(值)进行排序。这主要是因为MapReduce框架设计时...

    福建师范大学精品大数据导论课程系列 (6.2.1)--5.1 一种并行编程模型--MapReduce-之二.pdf

    3. 排序与聚合:Map输出的, value&gt;对根据键值进行局部排序和聚合,准备进入Reduce阶段。 4. Reduce阶段:Reduce任务接收来自多个Map任务的相同键值的value集合,进行合并和处理,生成最终的, value&gt;对。 5. 输出结果...

    福建师范大学精品大数据导论课程系列 (6.1.1)--5.1 一种并行编程模型--MapReduce-之一.pdf

    Hadoop MapReduce不仅包含了Map和Reduce的功能,还提供了诸如数据分区、排序、错误处理等机制,使得在大规模数据处理中能够保证正确性和高效性。 MapReduce适用于批处理任务,尤其适合数据密集型的应用,如数据挖掘...

    云计算 mapreduce - <Data-Intensive[1].Text.Processing.With.MapReduce>

    - **二次排序**:阐述在MapReduce作业中如何实现更复杂的排序需求。 - **关系连接**:探索如何使用MapReduce执行类似于SQL中的JOIN操作。 3. **用于文本检索的倒排索引** - **倒排索引**:解释倒排索引的基本...

    福建师范大学精品大数据导论课程系列 (6.4.1)--5.1 一种并行编程模型--MapReduce-之四.pdf

    3. ** Shuffle & Sort**:Map阶段产生的中间结果按照键进行排序,并被分区,准备进入Reduce阶段。 4. **Reduce**:Reduce函数接收每个键对应的全部值,执行聚合操作,生成最终的输出结果。 03 MapReduce的体系结构 ...

    Hadoop应用系列2--MapReduce原理浅析(上)

    在IT行业中,分布式计算系统是处理大规模数据的关键技术之一,而Hadoop作为开源的分布式计算框架,其核心组件MapReduce则是实现这一目标的重要工具。本文将深入浅出地解析MapReduce的工作原理,帮助读者理解这一强大...

    MapReduce-a-flexible-data-.rar_mapReduce_reduce

    虽然原始的MapReduce模型已经很强大,但随着时间的发展,人们发现了一些可以优化的地方,例如引入Combiner减少网络传输,使用更高效的排序算法,以及使用更轻量级的计算模型如Spark和Flink来替代MapReduce在某些场景...

    GoogleFileSystem-Bigtable-MapReduce

    2. **Shuffle阶段**:中间结果按键排序,准备进入Reduce阶段。 3. **Reduce阶段**:相同键的中间结果被聚合,执行用户定义的reduce函数,生成最终输出。 4. **容错性**:MapReduce框架能够自动处理失败的任务,重新...

Global site tag (gtag.js) - Google Analytics