`

[转]使用hadoop进行大规模数据的全局排序

阅读更多

转自:http://stblog.baidu-tech.com/?p=397

 

1.   Hellow hadoop~~!

Hadoop(某人儿子的一只虚拟大象的名字)是一个复杂到极致,又简单到极致的东西。

说它复杂,是因为一个hadoop集群往往有几十台甚至成百上千台low cost的计算机组成,你运行的每一个任务都要在这些计算机上做任务的分发,执行中间数据排序以及最后的汇总,期间还包含节点发现,任务的重试,故障节点 替换等等等等的维护以及异常情况处理。谁叫hadoop集群往往都是由一些平民计算机组成,没事儿罢个工什么的,实在是再寻常不过的事情。

而说其简单,则是因为,上面说到的那些,你通通不用管,你所需要做的,就是写一个程序,当然也可以是脚本,从标准输入读入一条数据,处理完之后,把结果输出到标准输出。

现在,或许你就明白了,hadoop就是一个计算模型。一个分布式的计算模型。

1.1Map和reduce

天下大事,分久必合、合久必分。

所谓分布式计算,就是把一大堆用于计算的数据材料切了,扔到多个锅里面,该焯水的焯水,该油炸的油炸。然后都准备的差不多了,按着一定的先后顺序,比如不好熟的先放,好熟的后放什么的,一块下锅炒成一盘菜出来,端出来上桌。

前面的步骤,就是map,分发。Map的作用就是把输入数据打散,做简单的处理,输出。而hadoop则要先将中间数据排序,这个称为shuffle,然后由reduce把中间数据合并到一起。将最终结果输出。

举个简单的例子:公安局要根据数据库内身份证号获得全国每个地市人口数情况(好吧,这个应该是统计局做的),这个任务落到你的头上了,你应该先把所 有的身份证号导出到文件中,每行一个,然后把这些文件交给map。Map中的要做的就是截取身份证号的前面六位,把这六位数字直接输出。然后hadoop 会把这些身份证号的前六位排序,把相同的数据都排到一起,交给reduce,reduce判断每次输入的号码是否与上一个处理的相同,相同则累加,不同则 把之前的号码,和统计的数值输出。这样,你就获得了各地市的人口数统计。

下面这个图就是map和reduce处理的图示。

上图是MapReduce的数据处理视图。分为map,shuffle,reduce三个部分。各map任务读入切分后的大规模数据进行处理并将数 据作为一系列key:value对输出,输出的中间数据按照定义的方式通过shuffle程序分发到相应的reduce任务。Shuffle程序还会按照 定义的方式对发送到一个reduce任务的数据进行排序。Reduce进行最后的数据处理。

MapReduce计算框架适用于超大规模的数据(100TB量级)且各数据之间相关性较低的情况。

1.2HDFS

之前,或许你听说过NTFS,VFS,NFS等等等等,没错,HDFS就是hadoop file system。

为什么需要一种专门的文件系统呢?

这是因为hadoop使用过网络松散(说其松散,是因为hadoop集群中的任意一个计算机故障了或是不相干了,都不会对集群造成影响)的组合到一起的。多个计算机需要一个统一的文件访问方式。也就是根据一个路径,不同的计算机可以定位同一个文件。

HDFS就是这样一种分布式文件系统,提供了较好的容错功能和扩展性。

1.3节点与槽位

Hadoop集群是由很多low cost的计算机组成的,这些计算机被称为节点。组成hadoop的计算机通常都是全功能的,没有特别的专门用于计算和存储的部分。

这样带来的好处是明显的,因为特别大的硬盘和特别快的cpu,总是意味着难以接受的价格。而且这样一个配置“特别的”节点计算机挂掉了,找个他的替身将是很困难的事情。

计算节点和存储节点统一的另一个好处是,任务在计算过程中产生的文件,可以直接放在本机的存储节点上,减少网络带宽占用和延迟。

在衡量hadoop的map和reduce的处理能力的时候通常都是以槽位为单位的。槽位就是集群内每个计算机的cpu并发数(cpu数*核心数*超线程数)的总和。每个任务都会安排在一个槽位内允许,安排不到槽位的任务则会等待。

2.   Hadoop应用实例:大规模数据的排序

Hadoop平台没有提供全局数据排序,而在大规模数据处理中进行数据的全局排序是非常普遍的需求。大量的将大规模数据任务切分成小数据规模的数据 处理任务都必须先将大规模数据进行全局排序。例如处理两组大的数据集的属性合并,可以对两组数据进行全局排序然后分解成一系列小的二路归并问题实现。

2.1应用hadoop进行大规模数据全局排序的方法

使用hadoop进行大量的数据排序排序最直观的方法是把文件所有内容给map之后,map不做任何处理,直接输出给一个reduce,利用hadoop的自己的shuffle机制,对所有数据进行排序,而后由reduce直接输出。

然而这样的方法跟单机毫无差别,完全无法用到多机分布式计算的便利。因此这种方法是不行的。

利用hadoop分而治之的计算模型,可以参照快速排序的思想。在这里我们先简单回忆一下快速排序。快速排序基本步骤就是需要现在所有数据中选取一个作为支点。然后将大于这个支点的放在一边,小于这个支点的放在另一边。

设想如果我们有N个支点(这里可以称为标尺),就可以把所有的数据分成N+1个part,将这N+1个part丢给reduce,由hadoop自动排序,最后输出N+1个内部有序的文件,再把这N+1个文件首尾相连合并成一个文件,收工。

由此我们可以归纳出这样一个用hadoop对大量数据排序的步骤:

1)  对待排序数据进行抽样;

2)  对抽样数据进行排序,产生标尺;

3)  Map对输入的每条数据计算其处于哪两个标尺之间;将数据发给对应区间ID的reduce

4)  Reduce将获得数据直接输出。

这里使用对一组url进行排序来作为例子:

 

这里还有一点小问题要处理:如何将数据发给一个指定ID的reduce?hadoop提供了多种分区算法。这些算法根据map输出的数据的key来 确定此数据应该发给哪个reduce(reduce的排序也依赖key)。因此,如果需要将数据发给某个reduce,只要在输出数据的同时,提供一个 key(在上面这个例子中就是reduce的ID+url),数据就该去哪儿去哪儿了。

2.2注意事项

1)         标尺的抽取应该尽可能的均匀,这与快速排序很多变种算法均是强调支点的选取是一致的。

2)         HDFS是一种读写性能很不对称的文件系统。应该尽可能的利用其读性能很强的特点。减少对写文件和shuffle操作的依赖。举例来说,当需要根据数据的 统计情况来决定对数据的处理的时候。将统计和数据处理分成两轮map-reduce比将统计信息合并和数据处理都放到一个reduce中要快速的多。

3.   总结

Hadoop实际是一种以数据为驱动的计算模型,结合MapReduce和HDFS,将任务运行在数据存放的计算节点上,充分利用了计算节点的存储和计算资源,同时也大大节省了网络传输数据的开销。

Hadoop提供了简便利用集群进行并行计算的平台。各种可以隔离数据集之间相关性的运算模型都能够在Hadoop上被良好应用。之后会有更多的利用Hadoop实现的大规模数据基础计算方法的介绍。

分享到:
评论

相关推荐

    Hadoop对文本文件的快速全局排序实现方法及分析

    Hadoop的排序功能是基于Hadoop生态系统中的其他组件,如Hive和Pig等,它们提供了更高级的抽象和更易于使用的接口来处理大规模数据排序。 实现局部抽样方法PartialSampler的步骤包括: - 首先通过InputFormat的...

    hadoop使用

    Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在廉价硬件上处理大规模数据。Hadoop的核心组件包括Hadoop Distributed File System (HDFS)和MapReduce。以下是对Hadoop相关知识点的详细介绍: 1. *...

    Hadoop海量数据处理

    1. **日志分析**: 大规模的日志数据可以使用Hadoop进行高效处理,提取有价值的信息。 2. **推荐系统**: 基于用户行为数据,通过MapReduce实现协同过滤等算法。 3. **大数据挖掘**: 在Hadoop上运行机器学习和数据挖掘...

    TeraByte Sort on Apache Hadoop

    《TeraByte Sort on Apache Hadoop》这篇论文不仅详细介绍了如何使用Hadoop进行大规模数据排序的具体实现,还提供了宝贵的实践经验和技术细节,对于理解和运用Hadoop解决大数据问题具有重要的参考价值。通过TeraGen...

    Hadoop大数据处理讲义-C3. Hadoop体系架构

    **Hadoop大数据处理讲义-C3. Hadoop体系架构** Hadoop是Apache软件基金会开发的一个开源框架,专门用于处理和存储大规模数据集。本讲义将深入探讨Hadoop的体系结构,帮助理解其核心组件、工作原理以及如何高效地...

    hadoop-2.8.1源码

    HDFS是分布式文件系统,提供高容错性和高吞吐量的数据访问,而MapReduce则是一个用于大规模数据集并行处理的编程模型。 1. HDFS:分布式文件系统 - 数据块:HDFS将大文件分割为多个固定大小的数据块,默认为128MB...

    Hadoop大数据开发基础

    1. Hadoop的起源:Hadoop最初由Google的论文启发,用于解决大规模数据处理的问题。 2. Hadoop组件:包括HDFS(Hadoop Distributed File System)、MapReduce、YARN(Yet Another Resource Negotiator)以及各种生态...

    大数据学习资料全排序二次排序

    "大数据学习资料全排序二次排序"这个主题,显然关注的是如何有效地对大规模数据进行排序,尤其是涉及到二次排序的概念。二次排序通常是指在第一次排序的基础上,根据另一个或多个字段进行第二次排序,以满足更复杂的...

    基于Hadoop的计算机分布式存储与数据分发设计.pdf

    它提升了数据处理速度,减少了网络拥堵,优化了资源利用,尤其对于需要实时分析或近实时分析的大规模数据集,Hadoop提供了强大的工具。 总结来说,Hadoop通过其分布式存储系统HDFS和MapReduce编程模型,实现了数据...

    hadoop_hello_world

    【标签】"hadoop" 指的是Apache Hadoop,这是一个开源的Java框架,专为分布式存储和处理大规模数据而设计。Hadoop的核心组件包括HDFS和MapReduce,它们共同构成了一个强大的大数据处理平台。Hadoop允许用户在普通...

    关于hadoop设计模式,基于hadoop1.2.2.zip

    在大数据处理领域,Hadoop是一个不可或缺的工具,它的出现使得大规模数据处理成为可能。Hadoop 1.2.2是Hadoop的一个重要版本,它为用户提供了稳定、高效的数据存储和计算能力。本文将深入探讨Hadoop的设计模式,帮助...

    2022年基于Hadoop的计算机分布式存储与数据分发设计.docx

    【Hadoop 分布式存储与数据分发设计】 ...通过 MapReduce 和 HDFS 的结合,Hadoop 提供了一种灵活、容错的框架,使得大规模数据处理成为可能,尤其在当前互联网时代,对于处理不断增长的数据量具有重要意义。

    Hadoop源码包

    MapReduce则是一种并行计算模型,用于处理和生成大规模数据集。 2. HDFS详解: - 分布式存储:HDFS将大文件分割成多个块,这些块被复制并分散存储在不同的节点上,提高了数据的容错性和可用性。 - NameNode与...

    hadoop.contrib/lucene源码

    通过这种结合,Hadoop的并行计算能力与Lucene的搜索性能相结合,使得大规模数据集的全文检索成为可能。开发者可以利用这些源码学习如何在分布式环境中优化搜索性能,同时也可以根据实际需求定制和扩展搜索功能。对于...

    Hadoop大数据常见面试题库

    - Hadoop是什么:Hadoop是一个开源的分布式计算框架,由Apache基金会开发,用于处理和存储大规模数据。 - Hadoop的核心组件:包括HDFS(Hadoop Distributed File System)和MapReduce。 2. **HDFS**: - 分布式...

    Hadoop中文手册

    MapReduce则是一种编程模型,用于处理和生成大规模数据集,它通过“映射”和“化简”两个阶段实现并行计算。 2. **HDFS详解** - **命名节点(NameNode)**:HDFS的元数据管理器,负责存储文件系统的目录树和文件的...

    mr.zip_hadoop

    Hadoop MapReduce可以实现分布式排序,通过Mapper阶段生成键值对,然后在Reducer阶段进行局部排序,最终在所有Reducer之间进行全局排序。 压缩包内的"mr"文件可能包含了MapReduce作业的Java源代码。在Hadoop中,...

    基于Hadoop平台的-并行特征匹配算法-研究

    HDFS设计为存储大规模数据集,而MapReduce则负责处理这些数据。然而,Hadoop在处理大量小文件时可能会遇到性能瓶颈,因为每个文件都会在HDFS上占用一个数据块,这会导致过多的元数据操作和磁盘I/O,从而降低整体性能...

    Hadoop集群程序设计与开发PPT.rar

    MapReduce则是一种编程模型,用于大规模数据集的并行计算。 2. **HDFS原理**:HDFS采用主从结构,由NameNode作为主节点管理元数据,DataNodes作为从节点存储数据块。副本策略确保了数据的容错性,通常每个数据块都...

    Hadoop面试100题

    - **MapReduce**:Hadoop的计算模型,通过“映射”和“规约”两个阶段进行大规模数据处理。 - **YARN**:Yet Another Resource Negotiator,作为资源管理系统,负责集群资源调度。 2. **Hadoop架构** - **...

Global site tag (gtag.js) - Google Analytics