使用hadoop进行大量的数据排序排序最直观的方法是把文件所有内容给map之后,map不做任何处理,直接输出给一个reduce,利用hadoop的自己的shuffle机制,对所有数据进行排序,而后由reduce直接输出。
然而这样的方法跟单机毫无差别,完全无法用到多机分布式计算的便利。因此这种方法是不行的。
利用hadoop分而治之的计算模型,可以参照快速排序的思想。在这里我们先简单回忆一下快速排序。快速排序基本步骤就是需要现在所有数据中选取一个作为支点。然后将大于这个支点的放在一边,小于这个支点的放在另一边。
设想如果我们有N个支点(这里可以称为标尺),就可以把所有的数据分成N+1个part,将这N+1个part丢给reduce,由hadoop自动排序,最后输出N+1个内部有序的文件,再把这N+1个文件首尾相连合并成一个文件,收工。
由此我们可以归纳出这样一个用hadoop对大量数据排序的步骤:
1) 对待排序数据进行抽样;
2) 对抽样数据进行排序,产生标尺;
3) Map对输入的每条数据计算其处于哪两个标尺之间;将数据发给对应区间ID的reduce
4) Reduce将获得数据直接输出。
这里使用对一组url进行排序来作为例子:
这里还有一点小问题要处理:如何将数据发给一个指定ID的reduce?hadoop提供了多种分区算法。这些算法根据map输出的数据的key来
确定此数据应该发给哪个reduce(reduce的排序也依赖key)。因此,如果需要将数据发给某个reduce,只要在输出数据的同时,提供一个
key(在上面这个例子中就是reduce的ID+url),数据就该去哪儿去哪儿了。
注意事项
1) 标尺的抽取应该尽可能的均匀,这与快速排序很多变种算法均是强调支点的选取是一致的。
2)
HDFS是一种读写性能很不对称的文件系统。应该尽可能的利用其读性能很强的特点。减少对写文件和shuffle操作的依赖。举例来说,当需要根据数据的
统计情况来决定对数据的处理的时候。将统计和数据处理分成两轮map-reduce比将统计信息合并和数据处理都放到一个reduce中要快速的多。
分享到:
相关推荐
Hadoop的排序功能是基于Hadoop生态系统中的其他组件,如Hive和Pig等,它们提供了更高级的抽象和更易于使用的接口来处理大规模数据排序。 实现局部抽样方法PartialSampler的步骤包括: - 首先通过InputFormat的...
1. **日志分析**: 大规模的日志数据可以使用Hadoop进行高效处理,提取有价值的信息。 2. **推荐系统**: 基于用户行为数据,通过MapReduce实现协同过滤等算法。 3. **大数据挖掘**: 在Hadoop上运行机器学习和数据挖掘...
**Hadoop大数据处理讲义-C3. Hadoop体系架构** Hadoop是Apache软件基金会开发的一个开源框架,专门用于处理和存储大规模数据集。本讲义将深入探讨Hadoop的体系结构,帮助理解其核心组件、工作原理以及如何高效地...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在廉价硬件上处理大规模数据。Hadoop的核心组件包括Hadoop Distributed File System (HDFS)和MapReduce。以下是对Hadoop相关知识点的详细介绍: 1. *...
《TeraByte Sort on Apache Hadoop》这篇论文不仅详细介绍了如何使用Hadoop进行大规模数据排序的具体实现,还提供了宝贵的实践经验和技术细节,对于理解和运用Hadoop解决大数据问题具有重要的参考价值。通过TeraGen...
HDFS是分布式文件系统,提供高容错性和高吞吐量的数据访问,而MapReduce则是一个用于大规模数据集并行处理的编程模型。 1. HDFS:分布式文件系统 - 数据块:HDFS将大文件分割为多个固定大小的数据块,默认为128MB...
"大数据学习资料全排序二次排序"这个主题,显然关注的是如何有效地对大规模数据进行排序,尤其是涉及到二次排序的概念。二次排序通常是指在第一次排序的基础上,根据另一个或多个字段进行第二次排序,以满足更复杂的...
1. Hadoop的起源:Hadoop最初由Google的论文启发,用于解决大规模数据处理的问题。 2. Hadoop组件:包括HDFS(Hadoop Distributed File System)、MapReduce、YARN(Yet Another Resource Negotiator)以及各种生态...
它提升了数据处理速度,减少了网络拥堵,优化了资源利用,尤其对于需要实时分析或近实时分析的大规模数据集,Hadoop提供了强大的工具。 总结来说,Hadoop通过其分布式存储系统HDFS和MapReduce编程模型,实现了数据...
- Hadoop是什么:Hadoop是一个开源的分布式计算框架,由Apache基金会开发,用于处理和存储大规模数据。 - Hadoop的核心组件:包括HDFS(Hadoop Distributed File System)和MapReduce。 2. **HDFS**: - 分布式...
在大数据处理领域,Hadoop是一个不可或缺的工具,它的出现使得大规模数据处理成为可能。Hadoop 1.2.2是Hadoop的一个重要版本,它为用户提供了稳定、高效的数据存储和计算能力。本文将深入探讨Hadoop的设计模式,帮助...
【标签】"hadoop" 指的是Apache Hadoop,这是一个开源的Java框架,专为分布式存储和处理大规模数据而设计。Hadoop的核心组件包括HDFS和MapReduce,它们共同构成了一个强大的大数据处理平台。Hadoop允许用户在普通...
MapReduce则是一种并行计算模型,用于处理和生成大规模数据集。 2. HDFS详解: - 分布式存储:HDFS将大文件分割成多个块,这些块被复制并分散存储在不同的节点上,提高了数据的容错性和可用性。 - NameNode与...
通过这种结合,Hadoop的并行计算能力与Lucene的搜索性能相结合,使得大规模数据集的全文检索成为可能。开发者可以利用这些源码学习如何在分布式环境中优化搜索性能,同时也可以根据实际需求定制和扩展搜索功能。对于...
【Hadoop 分布式存储与数据分发设计】 ...通过 MapReduce 和 HDFS 的结合,Hadoop 提供了一种灵活、容错的框架,使得大规模数据处理成为可能,尤其在当前互联网时代,对于处理不断增长的数据量具有重要意义。
MapReduce则是一种编程模型,用于处理和生成大规模数据集,它通过“映射”和“化简”两个阶段实现并行计算。 2. **HDFS详解** - **命名节点(NameNode)**:HDFS的元数据管理器,负责存储文件系统的目录树和文件的...
Hadoop MapReduce可以实现分布式排序,通过Mapper阶段生成键值对,然后在Reducer阶段进行局部排序,最终在所有Reducer之间进行全局排序。 压缩包内的"mr"文件可能包含了MapReduce作业的Java源代码。在Hadoop中,...
MapReduce则是一种编程模型,用于大规模数据集的并行计算。 2. **HDFS原理**:HDFS采用主从结构,由NameNode作为主节点管理元数据,DataNodes作为从节点存储数据块。副本策略确保了数据的容错性,通常每个数据块都...
MapReduce将大规模数据处理任务分解为两个主要阶段:Map阶段和Reduce阶段。 1. **Map阶段**:原始数据被切分成小块(split),然后分发到集群的不同节点上。在每个节点上,Map函数对输入数据进行处理,生成键值对...
- **MapReduce**:Hadoop的计算模型,通过“映射”和“规约”两个阶段进行大规模数据处理。 - **YARN**:Yet Another Resource Negotiator,作为资源管理系统,负责集群资源调度。 2. **Hadoop架构** - **...