MapReduce的使用者通常会指定Reduce任务和Reduce任务输出文件的数量(R)。我们在中间key上使用分区函数来对数据进行分区,之后再输入到后续任务执行进程。一个缺省的分区函数是使用hash方法(比如,hash(key) mod R)进行分区。hash方法能产生非常平衡的分区。然而,有的时候,其它的一些分区函数对key值进行的分区将非常有用。比如,输出的key值是URLs,我们希望每个主机的所有条目保持在同一个输出文件中。为了支持类似的情况,MapReduce库的用户需要提供专门的分区函数。例如,使用“hash(Hostname(urlkey))
mod R”作为分区函数就可以把所有来自同一个主机的URLs保存在同一个输出文件中。
/**
* to keep sort as global
*
* @author hadoop
*
*/
public static class Partition extends Partitioner<IntWritable, IntWritable> {
@Override
public int getPartition(IntWritable key, IntWritable value,
int numPartitions) {
int MaxNumber = 65223;
int bound = MaxNumber / numPartitions + 1;
int keynumber = key.get();
for (int i = 0; i < numPartitions; i++) {
if (keynumber < bound * i && keynumber >= bound * (i - 1))
return i - 1;
}
return 0;//return -1; (error)
}
}
上面的这段代码是自己实现的简单分区,最大值未输入的一个最大数字。我用1.2.1版本,无论如何,分区返回不能为-1,所以改成0
hadoop的map/reduce中支持对key进行分区,从而让map出来的数据均匀分布在reduce上,当然,有时候由于机器间配置问题,可能不需要数据均匀,这时候也能派上用场。
框架自带了一个默认的分区类,HashPartitioner,先看看这个类,就知道怎么自定义key分区了。
public class HashPartitioner<K, V> extends Partitioner<K, V> {
/** Use {@link Object#hashCode()} to partition. */
public int getPartition(K key, V value,
int numReduceTasks) {
return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;
}
}
很简单,继承Partitioner即可。
先解释一下这个HashPartitioner做的事情
(key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;
将key均匀分布在ReduceTasks上,举例如果Key为Text的话,Text的hashcode方法跟String的基本一致,都是采用的Horner公式计算,得到一个int,string太大的话这个int值可能会溢出变成负数,所以与上Integer.MAX_VALUE(即0111111111111111),然后再对reduce个数取余,这样就可以让key均匀分布在reduce上。
这个简单算法得到的结果可能不均匀,因为key毕竟不会那么线性连续,这时候可以自己写个测试类,计算出最优的hash算法。
PS:hadoop框架本身包含了一些跟hash算法相关的数学之美,比如布隆过滤器(BloomFilter),写好hash函数是关键。
Partitioner
首先需要继承自Partitioner类(在0.19中为Partitioner接口),并重载它的getPartition方法:
- publicstaticclassCatPartitionerextendsPartitioner<Text,Text>{
-
@Override
-
publicintgetPartition(Textkey,Textvalue,intnumPartitions){
-
String[]parts=key.toString().split("-");
-
if(parts.length==2){
-
returnMath.abs(parts[0].hashCode())%numPartitions;
- }
-
returnMath.abs(key.toString().hashCode())%numPartitions;
- }
- }
然后在job配置中设置Partitioner Class:
分享到:
相关推荐
Hadoop 自定义 Partitioner 实现
Hadoop 自定义 Partitioner 实现
其中,Partitioner 是 Hadoop MapReduce 框架中的关键组件,它负责决定 map 函数产生的中间键值对(key-value pairs)应被哪些 reduce task 处理。自定义 Partitioner 允许用户根据业务需求定制键的分发策略,从而...
在Hadoop MapReduce框架中,Partitioner、SortComparator和GroupingComparator是三个至关重要的组件,它们共同决定了数据如何被分发、排序以及分组,从而影响到整个MapReduce作业的性能和结果的正确性。接下来,我们...
这个名为"Partitioner.zip"的压缩包很可能包含了关于Hadoop MapReduce Partitioner的相关资料或实现代码。 Partitioner在Hadoop MapReduce的工作流程中主要负责将Map阶段产生的中间键值对分发到各个Reduce任务中去...
4. **MapReduce编程**:理解Map函数和Reduce函数的实现,以及Combiner、Partitioner和Reducer的角色。编写Java MapReduce程序,并学习如何优化性能,如使用CombineReducer和本地化数据处理。 5. **HDFS操作**:文件...
7. **扩展性与插件开发**:学习如何为Hadoop开发自定义InputFormat、OutputFormat、Partitioner、Combiner等组件。 8. **实战项目**:结合实际案例,运用所学知识解决大数据处理问题,如日志分析、推荐系统等。 ...
3. **hadoop-mapreduce-client**: 提供了MapReduce编程接口,包括JobClient、Mapper、Reducer和Partitioner等类。 4. **hadoop-yarn**: YARN(Yet Another Resource Negotiator)是Hadoop的资源管理系统,负责集群...
同时,MapReduce的编程模型,如Mapper、Reducer、Partitioner、Combiner等,都在这个版本的源码中体现。 3. **YARN**:YARN是Hadoop 2.x引入的重要变化,它将资源管理和任务调度从MapReduce中分离出来,使得Hadoop...
5. **MapReduce编程**:理解MapReduce的工作流程,如何编写Mapper和Reducer类,以及Partitioner、Combiner的概念。Map阶段对数据进行切分和处理,Reduce阶段进行聚合和结果生成。 6. **YARN(Yet Another Resource ...
5. **Hadoop MapReduce编程模型**:深入理解MapReduce的生命周期,包括map阶段、shuffle阶段和reduce阶段,以及Combiner和Partitioner的作用。 6. **Hadoop数据流**:学习数据是如何从输入源经过map任务,shuffle...
同时,源码包也方便了开发者进行扩展和优化,例如自定义InputFormat、OutputFormat、Partitioner、Reducer等,以适应特定的业务需求。 此外,由于这个源码包是基于Maven结构生成的,所以它应该包含了所有依赖项的...
1. Hadoop的MapReduce编程模型,包括InputFormat、Mapper、Partitioner、Reducer和OutputFormat等组件的作用。 2. Java的IO流和序列化,因为数据需要在网络间传输和持久化。 3. 分布式计算中的数据分区和排序,这...
10. Partitioner:Partitioner的作用是将key均匀分布到不同的ReduceTask上,以优化并行计算。 11. Zookeeper角色:Zookeeper集群包含Leader、Follower和Observer三种角色,用于分布式协调。 12. Znode类型:...
《Hadoop Real-World Solutions Cookbook 源代码》是一本针对Hadoop实际应用问题解决方案的实战指南,书中通过丰富的示例代码帮助读者理解和解决在大数据处理中遇到的各种挑战。源代码包含了书中各个章节的关键实现...
3. **MapReduce编程模型**:深入理解Map函数和Reduce函数的工作原理,以及Combiner和Partitioner的角色。编写Java MapReduce程序,实现自定义Mapper和Reducer类。 4. **YARN资源管理**:了解下一代JobTracker——...
- 通过继承`org.apache.hadoop.mapreduce.Partitioner`类来自定义分区策略。 #### 四、安全性和权限控制 - **ACL访问控制**: - `hadoop fs -setacl <aclspec> <path>`:设置ACL权限。 - `hadoop fs -getfacl ...
$ hadoop jar hadoop-streaming.jar -partitioner org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner -mapper mymapper -reducer myreducer -input input -output output ``` 这里 `org.apache.hadoop.mapred...
Hadoop的Java API是开发基于Hadoop分布式计算框架的应用程序的关键工具。Hadoop是一个开源框架,主要用于处理和存储大量数据,特别适合大数据分析任务。它提供了高度可扩展性和容错性,使得数据处理能够在分布式集群...
你可能会看到如何处理文本数据、CSV数据或其他结构化数据的示例,以及如何自定义Partitioner、Combiner和OutputFormat。 4. **数据分桶与分区**:源代码可能涉及到如何根据特定键值进行数据分区,以优化数据的分布...