上一篇介绍了
Repartition Join
的基本思想,实践出真知,具体的实现中总是存在各种细节问题。下面我们通过具体的源码分析来加深理解。本文分析的是
Hadoop-0.20.2
版本的
datajoin
代码,其它版本也许会有变化,这里暂且不论。
参看源码目录下,共实现有
7
个类,分别是:
-
ArrayListBackIterator.java
-
DataJoinJob.java
-
DataJoinMapperBase.java
-
DataJoinReducerBase.java
-
JobBase.java
-
ResetableIterator.java
-
TaggedMapOutput.java
源码比较简单,代码量小,下面对一些关键的地方进行分析:前面我们提到了
map
阶段的输出的
key
值的设定;然而在实现中,其value值也是另外一个需要考虑的地方,在不同的
reduce
结点进行
join
操作时,需要知道参与
join
的元组所属的表;解决方法是在
map
输出的
value
值中加入一个标记
(tag)
,例如上一篇例子中两表的
tag
可以分别
customer
和
order
(注:实际上,在reduce阶段可以直接分析两元组的结构就可以确定数据来源)。这也是
TaggedMapOutput.java
的来历。作为
Hadoop
的中间数据,必须实现
Writable
的方法,如下所示:
public abstract class TaggedMapOutput implements Writable {
protected Text tag;
public TaggedMapOutput() {
this.tag = new Text("");
}
public Text getTag() {
return tag;
}
public void setTag(Text tag) {
this.tag = tag;
}
public abstract Writable getData();
public TaggedMapOutput clone(JobConf job) {
return (TaggedMapOutput) WritableUtils.clone(this, job);
}
}
接下来,我们看看
DataJoinMapperBase
中的相关方法
protected abstract TaggedMapOutput generateTaggedMapOutput(Object value);
protected abstract Text generateGroupKey(TaggedMapOutput aRecord);
以上两个方法需要由子类实现。上一篇文章提到,将两个表的连接键作为
map
输出的
key
值,其中第二个方法所做的就是这件事,生成一个类型为
Text
的
key
,不过这里是将它称作是
GroupKey
而已。因此
map
方法也就比较简单易懂了
public void map(Object key, Object value, OutputCollector output,
Reporter reporter) throws IOException {
if (this.reporter == null) {
this.reporter = reporter;
}
addLongValue("totalCount", 1);
TaggedMapOutput aRecord = generateTaggedMapOutput(value);
if (aRecord == null) {
addLongValue("discardedCount", 1);
return;
}
Text groupKey = generateGroupKey(aRecord);
if (groupKey == null) {
addLongValue("nullGroupKeyCount", 1);
return;
}
output.collect(groupKey, aRecord);
addLongValue("collectedCount", 1);
}
说完了
map
操作,接下来就是
reduce
阶段的事情了。参看
DataJoinReducerBase
这个类,其中的
reduce
方法主要部分是:
public void reduce(Object key, Iterator values,
OutputCollector output, Reporter reporter) throws IOException {
if (this.reporter == null) {
this.reporter = reporter;
}
SortedMap<Object, ResetableIterator> groups = regroup(key, values, reporter);
Object[] tags = groups.keySet().toArray();
ResetableIterator[] groupValues = new ResetableIterator[tags.length];
for (int i = 0; i < tags.length; i++) {
groupValues[i] = groups.get(tags[i]);
}
joinAndCollect(tags, groupValues, key, output, reporter);
addLongValue("groupCount", 1);
for (int i = 0; i < tags.length; i++) {
groupValues[i].close();
}
}
其中
groups
数组保存的是
tag
以及它们对应元组的
iterator
。例如
Customer ID
为
3
的数据块所在的
reduce
节点上,
tags = {"Custmoers" , "Orders"}, groupValues
则对应
{"3,Jose
Madriz,281-330-8004"}
和
{"3,A,12.95,02-Jun-2008","3,D,25.02,22-Jan-2009"}
的
iterator
。归根结底,关于两个元组的
join
操作放在
protected abstract TaggedMapOutput combine(Object[] tags, Object[] values);
该方法由子类实现。
下面附上
《
Hadoop in Action
》中提供的一种实现
public class DataJoin extends Confi gured implements Tool {
public static class MapClass extends DataJoinMapperBase {
protected Text generateInputTag(String inputFile) {
String datasource = inputFile.split(“-”)[0];
return new Text(datasource);
}
protected Text generateGroupKey(TaggedMapOutput aRecord) {
String line = ((Text) aRecord.getData()).toString();
String[] tokens = line.split(“,”);
String groupKey = tokens[0];
return new Text(groupKey);
}
protected TaggedMapOutput generateTaggedMapOutput(Object value) {
TaggedWritable retv = new TaggedWritable((Text) value);
retv.setTag(this.inputTag);
return retv;
}
}
public static class Reduce extends DataJoinReducerBase {
protected TaggedMapOutput combine(Object[] tags, Object[] values) {
if (tags.length < 2) return null;
String joinedStr = “”;
for (int i=0; i<values.length; i++) {
if (i > 0) joinedStr += “,”;
TaggedWritable tw = (TaggedWritable) values[i];
String line = ((Text) tw.getData()).toString();
String[] tokens = line.split(“,”, 2);
joinedStr += tokens[1];
}
TaggedWritable retv = new TaggedWritable(new Text(joinedStr));
retv.setTag((Text) tags[0]);
return retv;
}
}
public static class TaggedWritable extends TaggedMapOutput {
private Writable data;
public TaggedWritable(Writable data) {
this.tag = new Text(“”);
this.data = data;
}
public Writable getData() {
return data;
}
public void write(DataOutput out) throws IOException {
this.tag.write(out);
this.data.write(out);
}
public void readFields(DataInput in) throws IOException {
this.tag.readFields(in);
this.data.readFields(in);
}
}
public int run(String[] args) throws Exception {
Confi guration conf = getConf();
JobConf job = new JobConf(conf, DataJoin.class);
Path in = new Path(args[0]);
Path out = new Path(args[1]);
FileInputFormat.setInputPaths(job, in);
FileOutputFormat.setOutputPath(job, out);
job.setJobName(“DataJoin”);
job.setMapperClass(MapClass.class);
job.setReducerClass(Reduce.class);
job.setInputFormat(TextInputFormat.class);
job.setOutputFormat(TextOutputFormat.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(TaggedWritable.class);
job.set(“mapred.textoutputformat.separator”, “,”);
JobClient.runJob(job);
return 0;
}
public static void main(String[] args) throws Exception {
int res = ToolRunner.run(new Confi guration(),
new DataJoin(),
args);
System.exit(res);
}
}
分享到:
相关推荐
其中,Join操作是 MapReduce 中的一种基本操作,用于连接来自不同数据源的数据。今天,我们将讲解 MapReduce 之 MapJoin 和 ReduceJoin 两种 Join 操作的实现原理和应用场景。 MapJoin 概述 MapJoin 是一种特殊的 ...
join是非常常见的操作,各种优化手段已经到了极致。在海量数据的环境下,不可避免的也会碰到这种类型的需求,例如在数据分析时需要连接从不同的数据源中获取到的数据。不同于传统的单机模式,在分布式存储的下采用 ...
总结来说,Map Side Join 和 Reduce Side Join 是 MapReduce 中处理 Join 操作的两种策略,各有优劣。选择哪种方法取决于数据的大小、可用内存以及性能需求。对于大规模数据处理,理解这两种 Join 方式的内在机制和...
基于 MapReduce 的分布式网格概略化 kNN join(DSGMP-J)方法是指将 kNN 连接操作分割成多个小块,并将每个小块分配给多个计算节点。每个计算节点 负责处理一个小块,并将结果返回给中心节点。中心节点 负责将所有计算...
本课程设计主要围绕如何使用Hadoop的MapReduce实现SQL中的统计、GROUP BY和JOIN操作,这是一次深入理解大数据处理机制的实践过程。 首先,让我们来探讨SQL的统计功能。在SQL中,统计通常涉及到COUNT、SUM、AVG、MAX...
在Hadoop MapReduce环境中,处理大数据时经常遇到多表关联(Join)的需求,尤其是在复杂的业务逻辑中。MapReduce提供了一种分布式计算模型,能够高效地处理大规模数据集,但面对多表关联,尤其是多个Job之间的依赖和...
- **Reduce端连接**:在Reduce阶段执行连接操作,将具有相同键的记录组合在一起,适用于JOIN操作。 - **复制连接**:在所有数据上执行连接,即使没有共享键,这通常用于笛卡尔积。 - **组合连接**:结合了多种...
综上所述,MapReduce应用案例文档深入地介绍了MapReduce编程模型在Hadoop生态系统中的实际使用,包括对join操作的细节分析,以及如何搭建Hadoop环境,如何上传和管理测试数据。此外,文档还提供了Hadoop学习资源的...
在Hadoop MapReduce中,数据处理的核心任务之一就是JOIN操作,它相当于关系数据库中的连接操作,用于合并来自不同数据源的相关信息。本文将深入探讨Map JOIN和Reduce JOIN两种在Hadoop中实现JOIN的方法,并通过代码...
13. 使用 MapReduce 实现 Join 操作:使用 MapReduce 来实现数据的 Join 操作,以便将多个数据源合并成一个结果。 14. 使用 MapReduce 实现排序:使用 MapReduce 来实现数据的排序,以便对数据进行排序处理。 15. ...
3. **Map Join**:对于小表,可以采用Map Join策略,减少Reduce阶段的Join操作,降低网络消耗。 Map和Reduce任务的数量也是优化的重点。合理设置它们的数量,避免Task等待和资源竞争: 1. **设置Map和Reduce共存**...
最后是连接(join)操作,虽然标题中并未明确提及,但是连接是MapReduce中的一个重要操作,通常用于将来自不同数据集的记录合并在一起。在MapReduce中,连接操作通常是通过在Map阶段对键进行分组,然后在Reduce阶段...
MapReduce是一种分布式计算模型,由Google在2004年提出,主要用于处理和生成大规模数据集。...在后续的学习中,可以尝试更复杂的MapReduce任务,例如数据清洗、排序、join操作等,进一步提升对大数据处理的理解和技能。
- **关系连接**:探索如何使用MapReduce执行类似于SQL中的JOIN操作。 3. **用于文本检索的倒排索引** - **倒排索引**:解释倒排索引的基本概念及其在文本检索中的作用。 - **基线实现**:给出一个简单的倒排索引...
ODPS支持多种编程模型和范式,其中MapReduce是其核心组件之一。MapReduce是一种分布式计算模型,由Google在2004年提出,被广泛应用于大数据处理。ODPS中的MapReduce不仅继承了Hadoop MapReduce的基本思想,还进行了...
关系联接是数据库中的常见操作,在MapReduce中也有对应的方法实现,包括Reduce-Side Join、Map-Side Join和Memory-Backed Join。这些方法能够实现在分布式环境下的表连接,对于数据集成和分析具有重要意义。 ### ...
这些运算符包括数据源(DataSource)、应用(Apply)、窗口(Window)、选择(Select)、连接(Join)、并集(Union)和排序(Sort)等操作。在LOT之上,还有一个名为伏羲的调度系统,负责调度LOT的任务执行。 为了...