`

hadoop mapreduce单表关联

阅读更多
例如给出表child-parent表,要求输出grandchildren-grandparent表
给出:
child parent
Tom Lucy
Tom Jack
Jone Lucy
Jone Jack
Lucy Mary
Lucy Ben
Jack Alice
Jack Jesse
 
输出:
Tom Alice
Tom Jesse
Jone Alice
Jone Jesse
Tom Mary
Tom Ben
Jone Mary
Jone Ben
 
分析:这是一个单表连接的问题,把child-parent表当作数据库表child为主键,parent为外键的关系,问题变为单表连接的问题。我们利用MapReduce模型来解决这样的问题,左边的key为parent值,而value为左边的标志+child,而右表的key为child值,value为右表标志+parent值。具体的实现如下:

import java.io.IOException;
import java.util.Iterator;
 
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;
 
public class SingletonTableJoin02 extends Configured implements Tool {
 
public static class MapClass extends Mapper<LongWritable, Text, Text, Text> {
 
public void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException {
String childName = new String();
String parentName = new String();
String relationType = new String();
String line = value.toString();
String[] values = line.split(" ");
if (values[0].compareTo("child") != 0) {
childName = values[0];
parentName = values[1];
relationType = "1";// 左表标志
context.write(new Text(parentName), new Text(relationType + " "
+ childName));
relationType = "2";// 右表标志
context.write(new Text(childName), new Text(relationType + " "
+parentName));
}
}
}
 
public static class ReduceClass extends Reducer<Text, Text, Text, Text> {
 
public void reduce(Text key, Iterable<Text> values, Context context)
throws IOException, InterruptedException {
String[] grandChild = new String[10];// 存放孙子的数组
int grandChildNum = 0;
String[] grandParent = new String[10];
int grandParentNum = 0;
Iterator<Text> it = values.iterator();
while (it.hasNext()) {
String[] record = it.next().toString().split(" ");
if(record.length==0) continue;
if (record[0].equals("1")) {//孙子放到一个数组里
grandChild[grandChildNum] = record[1];
grandChildNum++;
} else {//祖辈放到另外一个数组中
grandParent[grandParentNum] = record[1];
grandParentNum++;
}
}
if (grandChildNum != 0 && grandParentNum != 0) {//两个数组的X值为grandChild-grandParent关系
for (int i = 0; i < grandChildNum; i++) {
for (int j = 0; j < grandParentNum; j++) {
context.write(new Text(grandChild[i]), new Text(
grandParent[j]));
}
}
}
}
}
 
@Override
public int run(String[] args) throws Exception {
Configuration conf = getConf();
Job job = new Job(conf, "SingletonTableJoinJob02");
job.setJarByClass(SingletonTableJoin02.class);
 
FileInputFormat.setInputPaths(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
 
job.setMapperClass(MapClass.class);
//job.setCombinerClass(ReduceClass.class);
job.setReducerClass(ReduceClass.class);
 
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);
 
System.exit(job.waitForCompletion(true) ? 0 : 1);
 
return 0;
}
 
public static void main(String[] args) throws Exception {
int res = ToolRunner.run(new Configuration(), new SingletonTableJoin02(),
args);
 
System.exit(res);
}
}
 
这样就可以实现类型数据库表间的操作了,其实Hive也是利用MapReduce操作实现的
分享到:
评论

相关推荐

    hadoop mapreduce多表关联join多个job相互依赖传递参数

    在Hadoop MapReduce环境中,处理大数据时经常遇到多表关联(Join)的需求,尤其是在复杂的业务逻辑中。MapReduce提供了一种分布式计算模型,能够高效地处理大规模数据集,但面对多表关联,尤其是多个Job之间的依赖和...

    Hadoop MapReduce实战手册(完整版)

    《Hadoop MapReduce实战手册》是一本专注于大数据处理技术的专著,主要针对Apache Hadoop中的MapReduce框架进行了深入的探讨。MapReduce是Hadoop生态系统中的核心组件之一,用于处理和生成大规模数据集。该书旨在...

    基于Apriori算法的频繁项集Hadoop mapreduce

    总结起来,"基于Apriori算法的频繁项集Hadoop mapreduce"是一个利用大数据处理框架Hadoop的MapReduce模型,高效地执行经典数据挖掘算法Apriori的过程,旨在发现大规模数据集中的频繁项集和关联规则,为商业智能、...

    Hadoop mapreduce. 基于ItemCF的协同过滤 物品推荐系统.zip

    【标题】:“Hadoop MapReduce实现基于ItemCF的协同过滤物品推荐系统” 在这个项目中,我们探讨了如何利用Hadoop MapReduce框架来构建一个基于Item-Based Collaborative Filtering(ItemCF)的物品推荐系统。这是一...

    基于Apriori算法的频繁项集Hadoop mapreduce.rar

    Apriori算法是一种在数据库中寻找频繁项集的关联规则学习算法,而Hadoop MapReduce则是一个分布式计算框架,常用于处理海量数据。 首先,我们需要理解Apriori算法的基本原理。Apriori算法是由R. Agrawal和R. ...

    基于Hadoop MapReduce的电商网站商品数据分析.rar

    在大数据处理领域,Hadoop MapReduce是一个至关重要的技术框架,尤其在电商网站的商品数据分析中扮演着核心角色。MapReduce的设计理念是将大规模数据处理任务分解为两个主要阶段:Map(映射)和Reduce(化简),以此...

    Hadoop MapReduce Cookbook

    从提供的文件信息中,我们可以提取以下关于《Hadoop MapReduce Cookbook》这本书的知识点: 1. Hadoop MapReduce和HDFS的安装:本书将指导读者如何安装Hadoop MapReduce和Hadoop分布式文件系统(HDFS),以便开始...

    基于Hadoop MapReduce的招聘信息数据分析项目代码+数据集.rar

    在这个基于Hadoop MapReduce的招聘信息数据分析项目中,我们聚焦于利用大数据处理技术对海量的招聘信息进行深入挖掘,以获取有价值的职业市场洞察。Hadoop MapReduce是Apache Hadoop框架中的核心组件,它允许开发者...

    SEARUM:Hadoop MapReduce 关联规则挖掘实现

    海尔姆关联规则挖掘技术的 Hadoop MapReduce 实现。描述并行 FP-Growth 和关联规则挖掘 MapReduce 实现。 它运行 PFPGrowth 的每个阶段,如论文中所述,如论文中所述,针对 SEARUM 进行修改并与 SEARUM 集成 。 注意...

    基于mapreduce的小型电影推荐系统

    MapReduce是大数据处理的一种核心工具,常与Hadoop生态系统一起使用,能高效地处理大规模数据。MySQL作为关系型数据库,用于存储用户信息、电影数据以及用户行为记录。JSP(JavaServer Pages)则用于生成动态网页,...

    大数据与云计算培训学习资料 Hadoop的MapReduce中多文件输出 共9页.pdf

    【大数据与云计算培训学习资料 Hadoop的MapReduce中多文件输出】 MapReduce是Hadoop框架的核心部分,主要用于处理大规模数据的分布式计算。在默认情况下,MapReduce任务的输出是一个单一的文件,由TextOutputFormat...

    Hadoop-MapReduce-Java-:使用Hadoop MapReduce的Amazon Data Miner Analyzer示例

    7. **数据挖掘与分析**: 在这个特定示例中,我们可能在MapReduce程序中集成了一些数据挖掘算法,例如分类、聚类或关联规则挖掘。这些算法可以帮助我们从海量数据中发现有价值的信息和模式。 通过深入研究这个...

    Hadoop技术内幕深入解析MapReduce架构设计与实现原理

    从提供的【部分内容】来看,虽然该部分没有直接关联到Hadoop和MapReduce的具体技术细节,而是重复叙述了Linux公社网站(***)的相关信息,并没有深入探讨技术内幕,但是它提供了一个宝贵的上下文信息。文档可能出现...

    Hadoop-MapReduce-Cookbook-Example-Code:Hadoop MapReduce Cookbook 示例代码

    《Hadoop MapReduce Cookbook》是一本专注于Hadoop MapReduce技术实践的书籍,其附带的示例代码旨在帮助读者深入理解和应用MapReduce编程模型。在这个压缩包中,我们看到的是书中的实例代码,名为“Hadoop-MapReduce...

    Hadoop的分割程序的例子。程序显示我们如何在Hadoop的MapReduce程序使用一个分区.zip

    在Hadoop生态系统中,MapReduce是一种分布式计算框架,用于处理和生成大数据集。在这个场景中,我们关注的是“Hadoop的分割程序”或Partitioner,它在MapReduce作业中扮演着关键角色。Partitioner决定了map任务的...

    Python_Hadoop_MapReduce_MarketBasketAnalysis:在Python中使用Hadoop MapReduce进行市场分析

    在大数据处理领域,Python与Hadoop MapReduce的结合应用已经成为了一种常见的技术手段。市场篮子分析(Market Basket Analysis)是数据挖掘中的一个重要概念,它主要用于发现顾客购物行为中的关联规则,例如“如果...

Global site tag (gtag.js) - Google Analytics