前面介绍了复杂的MapReduce Job流在实际中的应用方法:006_hadoop中MapReduce详解_3
这节主要是通过实例来分析MapReduce在实际中的应用,从中得到一些启发,在项目开发中,设计MapReduce往往是比较复杂的。我们先通过简单的实例入手后面慢慢加深。
先简单说一下后面还会出现什么实例吧:
1.数据排序-->partition
2.找隔代关系-->单表关联
3.学生课程-->多表关联
4.好友推荐
5.PageRank
6.倒排序索引
7.最优路径
基本上通过上面的7+1+1=9个实例,我们应该可以基本掌握MapReduce的设计过程。
好了,废话不多说,开始我们这个简单的数据去重的例子
实例描述:有以下两个文件,文件中表示某天,某IP访问了我们的系统这样一个日志。我们当时间和IP相同时,我们将这种相同的数据去掉,只留下一个。文件如下:
2014-10-3 10.3.5.19 2014-10-3 10.3.5.19 2014-10-3 10.3.5.18 2014-10-3 10.3.51.19 2014-10-3 10.3.02.19
2014-10-3 10.3.5.19 2014-10-4 10.3.5.19 2014-10-3 10.3.5.18 2014-10-5 10.3.51.19 2014-10-5 10.3.02.19
实例分析:
数据去重,我们知道在Map到Reduce阶段,相同的key会合并在一起。既然如此,我们把整个文件的一行当作Map输出的Key。这样在Map输出进入Reduce事,所有重复的key不就自动合并了吗。这不就达到了我们去重的目标了
实例代码:
package com.sxt.mrtest; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; /** * * @title Uniq * @description 去掉重复行 * @author hadoop * @version * @copyright (c) SINOSOFT * */ public class Uniq { public static class UniqMap extends Mapper<LongWritable, Text, Text, Text>{ @Override public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { context.write(value, new Text("")); } } public static class UniqReduce extends Reducer<Text, Text, Text, Text>{ @Override public void reduce(Text arg0, Iterable<Text> arg1, Context arg2) throws IOException, InterruptedException { arg2.write(arg0, new Text("")); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); //配置作业1 Job job = new Job(conf, "Uniq"); job.setJarByClass(Uniq.class); job.setMapperClass(UniqMap.class); job.setCombinerClass(UniqReduce.class); job.setReducerClass(UniqReduce.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(Text.class); FileInputFormat.addInputPath(job, new Path("/user/helloMR/demo1_datadel")); //Map的输入 FileOutputFormat.setOutputPath(job, new Path("/user/helloMR/success"));//Reduce的输出 System.exit(job.waitForCompletion(true) ? 0 : 1); } }
实例数据流程图:
查看JobTracker状态:http://masterIP:50030/jobtracker.jsp
查看NameNode状态:http://masterIP:50070/dfshealth.jsp
相关推荐
在这个实例中,我们看到的是一个基于MapReduce的数据去重操作,这个操作在大数据处理中非常常见,尤其是当处理的数据源包含重复记录时。下面将详细解释每个部分的作用。 1. **Mapper类**: 在`DedupMapper`类中,...
本文将详细讲解Hadoop集群中的MapReduce初级案例,主要涉及如何利用MapReduce进行数据去重操作。MapReduce是Hadoop分布式计算框架的核心组成部分,它通过将大规模数据处理任务分解为可并行执行的map和reduce任务,...
### MapReduce综合应用案例——招聘数据清洗 #### 一、背景 随着互联网技术的迅猛发展,各类在线招聘平台成为连接求职者与企业的桥梁。这些平台不仅提供了海量的招聘信息,也为企业的人才选拔提供了便利。然而,在...
总的来说,这个MapReduce案例展示了如何利用分布式计算的优势来处理大数据清洗任务,尤其在招聘数据这样复杂且庞大的数据集上,提高效率和准确性。通过对数据的清洗和预处理,可以为后续的分析和决策提供更可靠的...
项目包括完整的源码、数据集以及详细的代码注释,非常适合学习Hadoop生态系统及其在数据分析中的应用。本项目使用了Hadoop的多个核心组件,如HDFS(用于大规模数据存储)、MapReduce(用于分布式计算)和Hive(用于...
《MapReduce在招聘数据清洗中的综合应用案例》 MapReduce是一种分布式计算模型,由Google公司提出,主要用于处理和生成大规模数据集。在这个案例中,我们将深入探讨如何利用MapReduce技术来清洗招聘数据,以实现更...
在“MapReduce数据分析实战”中,作者李立松通过自己的经验分享了使用MapReduce进行数据分析的实践案例,尤其是如何通过Hadoop这一开源框架来实施MapReduce计算。 首先,文档提到了单机测试的重要性,这是在集群...
标题中提到的“MapReduce初级案例”指的是Hadoop MapReduce应用中的一个基础案例,它旨在帮助初学者通过实际编程练习掌握MapReduce的基本原理和编程技巧。案例不再局限于WordCount(词频统计)这样的入门级示例,...
MapReduce是Apache Hadoop的核心组件之一,它为大规模数据集的并行处理提供了一种分布式计算模型。在这个项目中,开发者使用Java编程语言编写MapReduce作业,来处理和清洗数据。 【描述】中的"数据清洗"是数据分析...
然后,他们将在Hadoop环境中运行MapReduce程序,对数据进行分布式处理,比如统计、分析等操作。通过这些实践,学生将深入理解大数据处理的流程,提升数据分析和处理能力。 总的来说,这个课程设计涵盖了从数据采集...
1. **数据导入与导出**:如何将数据从Hadoop HDFS迁移到Greenplum,以及反过来的过程。这通常涉及到ETL(提取、转换、加载)工具,如Pentaho Data Integration或Apache Nifi。 2. **数据整合**:在分布式环境中,...
内容概要:本文详细介绍了利用MapReduce框架对电信数据进行清洗的具体流程和技术细节。首先概述了数据清洗的目标,包括过滤无效记录、标准化数据格式和删除重复记录。接着逐步讲解了MapReduce的各个阶段:Map阶段...
系统采用HDFS(Hadoop Distributed File System)作为分布式存储层,MapReduce作为计算引擎,SpringBoot作为后端开发框架,构建了一个高效、可扩展的数据处理和应用服务系统。 二、需求分析 2.1、用户进行管理 系统...
1. **Hadoop生态系统**:包括HDFS(Hadoop Distributed File System)用于存储大规模数据,MapReduce用于分布式计算,以及YARN作为资源管理器。 2. **Spark组件**:如Spark Core提供基础架构,Spark SQL用于SQL查询...
描述中提到的“hadoop系列教程详细讲解hadoop的安装和实例讲解,包括HDFS和MapReduce的实例”,意味着本教程将覆盖Hadoop的基础知识,重点在于Hadoop分布式文件系统(HDFS)和MapReduce编程模型的具体应用和案例分析...