`
zc985552943
  • 浏览: 291412 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
Babe4ca6-5e6f-33aa-9078-762ee3ccfb7e
云计算--hadoop
浏览量:11892
5e98c2c1-2a82-3388-bc80-7fca0170bb12
redis解说
浏览量:27202
088014c7-4d3f-39ce-b72e-4ebe7046a134
MongoDB读书笔记
浏览量:16041
D2b74847-c860-3e26-96fe-3fa4498d6348
Maven读书笔记
浏览量:27288
688db20f-402d-3a1d-8188-d6153d6c7465
Java通信
浏览量:13694
社区版块
存档分类
最新评论

007_hadoop中MapReduce应用案例_1_数据去重

阅读更多

前面介绍了复杂的MapReduce Job流在实际中的应用方法:006_hadoop中MapReduce详解_3

这节主要是通过实例来分析MapReduce在实际中的应用,从中得到一些启发,在项目开发中,设计MapReduce往往是比较复杂的。我们先通过简单的实例入手后面慢慢加深。

先简单说一下后面还会出现什么实例吧:

1.数据排序-->partition

2.找隔代关系-->单表关联

3.学生课程-->多表关联

4.好友推荐

5.PageRank

6.倒排序索引

7.最优路径

基本上通过上面的7+1+1=9个实例,我们应该可以基本掌握MapReduce的设计过程。

好了,废话不多说,开始我们这个简单的数据去重的例子

实例描述:有以下两个文件,文件中表示某天,某IP访问了我们的系统这样一个日志。我们当时间和IP相同时,我们将这种相同的数据去掉,只留下一个。文件如下:

 

2014-10-3 10.3.5.19
2014-10-3 10.3.5.19
2014-10-3 10.3.5.18
2014-10-3 10.3.51.19
2014-10-3 10.3.02.19

 

2014-10-3 10.3.5.19
2014-10-4 10.3.5.19
2014-10-3 10.3.5.18
2014-10-5 10.3.51.19
2014-10-5 10.3.02.19

 实例分析:

数据去重,我们知道在Map到Reduce阶段,相同的key会合并在一起。既然如此,我们把整个文件的一行当作Map输出的Key。这样在Map输出进入Reduce事,所有重复的key不就自动合并了吗。这不就达到了我们去重的目标了

实例代码:

package com.sxt.mrtest;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;


/**
 * 
 * @title Uniq
 * @description 去掉重复行
 * @author hadoop
 * @version 
 * @copyright (c) SINOSOFT
 *
 */
public class Uniq {
	public static class UniqMap extends Mapper<LongWritable, Text, Text, Text>{

		@Override
		public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
			context.write(value, new Text(""));
		}
		
	}
	
	public static class UniqReduce extends Reducer<Text, Text, Text, Text>{

		@Override
		public void reduce(Text arg0, Iterable<Text> arg1, Context arg2) throws IOException, InterruptedException {
			arg2.write(arg0, new Text(""));
			
		}
		
	}
	
	public static void main(String[] args) throws Exception {
		Configuration conf = new Configuration();
	    
		//配置作业1
	    Job job = new Job(conf, "Uniq");
	    job.setJarByClass(Uniq.class);
	    job.setMapperClass(UniqMap.class);
	    job.setCombinerClass(UniqReduce.class);
	    job.setReducerClass(UniqReduce.class);
	    job.setOutputKeyClass(Text.class);
	    job.setOutputValueClass(Text.class);
	    FileInputFormat.addInputPath(job, new Path("/user/helloMR/demo1_datadel")); //Map的输入
	    FileOutputFormat.setOutputPath(job, new Path("/user/helloMR/success"));//Reduce的输出
	    System.exit(job.waitForCompletion(true) ? 0 : 1);
	}
}

 

实例数据流程图:



 

 

查看JobTracker状态:http://masterIP:50030/jobtracker.jsp

查看NameNode状态:http://masterIP:50070/dfshealth.jsp

  • 大小: 30.2 KB
分享到:
评论
2 楼 annmi_cai 2016-03-11  
好好学习,天天向上!
1 楼 diyutaizi3721 2015-10-06  
楼主不错 顶个 收了

相关推荐

    MapReduce操作实例-数据去重.pdf

    在这个实例中,我们看到的是一个基于MapReduce的数据去重操作,这个操作在大数据处理中非常常见,尤其是当处理的数据源包含重复记录时。下面将详细解释每个部分的作用。 1. **Mapper类**: 在`DedupMapper`类中,...

    大数据与云计算培训学习资料 Hadoop集群 细细品味Hadoop_第9期_MapReduce初级案例 共43页.pdf

    本文将详细讲解Hadoop集群中的MapReduce初级案例,主要涉及如何利用MapReduce进行数据去重操作。MapReduce是Hadoop分布式计算框架的核心组成部分,它通过将大规模数据处理任务分解为可并行执行的map和reduce任务,...

    mapreduce综合应用案例 - 招聘数据清洗.docx

    ### MapReduce综合应用案例——招聘数据清洗 #### 一、背景 随着互联网技术的迅猛发展,各类在线招聘平台成为连接求职者与企业的桥梁。这些平台不仅提供了海量的招聘信息,也为企业的人才选拔提供了便利。然而,在...

    mapreduce综合应用案例 - 招聘数据清洗.zip

    总的来说,这个MapReduce案例展示了如何利用分布式计算的优势来处理大数据清洗任务,尤其在招聘数据这样复杂且庞大的数据集上,提高效率和准确性。通过对数据的清洗和预处理,可以为后续的分析和决策提供更可靠的...

    基于hadoop的电影行业分析可视化源码+项目说明.zip

    项目包括完整的源码、数据集以及详细的代码注释,非常适合学习Hadoop生态系统及其在数据分析中的应用。本项目使用了Hadoop的多个核心组件,如HDFS(用于大规模数据存储)、MapReduce(用于分布式计算)和Hive(用于...

    MapReduce在招聘数据清洗中的综合应用案例.zip

    《MapReduce在招聘数据清洗中的综合应用案例》 MapReduce是一种分布式计算模型,由Google公司提出,主要用于处理和生成大规模数据集。在这个案例中,我们将深入探讨如何利用MapReduce技术来清洗招聘数据,以实现更...

    MapReduce数据分析实战

    在“MapReduce数据分析实战”中,作者李立松通过自己的经验分享了使用MapReduce进行数据分析的实践案例,尤其是如何通过Hadoop这一开源框架来实施MapReduce计算。 首先,文档提到了单机测试的重要性,这是在集群...

    MapReduce初级案例

    标题中提到的“MapReduce初级案例”指的是Hadoop MapReduce应用中的一个基础案例,它旨在帮助初学者通过实际编程练习掌握MapReduce的基本原理和编程技巧。案例不再局限于WordCount(词频统计)这样的入门级示例,...

    test_mapreduce_java_

    MapReduce是Apache Hadoop的核心组件之一,它为大规模数据集的并行处理提供了一种分布式计算模型。在这个项目中,开发者使用Java编程语言编写MapReduce作业,来处理和清洗数据。 【描述】中的"数据清洗"是数据分析...

    hadoop大数据课程设计

    然后,他们将在Hadoop环境中运行MapReduce程序,对数据进行分布式处理,比如统计、分析等操作。通过这些实践,学生将深入理解大数据处理的流程,提升数据分析和处理能力。 总的来说,这个课程设计涵盖了从数据采集...

    基于Greenplum Hadoop- 分布式平台的大数据解决方案22 - 管理数据(1).zip

    1. **数据导入与导出**:如何将数据从Hadoop HDFS迁移到Greenplum,以及反过来的过程。这通常涉及到ETL(提取、转换、加载)工具,如Pentaho Data Integration或Apache Nifi。 2. **数据整合**:在分布式环境中,...

    电信数据清洗案例:基于MapReduce框架的数据预处理方法

    内容概要:本文详细介绍了利用MapReduce框架对电信数据进行清洗的具体流程和技术细节。首先概述了数据清洗的目标,包括过滤无效记录、标准化数据格式和删除重复记录。接着逐步讲解了MapReduce的各个阶段:Map阶段...

    基于hadoop的电商销售预测分析系统HDFS+MapReduce+springboot报告文档

    系统采用HDFS(Hadoop Distributed File System)作为分布式存储层,MapReduce作为计算引擎,SpringBoot作为后端开发框架,构建了一个高效、可扩展的数据处理和应用服务系统。 二、需求分析 2.1、用户进行管理 系统...

    基于HadoopSpark奥运会奖牌变化大数据分析实现源码.zip

    1. **Hadoop生态系统**:包括HDFS(Hadoop Distributed File System)用于存储大规模数据,MapReduce用于分布式计算,以及YARN作为资源管理器。 2. **Spark组件**:如Spark Core提供基础架构,Spark SQL用于SQL查询...

    hadoop系列教程9

    描述中提到的“hadoop系列教程详细讲解hadoop的安装和实例讲解,包括HDFS和MapReduce的实例”,意味着本教程将覆盖Hadoop的基础知识,重点在于Hadoop分布式文件系统(HDFS)和MapReduce编程模型的具体应用和案例分析...

Global site tag (gtag.js) - Google Analytics