`
字母哥
  • 浏览: 70135 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop处理前N个最值问题

阅读更多
例子为100W 条数据 取出前十个最值(纯本人看完课程后的手写,没有参考网上,结果应该没问题的,也没找到标准答案写法。。)

首先,由于值都是double,默认的排序方式是升序,这里面我们取得是降序,所以自定义hadoop对象,并实现WritableComparable接口,然后覆盖compareTo方法。
class MySuperKey implements WritableComparable<MySuperKey>{
	Long mykey;
	public MySuperKey(){
		
	}
	
	public MySuperKey(long mykey){
		this.mykey=mykey;
	}
	@Override
	public void readFields(DataInput in) throws IOException {
		this.mykey=in.readLong();
	}

	@Override
	public void write(DataOutput out) throws IOException {
		out.writeLong(this.mykey);
	}

	
	
	@Override
	public int hashCode() {
		// TODO Auto-generated method stub
		return this.mykey.hashCode();
	}
	
	@Override
	public boolean equals(Object obj) {
		if(! (obj instanceof LongWritable)){
			return false;
		}
		LongWritable lvv=(LongWritable)obj;
		return (this.mykey==lvv.get());
	}

	@Override
	public int compareTo(MySuperKey o) {	
		return ((int)(o.mykey-this.mykey));
	}
}


由于在map函数中执行后 需要对相同的key值进行分组,但对于自己创建的对象,无法判断是否是相同的,hadoop基础类型是可以的,此时,需要实现RawComparator接口,并覆盖compare方法,并在job执行的时候,加上
job.setGroupingComparatorClass(MyGroupingComparator.class);

下面是自定义的分组对象
class MyGroupingComparator implements RawComparator<MySuperKey>{

	@Override
	public int compare(MySuperKey o1, MySuperKey o2) {
		return (int)(o1.mykey-o2.mykey);
	}

	@Override
	public int compare(byte[] arg0, int arg1, int arg2, byte[] arg3, int arg4,
			int arg5) {
		return WritableComparator.compareBytes(arg0, arg1, 8, arg3, arg4, 8);
	}	
}


下面覆盖map和reduce方法
class mysuperMap extends Mapper<LongWritable,Text,MySuperKey,NullWritable>{
	protected void map(LongWritable key, Text value, org.apache.hadoop.mapreduce.Mapper<LongWritable,Text,MySuperKey,NullWritable>.Context context) throws IOException ,InterruptedException {
		long sdsd=Long.parseLong(value.toString());
		MySuperKey my=new MySuperKey(sdsd);
		context.write(my,NullWritable.get());
	};
}

class mysupderreduace extends Reducer<MySuperKey, NullWritable, LongWritable, NullWritable>{
	int i=0;
	protected void reduce(MySuperKey key, java.lang.Iterable<NullWritable> value, org.apache.hadoop.mapreduce.Reducer<MySuperKey,NullWritable,LongWritable,NullWritable>.Context arg2) throws IOException ,InterruptedException {
		i=i+1;
		if(i<11){
			arg2.write(new LongWritable(key.mykey), NullWritable.get());
		}
	};
}

下面写main函数 ,执行job
public static void main(String[] args) throws Exception {
		final String INPUT_PATHs = "hdfs://chaoren:9000/seq100w.txt";
		final String OUT_PATHs = "hdfs://chaoren:9000/out";
		Job job=new Job(new Configuration(),MySuper.class.getSimpleName());
		FileInputFormat.setInputPaths(job, INPUT_PATHs);
		job.setInputFormatClass(TextInputFormat.class);
		
		job.setMapperClass(mysuperMap.class);
		job.setMapOutputKeyClass(MySuperKey.class);
		job.setMapOutputValueClass(NullWritable.class);
		
		//1.3 指定分区类
		job.setPartitionerClass(HashPartitioner.class);
		job.setNumReduceTasks(1);
		
		
		//指定分组
		job.setGroupingComparatorClass(MyGroupingComparator.class);
		
		job.setReducerClass(mysupderreduace.class);
		job.setOutputKeyClass(LongWritable.class);
		job.setOutputValueClass(NullWritable.class);
		
		FileOutputFormat.setOutputPath(job,new Path(OUT_PATHs));
		job.setOutputFormatClass(TextOutputFormat.class);
		
		job.waitForCompletion(true);
	}
0
0
分享到:
评论

相关推荐

    第四章(Hadoop大数据处理实战)Hadoop分布式文件系统.pdf

    第四章(Hadoop大数据处理实战)Hadoop分布式文件系统.pdf第四章(Hadoop大数据处理实战)Hadoop分布式文件系统.pdf第四章(Hadoop大数据处理实战)Hadoop分布式文件系统.pdf第四章(Hadoop大数据处理实战)Hadoop分布式文件...

    《Hadoop海量数据处理》高清完整PDF版

    本书《Hadoop海量数据处理》是一本专注于Hadoop技术的专业技术书籍,旨在向读者介绍Hadoop生态系统的关键组件、核心概念以及在处理海量数据时的应用方法。全书分为基础篇、应用篇和总结篇三个部分,全面涵盖了Hadoop...

    hadoop中文乱码问题

    在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储(HDFS)和分布式计算(MapReduce)的能力。然而,在处理包含中文字符的数据时,用户可能会遇到中文乱码的问题。这个问题通常出现在数据读取...

    第五章(Hadoop大数据处理实战)Hadoop的IO操作.pdf

    第五章(Hadoop大数据处理实战)Hadoop的IO操作.pdf第五章(Hadoop大数据处理实战)Hadoop的IO操作.pdf第五章(Hadoop大数据处理实战)Hadoop的IO操作.pdf第五章(Hadoop大数据处理实战)Hadoop的IO操作.pdf第五章(Hadoop大...

    Hadoop使用常见问题以及解决方法

    Hadoop 作为一个大数据处理的开源框架,广泛应用于数据存储、处理和分析等领域。但是在使用 Hadoop 时,经常会遇到一些常见的问题,本文将对这些问题进行总结和解决。 Shuffle Error: Exceeded MAX_FAILED_UNIQUE_...

    hadoop几个实例

    总的来说,这个压缩包中的Hadoop实例将为初学者提供宝贵的实践经验,帮助他们理解如何在实际项目中运用Hadoop处理大数据问题。通过深入研究这些案例,开发者可以更好地掌握Hadoop的核心原理,并具备解决实际问题的...

    第二章(Hadoop大数据处理实战)搭建Hadoop分布式集群.pdf

    第二章(Hadoop大数据处理实战)搭建Hadoop分布式集群.pdf第二章(Hadoop大数据处理实战)搭建Hadoop分布式集群.pdf第二章(Hadoop大数据处理实战)搭建Hadoop分布式集群.pdf第二章(Hadoop大数据处理实战)搭建Hadoop分布式...

    4703031《Hadoop大数据处理实战》(康开锋)423-1资源包.rar

    1. **Hadoop概述**:Hadoop是Apache基金会开发的一个开源框架,用于存储和处理大规模数据。它主要由HDFS(Hadoop Distributed File System)和MapReduce两部分组成,支持分布式计算。 2. **HDFS**:HDFS是Hadoop的...

    基于hadoop搜索引擎 在线处理

    在IT领域,尤其是在大数据处理和分析的范畴内,Hadoop是一个至关重要的开源框架。这个项目“基于Hadoop搜索引擎在线处理”旨在演示如何将Hadoop与Web应用相结合,以实现大规模数据的实时或近实时搜索功能。以下是...

    hadoop海量数据处理详解与项目实战

    在描述中提到的“项目实战”可能意味着通过实际案例来学习和理解如何应用Hadoop技术解决具体的海量数据处理问题。这通常包括以下步骤: 1. 数据的采集和导入到HDFS。 2. 使用MapReduce进行数据预处理和分析。 3. ...

    hadoop2.7.3 Winutils.exe hadoop.dll

    在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。Hadoop 2.7.3是这个框架的一个稳定版本,它包含了多个改进和优化,以提高性能和稳定性。在这个版本中,Winutils.exe和hadoop.dll是两...

    基于hadoop实现输出出现频率最高的20个词

    根据提供的信息,我们可以深入探讨如何使用Hadoop MapReduce框架实现找出文本中出现频率最高的前N个词的问题。这里主要关注的是使用新API并通过多Job级联的方式来实现这一目标。 ### 一、理解问题 首先,我们需要...

    基于物联网服务平台的海量传感信息Hadoop处理方法和系统设计

    基于物联网服务平台的海量传感信息Hadoop处理方法和系统设计

    Hadoop大数据处理技术基础与实践(第2版)(微课版)PPT-课件.rar

    《Hadoop大数据处理技术基础与实践(第2版)(微课版)PPT-课件》是一个关于Hadoop在大数据处理领域的核心课程资源。这个压缩包包含了丰富的教学资料,帮助学习者深入理解和掌握Hadoop生态系统的核心概念和技术。...

    基于hadoop搜索引擎 离线处理程序

    在IT领域,尤其是在大数据处理和搜索引擎技术中,Hadoop是一个至关重要的工具。本文将深入探讨基于Hadoop的搜索引擎离线处理程序,以及其中涉及的主要组件和技术。 首先,我们要理解Hadoop是什么。Hadoop是一个开源...

    hadoop海量数据处理.pdf

    Hadoop是Apache软件基金会开发的一个开源项目,旨在提供分布式、容错性强的系统,用于存储和处理海量数据。这个框架的核心由两个主要组件构成:HDFS(Hadoop Distributed File System)和MapReduce。 HDFS是一种...

    Hadoop的小图片处理技术及其在人脸特征提取上的应用

    在大数据处理领域,Hadoop作为一个分布式计算框架,其在处理大量数据方面表现出强大的能力。而随着互联网和社交媒体的发展,小图片处理技术变得越来越重要,尤其是在人脸识别等计算机视觉应用中。本文将深入探讨...

    Hadoop海量文本处理2

    Hadoop海量文本处理2

    hadoop的dll文件 hadoop.zip

    Hadoop是一个开源的分布式计算框架,由Apache基金会开发,它主要设计用于处理和存储大量数据。在提供的信息中,我们关注的是"Hadoop的dll文件",这是一个动态链接库(DLL)文件,通常在Windows操作系统中使用,用于...

    Hadoop1.0&2.0快速入门

    Hadoop的技术原理主要基于MapReduce编程模型,其核心思想是通过Map和Reduce两个操作来简化并行处理的复杂性。在Hadoop 2.0中,YARN的引入进一步抽象了资源管理和任务调度的细节,用户可以更加专注于他们的应用程序而...

Global site tag (gtag.js) - Google Analytics