`

hadoop group 自定义分组

 
阅读更多

 

引子:

 

 a) 排序的主要目的是在多数据组成情况下,灵活指定排序规则并展示数据

  eg: <2,4,1>三数据组成的数据集合中,以row1asc , row2 desc, row3 asc方式展示所有结果

 b)分组的主要目的是: 指定好key的分组规则(这个key可以是一个多数据组合成的一个类),

   然后在reduce阶段会按照你指定的key的分组规则来讲对应value放在{}内,以实现你求最大,最小,平均值的目的

 

c)

reduce操作为不同map来源的数据提供了见面的机会,你可以理解为:
多分支的乡村公路是每一个独立的map,每条乡村公路中跑的不同牌子的汽车,乡村公路最后汇集到一个主动脉,国道,reduce是乡村公路交集的高速,只有在这条高速上,才能将所有车辆集合在一起

 

0 目的: row1表示部门号,row2表示部门开支,现在要按照部门号升序方式,展示出当前部门开支最小的结果

 

3,7
1,0
2,1
3,5
1,1
3,1

1 代码:

 

package group;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import java.net.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.RawComparator;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.WritableComparable;
import org.apache.hadoop.io.WritableComparator;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.mapreduce.lib.partition.HashPartitioner;

/**
 * @author zm
 *
 *  由要求分析如下:
 * 1 必然以 row1来进行分组   
 * 2 必然也是以 row1,row2作为一个整体来进行比较才能有 当第一列相同时,在比较第二列的状态发生
 * 3 mr中,执行流程是 文件通过InputFormat处理成--><k1,v1>--><k2,v2>--><k3,v3> 
 * 		以 wordcount为例(hello you
 * 					   hello me
 *      <k1,v1>是<行号,文本>,在通过map方法处理后得到的 <hello,1> <you,1> <hello,1> <me,1>
 *      后经过默认默认排序(以key1的asci码升序排),和默认分组(以key1的asci为基准分组)变成了<k2,v2> : 
        <hello,{1,1}>  <me,{1}>  <you,{1}>, 组是三个 但是记录仍旧是4条
 * 	<k3,v3>是经过redecu()方法处理后,真正写出到hdfs文件的最终处理结果,
       reduce操作

        为不同map来源的数据提供了见面的机会,你可以理解为:

        多分支的乡村公路是每一个独立的map,每条乡村公路中跑的不同牌子的汽车,乡村公路最后汇集到一个

        主动脉,国道,reduce是乡村公路交集的高速,只有在这条高速上,才能将所有车辆集合在一起


, *     上述流程可知,先执行 map(),执行map()同时根据key执行排序,然后执行分组操作
 *     
 * 结论:
 * 1 基于需要 row1,row2作为一个整体来进行比较,因此自定义 NewK2,重写此类compareTo方法(这里使用升序方式) ,指定排序规则
 * 2 排序后,实现分组时,因为此时的NewK2作为整体,如若用默认规则使用NewK2作为分组基准时,必然分组成6个组,因此指定自定义分组器取代默认规则,注意自定义分组器是对NewK2进行分组
 *  
 *  执行过程中 key value变化:
 *  <k0,v0> --> <k1,v1>----> <k2,v2>---> <k3,v3>:
	<行号,行内容> ---> <(3,3),3> <(3,2),2> <(3,1),1>  <(2,2),2> <(2,2),1> <(1,1),1> --->自定义分组,针对newk2进行分组,
	得到分组结果 <以3为row1的newk2,{3,2,1}> <以2为row1的newk2,{2,1}> <以1为row1的newk2,{1}>--->调用redece,得到<3,1> <2,1> <1,1>
 */
public class MyGroupApp {
	static final String INPUT_PATH = "hdfs://master:9000/hello";
	static final String OUT_PATH = "hdfs://master:9000/out";
	public static void main(String[] args) throws Exception{
		final Configuration configuration = new Configuration();
		
		final FileSystem fileSystem = FileSystem.get(new URI(INPUT_PATH), configuration);
		if(fileSystem.exists(new Path(OUT_PATH))){
			fileSystem.delete(new Path(OUT_PATH), true);
		}
		
		final Job job = new Job(configuration, GroupApp.class.getSimpleName());
		
		//1.1 指定输入文件路径
		FileInputFormat.setInputPaths(job, INPUT_PATH);
		//指定哪个类用来格式化输入文件
		job.setInputFormatClass(TextInputFormat.class);
		
		//1.2指定自定义的Mapper类
		job.setMapperClass(MyMapper.class);
		//指定输出<k2,v2>的类型
		job.setMapOutputKeyClass(NewK2.class);
		job.setMapOutputValueClass(LongWritable.class);
		
		//1.3 指定分区类
		job.setPartitionerClass(HashPartitioner.class);
		job.setNumReduceTasks(1);
		
		//1.4 TODO 排序 分组
		job.setGroupingComparatorClass(MyGroupingComparator.class);
		//1.5  TODO (可选)合并
		
		//2.2 指定自定义的reduce类
		job.setReducerClass(MyReducer.class);
		//指定输出<k3,v3>的类型
		job.setOutputKeyClass(LongWritable.class);
		job.setOutputValueClass(LongWritable.class);
		
		//2.3 指定输出到哪里
		FileOutputFormat.setOutputPath(job, new Path(OUT_PATH));
		//设定输出文件的格式化类
		job.setOutputFormatClass(TextOutputFormat.class);
		
		//把代码提交给JobTracker执行
		job.waitForCompletion(true);
	}

	
	static class MyMapper extends Mapper<LongWritable, Text, NewK2, LongWritable>{
		protected void map(LongWritable key, Text value, Context context) throws java.io.IOException ,InterruptedException {
			final String[] splited = value.toString().split("\t");
			final NewK2 k2 = new NewK2(Long.parseLong(splited[0]), Long.parseLong(splited[1]));
			final LongWritable v2 = new LongWritable(Long.parseLong(splited[1]));
			context.write(k2, v2);
		};
	}
	
	static class MyReducer extends Reducer<NewK2, LongWritable, LongWritable, LongWritable>{
		protected void reduce(NewK2 k2, java.lang.Iterable<LongWritable> v2s, Context context) throws java.io.IOException ,InterruptedException {
			long min = Long.MAX_VALUE;
			for (LongWritable v2 : v2s) {
				if(v2.get()<min){
					min = v2.get();
				}
			}
			
			context.write(new LongWritable(k2.first), new LongWritable(min));
		};
	}
	
	/**
	 * 问:为什么实现该类?
	 * 答:因为原来的v2不能参与排序,把原来的k2和v2封装到一个类中,作为新的k2
	 *
	 */
	static class  NewK2 implements WritableComparable<NewK2>{
		Long first;
		Long second;
		
		public NewK2(){}
		
		public NewK2(long first, long second){
			this.first = first;
			this.second = second;
		}
		
		
		@Override
		public void readFields(DataInput in) throws IOException {
			this.first = in.readLong();
			this.second = in.readLong();
		}

		@Override
		public void write(DataOutput out) throws IOException {
			out.writeLong(first);
			out.writeLong(second);
		}

		/**
		 * 当k2进行排序时,会调用该方法.
		 * 当第一列不同时,升序;当第一列相同时,第二列升序
		 */
		@Override
		public int compareTo(NewK2 o) {
			final long minus = this.first - o.first;
			if(minus !=0){
				return (int)minus;
			}
			return (int)(this.second - o.second);
		}
		
		@Override
		public int hashCode() {
			return this.first.hashCode()+this.second.hashCode();
		}
		
		@Override
		public boolean equals(Object obj) {
			if(!(obj instanceof NewK2)){
				return false;
			}
			NewK2 oK2 = (NewK2)obj;
			return (this.first==oK2.first)&&(this.second==oK2.second);
		}
	}
	
	/**
	 * 问:为什么自定义该类?
	 * 答:业务要求分组是按照第一列分组,但是NewK2的比较规则决定了不能按照第一列分。只能自定义分组比较器。
	 */
	static class MyGroupingComparator implements RawComparator<NewK2>{

			@Override
		public int compare(NewK2 o1, NewK2 o2) { // 此方法可以不用实现
			return (int)(o1.first - o2.first);
		}

		// 第二种比较方式: 按照字节进行比较 主要用此方法来实现分组规则
		/** 表示
		 * @param arg0 表示第一个参与比较的字节数组
		 * @param arg1 表示第一个参与比较的字节数组的起始位置
		 * @param arg2 表示第一个参与比较的字节数组的偏移量
		 * 
		 * @param arg3 表示第二个参与比较的字节数组
		 * @param arg4 表示第二个参与比较的字节数组的起始位置
		 * @param arg5 表示第二个参与比较的字节数组的偏移量
		 */
		@Override   // 8表示要进行比较的long的字节长度    
 		public int compare(byte[] arg0, int arg1, int arg2, byte[] arg3,
				int arg4, int arg5) {
			return WritableComparator.compareBytes(arg0, arg1, 8, arg3, arg4, 8);
		}
		
	}

b1[s1:l1] 表示以s1开头,长度为l1的字符所代表的数组b1
b2[s2:l2] 表示以s2开头,长度为l2的字符所代表的数组b2
如果以第二列作为分组依据, 那么应该找对象第二列的属性代表的数组
b1[s1+8:8] 表示以s1+8开头,长度为8的字符所代表的数组b1   即第二个列的字节数组  定位到了第二列上
同样 
b1[s2+8:8]  
、、


}

 

 

2 结果:

 

[root@master local]# hadoop fs -text /out/part-r-00000
Warning: $HADOOP_HOME is deprecated.

1       0
2       1
3       1

 

分享到:
评论

相关推荐

    java 从hadoop hdfs读取文件 进行groupby并显示为条形图

    5. **GROUP BY操作**:GROUP BY是数据库操作中的一个概念,用于按指定字段将数据分组。在Java中,可以使用`HashMap`或`TreeMap`等数据结构,根据分组键存储对应的值列表,然后对每个分组进行聚合计算。 6. **统计...

    大数据课程设计-Hadoop-MapReduce实现sql的统计、groupby和join-全部源码

    源码可能包括了Mapper和Reducer类,以及必要的辅助工具类,例如自定义Partitioner和Comparator,它们在保证JOIN和GROUP BY正确性方面起着关键作用。 总之,通过本次大数据课程设计,你将掌握如何利用Hadoop ...

    用于进行hadoop pig分析的日志

    在Pig Latin中,数据处理任务被表达为一系列的数据转换操作,这些操作通过一系列的内置函数和自定义函数(UDF,User Defined Functions)来实现。例如,你可以使用Pig Latin来清洗、过滤、聚合、连接等操作日志数据...

    Hadoop技术Pig简介共11页.pdf.zip

    例如,LOAD操作用于从HDFS加载数据,FILTER用于筛选满足特定条件的记录,JOIN用于合并来自不同数据源的记录,GROUP BY用于对数据进行分组,然后应用聚合函数(如COUNT、SUM、AVG等)。 Pig的优势在于其灵活性和可...

    Hadoop大数据技术-pig操作

    例如,LOAD用于加载数据,STORE用于保存结果,FOREACH用于迭代数据,GROUP用于分组,JOIN用于连接不同表,FILTER用于筛选数据,ORDER BY用于排序,以及各种内置函数如COUNT、SUM、AVG等用于统计计算。 2. **数据...

    英特尔Hadoop发行版 2.2 开发者指南

    - **HBase Group-by**:展示如何使用Group-by功能对数据进行分组处理。 - **HBase Expression Filter**:介绍如何使用表达式过滤器进行数据筛选。 - **HBase MultiRow Range Filter**:展示如何使用多行范围过滤...

    Hadoop技术-Pig简介.pptx

    例如,`load`用于加载数据,`foreach`用于遍历数据,`filter`用于筛选数据,`group by`用于数据分组,`order by`用于排序,`join`用于数据关联,`generate`用于提取列,`union`和`intersect`用于集合运算,`dump`...

    7.Hadoop入门进阶课程_第7周_Pig介绍、安装与应用案例.pdf

    - **灵活性**:除了内置的运算符之外,用户还可以自定义函数来扩展Pig的功能。 **运行模式:** 1. **本地模式**:在这种模式下,Pig运行在单个节点上,不依赖Hadoop集群,适用于小规模数据处理或测试。 2. **...

    MapReduce模型--Map端Combiners聚合

    - Combiner适合于具有交换律和结合律的聚合操作,例如max(最大值)、min(最小值)、distinct(去重)、groupby(分组)等。 - 对于平均值(avg)计算的场景,需要进行适当的转换,因为单纯地应用Combiner可能会...

    mapreduceDemo.zip

    在这个"mapreduceDemo.zip"压缩包中,我们可以通过一系列的示例深入理解MapReduce的工作原理和关键概念,如自定义分区、排序和分组。这些概念在大数据处理中至关重要,能够优化数据处理性能并确保结果的正确性。 ...

    Hive-Examples:Hadoop 的 Hive 的一些示例

    例如,你可以使用 SELECT 语句进行数据检索,JOIN 操作连接不同表,以及 GROUP BY 和聚合函数(如 COUNT, SUM, AVG)进行数据分析。 2. **元数据管理**: Hive 管理着所有表和分区的元数据,这些信息存储在 MySQL 或...

    pig编程指南源码

    例如,`LOAD`命令用于加载数据,`FILTER`用于过滤记录,`GROUP`用于按字段分组,`JOIN`用于合并数据,`FOREACH`用于迭代数据并应用转换,`DUMP`则用于输出结果。在"programmingpig-master"源码中,我们可以看到这些...

    高级软件人才培训专家-Hadoop课程资料-5-第五章 - 分布式SQL计算 Hive 语法与概念

    ### 高级软件人才培训专家-Hadoop课程资料-5-第五章 - 分布式SQL计算 Hive 语法与概念 #### 知识点概览 本章节主要围绕分布式SQL计算工具——Hive进行深入讲解,包括Hive的基本概念、语法结构以及如何通过Hive对...

    Hadoo数据仓库-hive入门全面介绍

    - 查询数据:`SELECT category, AVG(pagerank) FROM urls WHERE pagerank &gt; 0.2 GROUP BY category;` 此外,Hive 还支持自定义 MapReduce 脚本,以满足更复杂的计算需求。 **5. Hive 的扩展功能** - **分区...

    ADP2grouptask

    标题“ADP2grouptask”暗示我们可能在讨论一个与Java编程相关的项目或任务,特别是关于将数据处理或操作分组到特定任务中。这个项目或任务可能涉及使用Java进行批量处理、多线程或者分布式计算。下面我们将深入探讨...

    hive 简明教程

    - GroupBy分组:通过`GROUP BY`对数据进行分组聚合。 - 子查询:在查询中嵌套另一个查询语句。 - Join操作:包括`INNER JOIN`、`LEFT JOIN`、`RIGHT JOIN`、`FULL JOIN`以及`LEFT SEMI-JOIN`。 Hive还提供了排序...

    如何使用Pig集成分词器来统计新闻词频?

    这个过程涉及到了Pig的加载、转换、分组、聚合以及自定义函数的使用。通过这种方式,我们可以利用Pig的大数据处理能力,结合Jieba的高效分词,有效地完成新闻词频统计的任务。在实际操作中,还需注意优化性能,如...

    pig-0.12.0(Ubuntu)

    例如,`LOAD`命令用于从HDFS或其他数据源加载数据,`FILTER`用于筛选满足特定条件的记录,`GROUP`用于按字段分组数据,`FOREACH`允许对每个分组应用函数,而`JOIN`则用于合并多个数据集。 **在Ubuntu上的安装和配置...

    shuffle的关键阶段sort(Map端和Reduce端)源码分析

    如果我们需要对数据进行自定义的排序,那么我们可以实现 `RawComparator` 接口,并将其设置为 `mapreduce.job.output.key.comparator.class` 或 `mapreduce.job.output.group.comparator.class`。这样,我们就可以...

Global site tag (gtag.js) - Google Analytics