- 浏览: 115798 次
- 性别:
- 来自: 深圳
文章分类
最新评论
-
SSB4455:
嗯 应该是这样
java线程学习之Thread.sleep() 和 Thread.yield() 区别 -
wishlee:
不详细啊
Java中23种设计模式详解 -
Vin-G:
正在学习,我想修改成:在主屏中不能长按和拖拉,不知道能不能实现 ...
android2.2源码在eclipse中的配置与分析 -
star_887012:
qq16881699 写道LZ的文章就是海量数据。。。。
常见的海量数据处理方法 -
I清晰:
看来头疼啊
常见的海量数据处理方法
转载:http://delove2.iteye.com/blog/809803
我们搭建了一个公共的Hadoop MapReduce在线测试平台,网址:cloudcomputing.ruc.edu.cn. 现在开放注册。下面我们详细介绍这个测试平台。
一.平台简介
欢迎来到云计算的世界,欢迎来到MapReduce OnlineEvaluation!
这是一个可以自动运行您提交的Mapreduce程序的平台
Mapreduce是一个简单易用的编程框架,基于Map-reduce写出的程序可以同时运行在由成千上万台计算机组成的计算集群上。就算您不懂得并行编程,不懂套接字,您一样可以控制多台计算机同时处理数据。
在Mapreduce OnlineEvaluation上,您可以选择题目,编写相应的mapreduce程序,体验云平台的编程环境并很方便地学习编写mapreduce程序。
二.平台的主要功能和结构
平台的主要功能:
您可以登录退出,并在平台上更新自己的注册信息。同时,您也可以查看目前平台上的问题并提交您的程序。
平台可以对您提交的有限制的mapreduce-java程序编译打包运行,并对运行结果进行判断,然后返回结果给您。同时,您也可以查看您过去提交过的程序及其错误信息,目前平台只支持java程序。
目前,程序运行结果有:
1, 同时提交人数过多
2, 编译错误
3, Mapreduce过程错误(包括没有mapreduce过程的)
4, 运行结果与答案不符
5, 内存超出限制
6, 运行时间过长
因为这个平台只是一个评测系统,并非用来做实际的数据处理工作,因此我们对运行时间和使用内存限制很多,以防止一个人的不当使用影响其他人的正常使用。除了使用内存和运行时间上的限制,我们还有一些其他限制:
1, java程序主类名必须为MyMapre(否则为编译错误)
2, 您的mapreduce程序必须处于一个java源文件内,暂时不支持引用
其他源文件内的类。(也就是说您需要把Map,Reduce,Combine等类写到一个文件内)
3, 请按如下格式设置您的输入输出路径:
FileInputFormat.setInputPaths(conf, new Path(args[0]));
FileOutputFormat.setOutputPath(conf, new Path(args[1]));
很抱歉我们不能告诉您输入输出文件在hadoop-hdfs的路径,但是我们的平台会自动把它们作为第一个及第二个参数传递到您的mapreduce程序中,因此请按以上格式设置您的输入输出路径。
4, 平台对同时运行的mapreduce程序数量有限制。因为系统资源有限,这是一个很无奈的问题。Hadoop平台及mapreduce程序在处理少量数据时的表现并不是很好,毕竟io操作及远程io操作所耗费的时间不容忽视。即使您运行少量数据的wordcount程序也需要20多秒时间(根据运行状况变化)。因此请耐心待您当前提交的程序运行结束后再进行程序提交。以免一个用户占用太多系统资源。虽然我们没有限制您必须这么做。
5,请不要修改你的输出文件格式,尤其是文件名称,这会导致找不到输出文件,谢谢。
考虑到系统稳定性及安全性。平台限制了同时运行的mapreduce程序的最大数量, 并且不允许您的程序运行超过需要的时间或使用超过需要的内存空间。同时本平台运行在一个较低权限的用户下,你不能通过这个用户对系统进行破坏性的操作。
平台主要分三部分:
第一部分(OnlineEvaluation):
1, home page 帮助您迅速回到主页;
2, update you info在这里您可以修改您的注册信息;
3, F.A.Qs一些常见问题的解答。
第二部分(Problem Set):
1, Problems 问题列表,这里显示需要您编程解决的问题,你可以点击
问题编号查看问题的具体内容或者点击submit提交你的解决方案;
2, Submit Solution 这里可以提交问题;
2, My Submission 这里可以查看您过去提交的题目的源代码和提交结
果(是按提交时间顺序逆序显示的)。
第三部分(User):
1, 用户登陆及注册
三.如何提交我的解决方案
1, 登陆
2, 你可以通过以下方式查看问题内容:
a) 点击problem查看所有问题,并可以再问题列表中点击问题编号查看问题内容;
b) 在搜索框中输入问题编号直接查看问题内容 。
3, 你可以通过以下方式进入提交页面:
a) 点击Submit Solution进入提交页面;
b) 在查看问题列表页面中,点击问题后的submit提交问题,这时问题标号会自动输入为你所点击的问题的编号;
c) 在查看问题具体内容时,点击问题最下方的submit进入提交页面。
四.主要的测试题目和解决思路
1000 WordCount:
WordCount在mapreduce中的地方好比HelloWorld,因此我们把它放在第一道题,作为mapreduce程序的入门程序,题号1000。
Wordcount的输入是文件夹,文件夹内是多个文件,内容是以空格作分隔符的单词序列
输出为单词,以及他们的数量。
首先,在mapreduce程序中,程序会按照setInputFormat中设置的方法为将输入切分成一个个InputSplit
在Map过程中,程序会为每一个InputSplit调用map函数,这里即以空格作分隔符将单词切开。并以单词作为key,1作为value。需要特别指出的是,mapreduce的<key,value>无论是key还是value都是mapreduce预先定义好的格式,因此在wordcount这个程序中,我们要把String转换成text格式,int转换为IntWritable格式。如下:
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
再做
word.set(tokenizer.nextToken());
将这些<key,value>对作为Map的结果传递下去
output.collect(word, one);
在Reduce过程中,程序会对每组<key,list of values>调用reduce函数,在我们这个程序中,只需让value相加即可以。最后调用output.collect输出Reduce结果。
以下是程序内容及注释:
package com.felix;
import java.io.IOException;
import java.util.Iterator;
import java.util.StringTokenizer;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reducer;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.TextInputFormat;
import org.apache.hadoop.mapred.TextOutputFormat;
/**
*
* 描述:WordCount explains by Felix
* @author Hadoop Dev Group
*/
public class WordCount
{
/**
* MapReduceBase类:实现了Mapper和Reducer接口的基类(其中的方法只是实现接口,而未作任何事情)
* Mapper接口:
* WritableComparable接口:实现WritableComparable的类可以相互比较。所有被用作key的类应该实现此接口。
* Reporter 则可用于报告整个应用的运行进度,本例中未使用。
*
*/
public static class Map extends MapReduceBase implements
Mapper<LongWritable, Text, Text, IntWritable> //设定了map函数输入的形式为longwritable<key>text<value>输出地形式为text<key>intwritable<value>
{
/**
* LongWritable, IntWritable, Text 均是 Hadoop 中实现的用于封装 Java 数据类型的类,这些类实现了WritableComparable接口,
* 都能够被串行化从而便于在分布式环境中进行数据交换,你可以将它们分别视为long,int,String 的替代品。
*/
private final static IntWritable one = new IntWritable(1); //定义一个intwritable型的常量,用来说明出现过一次
private Text word = new Text(); //定义一个text型的变量,用来保存单词
/**
* Mapper接口中的map方法:
* void map(K1 key, V1 value, OutputCollector<K2,V2> output, Reporter reporter)
* 映射一个单个的输入k/v对到一个中间的k/v对
* 输出对不需要和输入对是相同的类型,输入对可以映射到0个或多个输出对。
* OutputCollector接口:收集Mapper和Reducer输出的<k,v>对。
* OutputCollector接口的collect(k, v)方法:增加一个(k,v)对到output
*/
public void map(LongWritable key, Text value,
OutputCollector<Text, IntWritable> output, Reporter reporter) //map中的参变量说明map输入时的keyvalue对的形式,以及map输出和reduce接收的keyvalue数据类型
throws IOException
{
String line = value.toString(); //将输入中的一行保存到line中
StringTokenizer tokenizer = new StringTokenizer(line); //将一行保存到准备切词的工具中
while (tokenizer.hasMoreTokens()) //判断是否到一行的结束
{
word.set(tokenizer.nextToken()); //设定key即word的值为从每一行切下来的单词
output.collect(word, one); //设定map函数输出的keyvalue对
}
}
}
public static class Reduce extends MapReduceBase implements Reducer<Text, IntWritable, Text, IntWritable> //设定reduce函数中输入对的数据类型是text和intwritable,输出对的数据类型是text和intwritable
{
public void reduce(Text key, Iterator<IntWritable> values,
OutputCollector<Text, IntWritable> output, Reporter reporter) //设定reduce函数中输入对的数据类型是text和intwritable,输出对的数据类型是text和intwritable
throws IOException
{
int sum = 0;
while (values.hasNext()) //计算同一个key下,所有value的总和
{
sum += values.next().get(); //获取下一个value的值
}
output.collect(key, new IntWritable(sum)); //收集reduce输出结果
}
}
public static void main(String[] args) throws Exception
{
/**
* JobConf:map/reduce的job配置类,向hadoop框架描述map-reduce执行的工作
* 构造方法:JobConf()、JobConf(Class exampleClass)、JobConf(Configuration conf)等
*/
JobConf conf = new JobConf(WordCount.class);
conf.setJobName("wordcount"); //设置一个用户定义的job名称
conf.setOutputKeyClass(Text.class); //为job的输出数据设置Key类
conf.setOutputValueClass(IntWritable.class); //为job输出设置value类
conf.setMapperClass(Map.class); //为job设置Mapper类
conf.setCombinerClass(Reduce.class); //为job设置Combiner类
conf.setReducerClass(Reduce.class); //为job设置Reduce类
conf.setInputFormat(TextInputFormat.class); //为map-reduce任务设置InputFormat实现类
conf.setOutputFormat(TextOutputFormat.class); //为map-reduce任务设置OutputFormat实现类
/**
* InputFormat描述map-reduce中对job的输入定义
* setInputPaths():为map-reduce job设置路径数组作为输入列表
* setInputPath():为map-reduce job设置路径数组作为输出列表
*/
FileInputFormat.setInputPaths(conf, new Path(args[0]));
FileOutputFormat.setOutputPath(conf, new Path(args[1]));
JobClient.runJob(conf); //运行一个job
}
}
1001 a+b per line:
a+b per line:
这道题目是我们编写的另一道mapreduce的入门题目,在这道题目中,你需要截取每行的第一个字符作为标志,并把这行其它的数据相加得到每行的和,将它们输出到文件中。
同样的,你可以设置SetInputFormat为TextInputFormat按行读入
在Map内处理每个InputSplit将每行切开,然后装换String类型为IntWritable类型。并以第一个数字作为key,其他数字作为value。
在Reduce内,将每个key对应的value值相加,并输出,这样,你就可以得到答案了。
1002 Sort:
Sort:
这道题目需要你取出不同文件中每行的数字,然后将他们排序输出到同一个文件中
在输入文件中,每行有且只有一个数字,同时他们都在相应数据类型(如int)的定义表示范围内。
四.其他题目介绍。
这下面列出的题目只是当前网站上的一些题目,因为我们将来会不断升级题目的内容,因此如果这部分内容与网站内容不同,请以网站内容为准。
1003 Data deduplication:
Data deduplication:
这道题目需要你按行读入每个文件中的数据,去除他们中的重复数据,然后将他们按照默认顺序输入到文件中。
1004 Single Table Join:
Single Table Join:
这道题目要求你进行单表连接,你需要找出表中的继承关系,比如a>b,b>c
那么a>c就是你需要找出的关系,这道题目的输入是一个<父-子>的表,需要你输出的是一张<祖父-孙>的表。
1005 Multi-table Join:
Multi-table Join:
这道题目与上道题目很类似,不同点是要求对两张表进行连接,你需要将addressID作为外码,对两张文件内的表进行连接,最后输出为<公司名称-所在地址>的一张表。
1006 Sum:
Sum:
这道题目要求你对超大整形数据进行相加。输入为多个文件,每个文件都有很多行,每行为一个非负数字,题目要求你将所有文件中所有行的数字加到一起,最后输出到文件中。
需要注意的是,这些数字是可以超出int类型表示范围的。
1007 WordCount Plus:
WordCount Plus:
这是wordcount的高级版本,在这个wordcount中,除了查找单词的功能,还要求你过滤掉标点符号,如”,”,”。”,”、”等,但是你不能过滤掉can‘t中的引号。
发表评论
-
Hadoop平台优化综述
2012-02-25 08:15 10531. 概述 随着企业要处理的数据量越来越大,Ma ... -
eclipse平台编译Hadoop源代码
2010-11-14 22:25 16731. 下载Hadoop源代码Hadoop 各成员源代码下载地址 ... -
hadoop安装配置 ubuntu9.10 hadoop0.20.2
2010-11-14 14:47 1415转载:http://delove2.iteye.com/blo ... -
用 Hadoop 进行分布式数据处理
2010-11-13 22:36 982简介: 本文是讨论 Hadoop 的系列中的第一篇。本文介绍 ... -
使用 Linux 和 Hadoop 进行分布式计算
2010-11-13 22:33 833简介: 人们每天都依赖搜索引擎以从 Internet 的海量数 ... -
基于Eclipse的Hadoop应用开发环境的配置
2010-11-13 16:04 1095基于Eclipse的Hadoop应用开发环境的配置 配置 ... -
基于hadoop 0.19.0 + jdk 1.6 + eclipse 3.3.2 开发环境配置
2010-11-13 16:02 1370今天配置了一下hadoop0.19.0开发环境,1.首先安装J ... -
Ubuntu 10.10下安装eclipse-jee-helios-linux-gtk.tar.gz
2010-11-13 15:56 5061Eclipse是Java开发的最佳环境,支持wi ... -
Hadoop-0.20.2安装部署二
2010-11-13 15:28 1242本文主要是以安装和 ... -
ubuntu-10.10平台搭建hadoop-0.20.2分布式系统
2010-11-13 14:59 3087实验平台:Ubuntu 10.10,Hadoop0.20.2, ...
相关推荐
MapReduce平台优化详解 MapReduce平台优化是Hadoop生态系统中的一种关键技术,旨在提高MapReduce作业的执行效率和性能。本文将从MapReduce优化的角度,深入剖析MapReduce平台的优化方法,涵盖Combiner、Partitioner...
### MapReduce下的PCA异常流量检测系统实现 #### 1. 引言 随着信息技术的快速发展,互联网流量呈现出爆炸式增长趋势。在这种背景下,网络运营商面临着前所未有的挑战,尤其是在处理异常流量方面。网络异常流量,即...
Hadoop MapReduce 在线测试平台是一个公共的平台,允许用户在线编写和测试 MapReduce 程序。该平台提供了一个简洁易用的编程环境,用户可以选择题目,编写相应的 MapReduce 程序,并体验云平台的编程环境。 2. 平台...
MapReduce是一种分布式计算模型,由Google开发,用于处理和生成大量数据。这个模型主要由两个主要阶段组成:Map(映射)和Reduce(规约)。MapReduce的核心思想是将复杂的大规模数据处理任务分解成一系列可并行执行...
实验项目“MapReduce 编程”旨在让学生深入理解并熟练运用MapReduce编程模型,这是大数据处理领域中的核心技术之一。实验内容涵盖了从启动全分布模式的Hadoop集群到编写、运行和分析MapReduce应用程序的全过程。 ...
基于MapReduce实现决策树算法的知识点 基于MapReduce实现决策树算法是一种使用MapReduce框架来实现决策树算法的方法。在这个方法中,主要使用Mapper和Reducer来实现决策树算法的计算。下面是基于MapReduce实现决策...
(2)打开网站localhost:8088和localhost:50070,查看MapReduce任务启动情况 (3)写wordcount代码并把代码生成jar包 (4)运行命令 (1):把linus下的文件放到hdfs上 (2):运行MapReduce (5):查看运行结果 ...
MapReduce是一种分布式计算模型,由Google在2004年提出,主要用于处理和生成大规模数据集。它将复杂的并行计算任务分解成两个主要阶段:Map(映射)和Reduce(化简)。在这个"MapReduce项目 数据清洗"中,我们将探讨...
MapReduce之数据清洗ETL详解 MapReduce是一种基于Hadoop的分布式计算框架,广泛应用于大数据处理领域。数据清洗(Data Cleaning)是数据处理过程中非常重要的一步,旨在清洁和转换原始数据,使其更加可靠和有用。...
在实验部分,通过设计的在线聚集优化程序对不同规模的数据集进行测试,结果表明该优化程序在执行时间方面比传统的MapReduce方法有所减少。同时,在频繁查询性能方面也显示出显著的优势。这表明优化后的程序更适合于...
【标题】Hadoop MapReduce 实现 WordCount MapReduce 是 Apache Hadoop 的核心组件之一,它为大数据处理提供了一个分布式计算框架。WordCount 是 MapReduce 框架中经典的入门示例,它统计文本文件中每个单词出现的...
MapReduce是一种分布式计算模型,由Google在2004年提出,主要用于处理和生成大规模数据集。这个模型将复杂的计算任务分解成两个主要阶段:Map(映射)和Reduce(化简),使得在大规模分布式环境下处理大数据变得可能...
MapReduce是一种编程模型,用于大规模数据集的并行运算。它最初由Google提出,其后发展为Apache Hadoop项目中的一个核心组件。在这一框架下,开发者可以创建Map函数和Reduce函数来处理数据。MapReduce设计模式是对...
### 大数据实验四-MapReduce编程实践 #### 一、实验内容与目的 ##### 实验内容概述 本次实验的主要内容是使用MapReduce框架来实现WordCount词频统计功能,即统计HDFS(Hadoop Distributed File System)系统中多个...
Hadoop MapReduce 编程实战 Hadoop MapReduce 是大数据处理的核心组件之一,它提供了一个编程模型和软件框架,用于大规模数据处理。下面是 Hadoop MapReduce 编程实战的知识点总结: MapReduce 编程基础 ...
在这个名为“mapreduce气象数据(用于测试)”的压缩包中,我们有一个可能是用于教学目的的数据集,旨在帮助初学者理解如何在Hadoop环境下处理气象数据,特别是找出最高气温。这个数据集可能包含了多个城市的每日或...