`

Hadoop WordCount进阶

 
阅读更多
看了到Hadoop的代码,还是不知道他的执行流程,怎么办呢。我想到了日志,在hadoop的目录下,有log4j,那就用户Log4j来记录Hadoop的执行过程吧.


import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
import org.apache.log4j.Logger;

public class WordCount {

  public static Logger loger = Wloger.loger;

  /**
   * TokenizerMapper 继续自 Mapper<Object, Text, Text, IntWritable>
   *
   * [一个文件就一个map,两个文件就会有两个map]
   * map[这里读入输入文件内容 以" \t\n\r\f" 进行分割,然后设置 word ==> one 的key/value对]
   *
   * @param Object  Input key Type:
   * @param Text    Input value Type:
   * @param Text    Output key Type:
   * @param IntWritable Output value Type:
   *
   * Writable的主要特点是它使得Hadoop框架知道对一个Writable类型的对象怎样进行serialize以及deserialize.
   * WritableComparable在Writable的基础上增加了compareT接口,使得Hadoop框架知道怎样对WritableComparable类型的对象进行排序。
   *
   * @author yangchunlong.tw
   *
   */
  public static class TokenizerMapper
       extends Mapper<Object, Text, Text, IntWritable>{

    private final static IntWritable one = new IntWritable(1);
    private Text word = new Text();
    public void map(Object key, Text value, Context context
                    ) throws IOException, InterruptedException {
      loger.info("Map <key>"+key+"</key>");
      loger.info("Map <value>"+value+"</key>");
      StringTokenizer itr = new StringTokenizer(value.toString());
      while (itr.hasMoreTokens()) {
    	String wordstr = itr.nextToken();
        word.set(wordstr);
        loger.info("Map <word>"+wordstr+"</word>");
        context.write(word, one);
      }
    }
  }

  /**
   * IntSumReducer 继承自 Reducer<Text,IntWritable,Text,IntWritable>
   *
   * [不管几个Map,都只有一个Reduce,这是一个汇总]
   * reduce[循环所有的map值,把word ==> one 的key/value对进行汇总]
   *
   * 这里的key为Mapper设置的word[每一个key/value都会有一次reduce]
   *
   * 当循环结束后,最后的确context就是最后的结果.
   *
   * @author yangchunlong.tw
   *
   */
  public static class IntSumReducer
       extends Reducer<Text,IntWritable,Text,IntWritable> {
    private IntWritable result = new IntWritable();

    public void reduce(Text key, Iterable<IntWritable> values,
                       Context context
                       ) throws IOException, InterruptedException {
      loger.info("Reduce <key>"+key+"</key>");
      loger.info("Reduce <value>"+values+"</key>");
      int sum = 0;
      for (IntWritable val : values) {
        sum += val.get();
      }
      result.set(sum);
      loger.info("Reduce <sum>"+sum+"</sum>");
      context.write(key, result);
    }
  }

  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    /**
     * 这里必须有输入/输出
     */
    if (otherArgs.length != 2) {
      System.err.println("Usage: wordcount <in> <out>");
      System.exit(2);
    }
    Job job = new Job(conf, "word count");
    job.setJarByClass(WordCount.class);//主类
    job.setMapperClass(TokenizerMapper.class);//mapper
    job.setCombinerClass(IntSumReducer.class);//作业合成类
    job.setReducerClass(IntSumReducer.class);//reducer
    job.setOutputKeyClass(Text.class);//设置作业输出数据的关键类
    job.setOutputValueClass(IntWritable.class);//设置作业输出值类
    FileInputFormat.addInputPath(job, new Path(otherArgs[0]));//文件输入
    FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));//文件输出
    System.exit(job.waitForCompletion(true) ? 0 : 1);//等待完成退出.
  }
}


这里输出了每一次Map,每一次Reduce.结果如下:
f1 ==>Map Result
Map <key>0</key>
Map <value>ycl ycl is ycl good</key>
Map <word>ycl</word>
Map <word>ycl</word>
Map <word>is</word>
Map <word>ycl</word>
Map <word>good</word>

f1 ==>Reduce Result
Reduce <key>good</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1dfc547</key>
Reduce <sum>1</sum>
Reduce <key>is</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1dfc547</key>
Reduce <sum>1</sum>
Reduce <key>ycl</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1dfc547</key>
Reduce <sum>3</sum>

f2 ==>Map Result
Map <key>0</key>
Map <value>hello ycl hello lg</key>
Map <word>hello</word>
Map <word>ycl</word>
Map <word>hello</word>
Map <word>lg</word>

f2 ==>Reduce Result
Reduce <key>hello</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@10f6d3</key>
Reduce <sum>2</sum>
Reduce <key>lg</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@10f6d3</key>
Reduce <sum>1</sum>
Reduce <key>ycl</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@10f6d3</key>
Reduce <sum>1</sum>

f1,f2 ==> Reduce Result
Reduce <key>good</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1989f84</key>
Reduce <sum>1</sum>
Reduce <key>hello</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1989f84</key>
Reduce <sum>2</sum>
Reduce <key>is</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1989f84</key>
Reduce <sum>1</sum>
Reduce <key>lg</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1989f84</key>
Reduce <sum>1</sum>
Reduce <key>ycl</key>
Reduce <value>org.apache.hadoop.mapreduce.ReduceContext$ValueIterable@1989f84</key>
Reduce <sum>4</sum>

正常人应该能分析出map/reduce的执行机制,比如有两个输入文件,map/reduce是一个文件一个文件进行处理的,每map一个输入文件就会reduce一次,最后再进行总的reduce.
[注意这里不是一行处理一次,而是一个文件处理一次,没有进行split]
分享到:
评论
1 楼 a123159521 2011-11-16  
纠正一下,并不是每map一个输入就会reduce一次,其实是setCombinerClass一次,又可以称为本地计算,最后进行汇总,reduce.

相关推荐

    hadoop实现wordcount

    在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式计算的能力,使得处理大量数据变得可能。...同时,通过文件"wordcount2"我们可以推测这是一个进阶的项目,可能包含更多的特性和优化。

    Hadoop进行分布式计算的入门资料

    3. WordCount示例:Hadoop的典型入门示例,统计文本中每个单词出现的次数。理解Map和Reduce阶段的工作原理。 四、MapReduce详解 MapReduce工作流程由Map、Shuffle、Reduce三个阶段组成: - Map阶段:输入数据被分割...

    实验项目 MapReduce 编程

    在Eclipse或IDEA中,开发者创建了一个新的Java包,仿照Hadoop自带的WordCount.java,编写了自己的WordCount程序。完成后,将程序打包成JAR文件,上传至Hadoop集群,并提交作业运行。运行结果可以通过Hadoop的Web界面...

    Hadoop-2.7.1分布式安装手册

    9. 测试与优化:安装完成后,通过运行WordCount等示例程序验证Hadoop集群工作正常。根据集群性能调整参数,如`mapreduce.map.memory.mb`和`mapreduce.reduce.memory.mb`。 10. 故障排查与维护:了解常见问题及解决...

    hadoop实战

    - **WordCount程序**:这是Hadoop教程中最经典的例子之一。通过编写一个简单的WordCount程序,可以深入理解MapReduce的工作原理。 - Map阶段:对文本中的单词进行分割。 - Reduce阶段:统计每个单词出现的次数。 -...

    hadoop入门指南.pdf

    - **WordCount**: 统计文本文件中单词出现的频率。 - **InvertedIndex**: 构建倒排索引,即给出一个词,返回包含该词的所有文档的列表。 #### 五、Hadoop生态系统扩展 - **Lucene**: 高性能全文搜索引擎库,虽然...

    Hadoop实战初级部分PPT及源码下载

    4. **源码实践**:提供的源码可能是简单的MapReduce示例,如WordCount程序,这是Hadoop初学者常用来学习分布式计算的入门案例。通过分析和运行这些源码,学习者能深入理解MapReduce的工作原理。 5. **实际应用**:...

    精通HADOOP1

    这本书通过详细的步骤和实例,引导读者从基础到进阶,逐步理解并运用HADOOP。 1. 初识HADOOP HADOOP最初由Apache软件基金会开发,是大数据处理领域的核心工具。它基于Google的MapReduce计算模型和GFS(Google文件...

    MapReduce WordCount

    总结,MapReduce WordCount是大数据处理的基础,通过它我们可以学习到分布式计算的核心概念,理解如何在Hadoop环境中处理大规模数据,并为进一步探索更高级的计算模型打下基础。在实际的工程实践中,MapReduce及其...

    hadoop安装及详细学习笔记

    2. **WordCount 计算逻辑**:WordCount 是经典的 MapReduce 示例,演示了如何统计文本文件中单词出现的次数。 3. **MapReduce 代码编写及执行过程**: - 编写 Map 函数,处理输入数据并生成中间键值对。 - 编写 ...

    hadoop.zip

    在你的"hadoop"项目中,可以创建一个简单的WordCount示例,实现统计文本中单词出现次数的功能。这将帮助你熟悉MapReduce的基本流程和Hadoop API的使用。 六、持续学习与进阶 Hadoop生态还包括YARN(资源调度器)、...

    Javaweb课程作业基于Hadoop的中文词频统计工具源码+使用说明.zip

    【资源介绍】 ...6、往HDFS里/user/joe/wordcount/input传要统计的文件(不要创建output文件夹) 7、执行程序 三、中文分词能力(使用IKAnalyzer分词器) 1、下载IKAnalyzer2012_u6.zip(最新版) ...

    BigDataLearning

    Hadoop进阶地址:1 第一章 概述hadoop的体系架构块:DataNode:NameNode:Secondary NameNode:Hadoop1.X架构图Hadoop 2.Xhadoop2.0以后版本移除了jobtracker tasktracker,改由Yarn平台的resourcemanager负责统一...

    大数据技术基础实验报告-MapReduce编程.doc

    在新项目中创建类,如`WordCount`,需要将包设置为`org.apache.hadoop.examples`,这是Hadoop自带的示例代码所在的位置。在Eclipse中,这可以通过在新建Class时填写Package和Name字段完成。 `WordCount`是一个经典...

    jstorm文档

    以下是一个简单的WordCount Topology示例: ```java public class WordCountTopology { public static void main(String[] args) throws Exception { Config conf = new Config(); conf.setDebug(true); Local...

    09-SparkV1.2(PySpark)-LAPTOP-G48G0MSR.docx

    - 编写Spark应用代码,如示例中的WordCount程序,通过SparkConf和SparkContext初始化环境,使用parallelize、map、reduceByKey等函数进行数据处理。 - 结束时,调用sc.stop()释放资源。 四、Spark运行模式 Spark...

    大数据spark实验报告

    实验通常在Hadoop YARN或standalone模式下进行,确保Spark与HDFS的无缝集成。配置文件(如`spark-defaults.conf`)中会设置诸如executor内存、CPU核心数等关键参数,以优化性能。 ### 上机实验1:WordCount 这是...

    SparkPlayground:本项目包含几个spark示例,部分是网上的经典例子,部分是我自己写的例子

    Spark的核心特性是基于内存的数据计算,这使得它在处理迭代算法和交互式数据分析时相比Hadoop MapReduce有着显著的优势。 2. **Spark组件** - **Spark Core**:这是Spark的基础,提供了分布式任务调度、内存管理、...

Global site tag (gtag.js) - Google Analytics