0 0

执行wordcount时到map 0% reduce 0%不动了5

日志如下:
14/07/20 12:30:25 WARN mapred.JobClient: No job jar file set.  User classes may not be found. See JobConf(Class) or JobConf#setJar(String).
14/07/20 12:30:25 INFO input.FileInputFormat: Total input paths to process : 1
14/07/20 12:30:25 INFO util.NativeCodeLoader: Loaded the native-hadoop library
14/07/20 12:30:25 WARN snappy.LoadSnappy: Snappy native library not loaded
14/07/20 12:30:26 INFO mapred.JobClient: Running job: job_201407201216_0001
14/07/20 12:30:27 INFO mapred.JobClient:  map 0% reduce 0%

查看下面的两项
~/hadoop-1.2.1/lib/native/Linux-amd64-64$ file libhadoop.so.1.0.0
libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, not stripped

$ uname -aLinux master 3.11.0-15-generic #25~precise1-Ubuntu SMP Thu Jan 30 17:39:31 UTC 2014 x86_64 x86_64 x86_64 GNU/Linux

在run configuration添加了jvm参数:
-Djava.library.path=/home/tianqing/hadoop-1.2.1/lib/native/Linux-amd64-64
日志也没发现报错,求指教...

问题补充:代码如下:
public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    conf.set("mapred.job.tracker", "master:9001");
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length != 2) {
      System.err.println("Usage: wordcount <in> <out>");
      System.exit(2);
    }
    Job job = new Job(conf, "word count");
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
    FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

    job.setJarByClass(WordCount.class);
    job.waitForCompletion(true);
  }
 
2014年7月20日 12:37

1个答案 按时间排序 按投票排序

0 0

采纳的答案

看到你的程序我还以为是
job.setJarByClass(WordCount.class);
这句程序顺序太靠后了, 后来在自己的机器上跑了下你的程序,发现你的程序没有问题,
是不是你的机器配置太低,跑不动啊。

你可以参考下我的log和你的有什么不同:


PS:之前学习过一段时间的hadoop,可是现在想要跑一个wordcount程序都不知道从哪下手了 

2014年7月20日 14:51

相关推荐

    Hadoop mapreduce实现wordcount

    这个文件可能是 Hadoop 官方文档中关于 WordCount 示例的一个章节,详细介绍了如何编写 Map 和 Reduce 函数,以及如何配置和运行 WordCount 作业。可能包括了 Java 代码示例,讲解如何创建 MapReduce 程序,并将其...

    大数据处理map,reduce,wordcount代码

    MapReduce分为两个主要阶段:Map阶段和Reduce阶段。Map阶段是数据的预处理,它接收输入数据(通常是键值对),并将其转化为一系列中间键值对。Reduce阶段接着对这些中间结果进行聚合,输出最终的结果。这种分而治之...

    Hadoop示例程序WordCount运行及详解

    基于Hadoop的map-reduce模型,WordCount程序可以将输入的文本文件进行词频统计,并将结果输出到HDFS中。在这个示例程序中,我们使用了Hadoop的map-reduce框架来实现WordCount。 首先,我们需要准备好输入文件和输出...

    WordCount2_hadoopwordcount_

    在Reduce阶段,Hadoop框架会将所有Map任务的输出进行排序和聚合,使得相同键值对的记录会被发送到同一个Reduce任务。Reduce任务接收一组, count&gt;键值对,对它们进行求和,得到每个单词的总出现次数,然后输出, total...

    最简单MR WordCount

    "详细讲述了WordCount的map和reduce过程"表明该资源会深入解析这两个关键步骤的功能和实现细节。"给出了详细注释和解释"意味着它提供了清晰的代码注解,便于读者理解代码逻辑。"便于快速学习"则暗示了这是一个友好的...

    WordCount 源码浅析(1)

    TaskTracker 是实际执行任务的节点,它们与 JobTracker 通信,接收并执行 Map 和 Reduce 任务。 此外,WordCount 还涉及到了 InputFormat 和 OutputFormat。InputFormat 是输入数据的格式化类,它定义了如何将原始...

    hadoop-1.2.1运行WordCount

    - MapReduce框架处理数据时,默认会先执行map任务,然后执行reduce任务。如果在代码中进行了不当的日志记录或输出,可能导致输出顺序混乱。 - 解决方法是在代码中合理安排日志记录逻辑,确保map和reduce阶段的输出...

    hadoop wordCount程序

    该代码实现了 WordCount 程序的逻辑,包括 Map 任务和 Reduce 任务。 运行 WordCount 程序 要运行 WordCount 程序,需要设置参数,点击 "Run" 菜单,然后选择 "Run Configurations",在弹出的对话框中选择 "Java ...

    Hadoop的WordCount实例代码

    在实际应用中,WordCount不仅仅是一个简单的计数器,它的思想可以扩展到更复杂的场景,如词频分析、关键词提取等。通过理解并实践WordCount,开发者可以更好地掌握Hadoop MapReduce的工作原理,为处理大规模数据打下...

    hadoop之wordcount例程代码

    运行WordCount程序时,Hadoop会自动将数据分发到集群的各个节点上,每个节点上的TaskTracker会执行对应的Map任务。当Map任务完成,中间结果会被排序和分区,然后传递给Reduce任务。Reduce任务最终将结果写回到HDFS,...

    hadoop wordcount

    在本例中,尽管WordCount的Map和Reduce任务可以并行执行,但最终结果需要按照单词频率进行排序。由于Hadoop默认不保证Map阶段的输出顺序,因此可能需要额外的排序步骤。这可以通过创建一个新的MapReduce任务实现,该...

    MapReduce之wordcount范例代码

    Reduce任务会接收到Map阶段输出的所有键值对,对于每个唯一的键(在这个例子中是每个不同的单词),它会将对应的值(出现次数)进行求和,从而得到单词的总出现次数。最后,Reduce函数将结果输出,形成最终的单词...

    mapreduce的wordCount案例

    Reduce阶段接收到Map阶段处理后的键值对,对每个唯一的键(即单词)执行累加操作。它将相同键的所有值(即单词计数)相加,得到每个单词的总出现次数。例如,如果Reduce接收到多个("hello", "1")键值对,它会将它们...

    hadoop 运行成功代码(wordcount)

    2. `WordCount.java` - 实现WordCount的Java代码,包含Map和Reduce函数。 3. `main` 方法 - 用于运行MapReduce任务的入口点。 4. 测试数据文件 - 用于测试WordCount程序的文本文件。 运行流程如下: 1. 使用Maven...

    wordcount_demo

    执行wordcountDemo时,用户需要将输入文件上传到Hadoop分布式文件系统(HDFS),然后提交MapReduce作业。一旦作业完成,Hadoop会输出每个单词及其计数到指定的输出目录。 这个简单的示例展示了Hadoop MapReduce的...

    Hadoop集群-WordCount运行详解.pdf

    1.3.2旧的WordCount分析与1.3.3新的WordCount分析,从源码层面解读了旧版和新版的WordCount程序实现,展示了程序如何定义Map和Reduce函数以及它们的工作机制。 1.4WordCount处理过程描述了WordCount程序在MapReduce...

    javawordcount

    编译Java源代码生成jar包后,可以使用Hadoop的`hadoop jar`命令提交作业到集群执行。作业完成后,结果将保存在HDFS的指定目录下。 7. **优化与扩展** WordCount示例虽然简单,但它是理解Hadoop MapReduce工作原理...

    Hadoop Map Reduce教程

    该框架将任务分解为一系列较小的任务(Map 和 Reduce),并在集群中的多台计算机上并行执行这些任务。 - **应用场景**:适用于大数据分析、搜索引擎索引构建、日志文件分析等场景。 #### 二、MapReduce 工作原理 1...

    hadoop1.2.1修改WordCount并编译

    在编译 WordCount 程序时,我们需要使用 Hadoop 1.2.1 版本下的编译工具,例如 hadoop-1.2.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-1.2.1.jar。我们可以使用以下命令来编译 WordCount 程序: ``` ...

    hadoop 2.7.6 eclipse插件

    18/05/25 19:51:49 INFO mapreduce.Job: map 0% reduce 0% 18/05/25 19:52:20 INFO mapreduce.Job: map 100% reduce 0% 18/05/25 19:52:29 INFO mapreduce.Job: map 100% reduce 100% 18/05/25 19:52:31 INFO ...

Global site tag (gtag.js) - Google Analytics