`
dengyin2000
  • 浏览: 1228479 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

Hadoop的Shuffle Error问题的解决。

阅读更多

今天在运行一个简单的mapred任务时, 在reduce到到16的时候老是会出Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing - out.这个错误, 运行几次都不行。 网上google得知需要到hadoop-site.xml加上一个property解决。

 

写道
secondary name node所在的机器没有配置dfs.http.address这个参数,该参数在hadoop-default.xml里的缺省值是0.0.0.0:50070,应改为name node所在机器的ip地址。

 

加上这个property,然后rsync到各个node, 再运行mapred任务。 问题解决。

 

参考:http://www.cnblogs.com/bjzhanghao/archive/2008/11/02/1325113.html

分享到:
评论
1 楼 calorie520 2010-08-20  
我也遇到和你一样的问题,dfs.http.address已经配置了,但还是报一下错误:
[hadoop@localhost hadoop-0.20.2]$ hadoop jar hadoop-0.20.2-examples.jar pi 2 10
Number of Maps  = 2
Samples per Map = 10
Wrote input for Map #0
Wrote input for Map #1
Starting Job
10/08/20 17:32:09 INFO mapred.FileInputFormat: Total input paths to process : 2
10/08/20 17:32:09 INFO mapred.JobClient: Running job: job_201008111433_0005
10/08/20 17:32:10 INFO mapred.JobClient:  map 0% reduce 0%
10/08/20 17:32:19 INFO mapred.JobClient:  map 100% reduce 0%
10/08/20 17:32:28 INFO mapred.JobClient:  map 100% reduce 16%
10/08/20 17:32:31 INFO mapred.JobClient:  map 100% reduce 0%
10/08/20 17:32:33 INFO mapred.JobClient: Task Id : attempt_201008111433_0005_r_000000_0, Status : FAILED
Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
10/08/20 17:32:33 WARN mapred.JobClient: Error reading task outputConnection refused
10/08/20 17:32:33 WARN mapred.JobClient: Error reading task outputConnection refused

相关推荐

    hadoop常见问题及解决办法

    Hadoop常见问题及解决办法汇总 Hadoop是一个基于Apache的开源大数据处理框架,广泛应用于大数据处理、数据分析和机器学习等领域。...同时,需要注意的是,在解决问题时,需要小心地备份重要文件,以免造成数据丢失。

    Hadoop使用常见问题以及解决方法

    在 Hadoop 中,Shuffle Error 是一个常见的问题,主要是由于系统默认的文件打开数限制太小,导致程序无法正常运行。解决方法是修改 `/etc/security/limits.conf` 文件,增加文件打开数的限制,将 `nofile` 的值设置...

    hadoop出错解决方法

    一、Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out 这个错误是由于系统默认的打开文件数限制太小,导致程序无法正常工作。解决方法是修改 /etc/security/limits.conf 文件,增加打开文件数的...

    Hadoop MapReduce作业卡死问题的解决方法.docx

    ### Hadoop MapReduce作业卡死问题的解决方法 #### 一、问题背景 在使用Hadoop MapReduce进行大规模数据处理的过程中,遇到了一个棘手的问题——部分MapReduce作业长时间卡死,严重影响了系统的运行效率和资源利用...

    Java-org.apache.hadoop

    在`hadoop-core-0.20.2-320-sources.jar`这个文件中,我们可以找到源代码,这对于开发者来说非常有价值,因为它允许他们深入了解Hadoop的工作原理,调试问题,以及根据需要进行定制和扩展。 HDFS的主要组件包括...

    Hadoop实战入门

    例如,如何处理datanode启动失败、taskTracker和jobTracker启动失败、ShuffleError等。 此外,Hadoop集群在操作过程中可能遇到的其他问题也进行了详细说明,例如oom(Out Of Memory)错误、无法获取数据块等,并...

    Hadoop入门实战手册

    - **ShuffleError: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out**:通常是由于网络问题导致数据传输失败,可以尝试调整网络设置或者增加重试次数。 - **Too many fetch-failures**:同样与网络问题有关,可以...

    hadoop 2.7.6 eclipse插件

    已经测试过workcount例子程序! [hadoop@test Desktop]... IO_ERROR=0 WRONG_LENGTH=0 WRONG_MAP=0 WRONG_REDUCE=0 File Input Format Counters Bytes Read=129 File Output Format Counters Bytes Written=40

    Hadoop 0.20.2在linux下配置

    Hadoop在运行过程中可能遇到`ShuffleError: Exceeded MAX_FAILED_UNIQUE_FETCHES`错误,这通常是因为系统资源限制(如文件句柄数量)不足引起。解决办法如下: 1. **修改配置文件**:编辑`/etc/security/limits....

    hive on spark mr 数据开发常见问题解决

    如果看到`FAILED: Execution Error, return code 3 from org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask`,这可能是因为MapJoin操作导致的问题。为避免这类错误,可以尝试设置`hive.auto.convert.join = false...

Global site tag (gtag.js) - Google Analytics