`
小网客
  • 浏览: 1247446 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Hadoop执行Job时报DiskChecker$DiskErrorException异常原因

 
阅读更多

版本:

 

$ hadoop version 
Hadoop 0.20.2-cdh3u4
Subversion git://ubuntu-slave01/var/lib/jenkins/workspace/CDH3u4-Full-RC/build/cdh3/hadoop20/0.20.2-cdh3u4/source -r 214dd731e3bdb687cb55988d3f47dd9e248c5690
Compiled by jenkins on Mon May  7 13:01:39 PDT 2012
From source with checksum a60c9795e41a3248b212344fb131c12c

 

问题描述:

Hadoop执行MR的时候抛org.apache.hadoop.util.DiskChecker$DiskErrorException异常,详情如下:

 

org.apache.hadoop.util.DiskChecker$DiskErrorException: Could not find any valid local directory for output/map_4.out
        at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.getLocalPathForWrite(LocalDirAllocator.java:376)
        at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:146)
        at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:127)
        at org.apache.hadoop.mapred.MapOutputFile.getInputFileForWrite(MapOutputFile.java:176)
        at org.apache.hadoop.mapred.ReduceTask$ReduceCopier.createKVIterator(ReduceTask.java:2374)
        at org.apache.hadoop.mapred.ReduceTask$ReduceCopier.access$400(ReduceTask.java:582)

问题原因:

 

执行org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.getLocalPathForWrite(...)磁盘空间不足抛异常了

解决方式:

1.查找用户log看看那个job占的空间大

du -m --max-depth=1 /yourpath/mapred/local/userlogs | sort -n

 2.此job如果已经执行完成了那么直接rm -rf即可

最终解决方案:

修改hadoop保留用户日志的时间,修改mapred-site.xml 的mapred.userlog.retain.hours

  <property>
    <name>mapred.userlog.retain.hours</name>
    <value>10</value>
  </property>

 

0
0
分享到:
评论

相关推荐

    hadoop2 安装

    ### Hadoop 2 的安装与配置详解 #### 一、Hadoop 2 概述 Hadoop 是一个能够对大量数据进行分布式处理的软件框架,它由Apache基金会开发。Hadoop 最初的设计是为了处理海量数据的存储和计算需求,通过将大数据集...

    hadoop安装

    在所有节点上执行以下操作,把/usr/local/hadoop-0.20.2-cdh3u5的所有者,所有者组改为hadoop并su成该用户 [root@a1 ~]# chown hadoop.hadoop /usr/local/hadoop-0.20.2-cdh3u5/ -R [root@a2 ~]# chown hadoop....

    win7下hadoop job提交

    在Windows 7环境下提交Hadoop作业(Job)是一项技术性的任务,涉及到多个步骤和概念。首先,我们需要了解Hadoop的基本架构。Hadoop是由Apache软件基金会开发的一个开源分布式计算框架,它允许在廉价硬件上处理和存储...

    第7集-Hadoop环境搭建 - linux(centos7) - 安装配置hive2.1.1.pdf

    ### Hadoop环境搭建之Hive 2.1.1配置详解 #### 一、概述 在构建大数据处理环境时,Apache Hive 是一个重要的组件,它提供了SQL查询功能,使用户能够方便地对存储在Hadoop文件系统(HDFS)中的大规模数据集进行数据...

    Hadoop提交Job执行MR程序代码.zip

    本文将详细解析标题为“Hadoop提交Job执行MR程序代码.zip”的内容,涵盖Hadoop MR程序代码、job提交流程以及MR程序的不同运行模式。 首先,Hadoop MapReduce(简称MR)是基于Google的MapReduce编程模型实现的,主要...

    hadoop-1.2.1-安装配置手册(含安装介质)

    ### Hadoop 1.2.1 安装与配置指南 #### 一、概述 本文档旨在指导用户完成Hadoop 1.2.1版本在Linux环境下的安装与配置过程。Hadoop是一款开源软件框架,主要用于分布式存储和处理大规模数据集。通过本手册的学习,...

    hadoop-2.6.0-hadoop.dll-winutils.exe

    原因是hadoop.dll文件和winutils.exe文件缺失了。解决步骤为: 1,下载这两个文件,下载地址:https://download.csdn.net/download/luxiangzhou/10635946 2,解压之后,把hadoop.dll拷贝到C:\Windows\System32下面...

    hadoop1.0 Failed to set permissions of path 解决方案

    hadoop 启动时 TaskTracker无法启动 ERROR org.apache.hadoop.mapred.TaskTracker: Can not start task tracker because java.io.IOException: Failed to set permissions of path: \tmp\hadoop-admin \mapred\...

    hadoop hql

    解压下载的Hive0.8.1版本 [hadoop@hadoop ~]$ tar xvf hive-0.8.1.tar.gz [hadoop@hadoop ~]$mv hive-0.8.1/usr/local/hadoop/ 3.2

    Hadoop大数据处理-Job提交过程分析

    在Hadoop生态中,提交作业(Job)是将用户编写的程序映射到Hadoop集群并执行处理任务的过程。本文详细分析了Hadoop大数据处理中作业提交的过程。 作业提交过程涉及三个主要组件:JobClient、JobTracker和Job...

    单结点Hadoop安装手册revised.pdf

    《单结点Hadoop安装手册》是一份详细指导如何在单台计算机上搭建Hadoop伪分布式环境的文档。本文档适用于希望通过实践学习和熟悉Hadoop操作的个人,尤其适合初学者进行自我训练。作者建议使用RHEL6.0作为操作系统,...

    hadoop 关闭进程时报错no 进程 to stop

    在Hadoop环境中,当尝试关闭进程时遇到"no process to stop"这样的错误,通常是由于多种原因造成的。这个错误意味着系统无法找到对应的进程ID来执行停止操作。以下是一些可能导致此问题的原因以及相应的解决策略。 ...

    hadoop执行MapReduce测试.pdf

    Hadoop 执行 MapReduce 测试 Hadoop 是一个大数据处理框架,它提供了一个分布式计算模型,即 MapReduce。MapReduce 是一个编程模型,它将大规模数据处理任务分解成小规模的任务,然后将这些任务分布到多个节点上...

    在Ubuntu上装Hadoop

    "Ubuntu 上的 Hadoop 安装指南" 在 Ubuntu 操作系统中安装 Hadoop,是大数据处理和分析的重要一步骤。本文将指导您如何在 Ubuntu 上安装 Hadoop,包括安装前的准备、Hadoop 的下载和安装、Java 环境的配置、ssh ...

    Hadoop多Job并行处理的实例详解

    在Hadoop环境中,多Job并行处理是一种优化大数据处理效率的关键技术。通过对多个Job的并发执行,可以在集群中更有效地利用资源,缩短整体作业的执行时间。本实例将详细讲解如何实现Hadoop多Job并行处理,并提供相关...

    Hadoop的安装

    ### Hadoop的安装与配置详解 #### 一、前言 Hadoop是一个开源的大数据处理框架,主要用于存储和处理大规模的数据集。为了更好地理解和掌握Hadoop的安装与配置过程,本篇文章将根据提供的文件信息详细阐述如何在多...

    远程调用执行Hadoop Map/Reduce

    本篇文章将深入探讨“远程调用执行Hadoop Map/Reduce”的概念、原理及其实现过程,同时结合标签“源码”和“工具”,我们将涉及到如何通过编程接口与Hadoop集群进行交互。 Hadoop MapReduce是一种编程模型,用于大...

    提高hadoop的mapreduce job效率笔记

    以下是一些关键知识点,旨在帮助你提升 Hadoop MapReduce Job 的性能。 1. **Mapper数量的调整**: Mapper的数量直接影响数据的并行处理能力。每个 Mapper 负责处理输入数据的一部分,因此增加 Mapper 数量可以在...

    hadoop的wordcount简单实例

    这是一个wordcount的一个简单实例jar包,仅仅用来做测试。...map类:org.apache.hadoop.wordcount.WordCountMapReduce$WordCountMapper reduce类 org.apache.hadoop.wordcount.WordCountMapReduce$WordCountReducer

Global site tag (gtag.js) - Google Analytics