1:Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out
Answer:
程序里面需要打开多个文件,进行分析,系统一般默认数量是1024,(用ulimit -a可以看到)对于正常使用是够了,但是对于程序来讲,就太少了。
修改办法:
修改2个文件。
/etc/security/limits.conf
vi /etc/security/limits.conf
加上:
* soft nofile 102400
* hard nofile 409600
$cd /etc/pam.d/
$sudo vi login
添加 session required /lib/security/pam_limits.so
假如修改过还有这个问题,并且查看 master 和 slave log发现有 secondarynamenode http:0.0.0.0:50070 ... 错误 。说明还是配置有问题。
要在 hadoop-site里面设定 dfs.secondary.http.address
${master}:50090
2:Too many fetch-failures
Answer:
出现这个问题主要是结点间的连通不够全面。
1) 检查 、/etc/hosts
要求本机ip 对应 服务器名
要求要包含所有的服务器ip + 服务器名
2) 检查 .ssh/authorized_keys
要求包含所有服务器(包括其自身)的public key
PS:假如采用 /etc/hosts 主要问题出在它。
3:处理速度特别的慢 出现map很快 但是reduce很慢 而且反复出现 reduce=0%
Answer:
结合第二点,然后
修改 conf/hadoop-env.sh 中的export HADOOP_HEAPSIZE=4000
4:能够启动datanode,但无法访问,也无法结束的错误
在重新格式化一个新的分布式文件时,需要将你NameNode上所配置的dfs.name.dir这一namenode用来存放NameNode 持久存储名字空间及事务日志的本地文件系统路径删除,同时将各DataNode上的dfs.data.dir的路径 DataNode 存放块数据的本地文件系统路径的目录也删除。如本此配置就是在NameNode上删除/home/hadoop/NameData,在DataNode上 删除/home/hadoop/DataNode1和/home/hadoop/DataNode2。这是因为Hadoop在格式化一个新的分布式文件系 统时,每个存储的名字空间都对应了建立时间的那个版本(可以查看/home/hadoop /NameData/current目录下的VERSION文件,上面记录了版本信息),在重新格式化新的分布式系统文件时,最好先删除NameData 目录。必须删除各DataNode的dfs.data.dir。这样才可以使namedode和datanode记录的信息版本对应。
注意:删除是个很危险的动作,不能确认的情况下不能删除!!做好删除的文件等通通备份!!
5:java.io.IOException: Could not obtain block: blk_194219614024901469_1100 file=/user/hive/warehouse/src_20090724_log/src_20090724_log
出现这种情况大多是结点断了,没有连接上。
6:java.lang.OutOfMemoryError: Java heap space
出现这种异常,明显是jvm内存不够得原因,要修改所有的datanode的jvm内存大小。
Java -Xms1024m -Xmx4096m
一般jvm的最大内存使用应该为总内存大小的一半,我们使用的8G内存,所以设置为4096m,这一值可能依旧不是最优的值。(其实对于最好设置为真实物理内存大小的0.8)
7:出现map%,但是呢reduce到98%左右的时候呢,就直接进failedjobs了
解决办法:
检查mapred.map.tasks是不是设置的太多了,设置太多的话会导致处理大量的小文件
检查mapred.reduce.parallel.copies是否设置合适。
8 :
Wrong FS error: hdfs://aaa.local/tmp/hadoop_root/... expect hdfs://aaa/tmp/hadoop_root错误 主要还是 /etc/hosts设定的问题。
http://www.iteye.com/topic/517026
分享到:
相关推荐
在Hadoop集群部署过程中,经常会出现DataNode无法成功连接到NameNode的情况,导致集群无法正常启动。 **原因分析:** 1. **主机名解析问题:** 主要是由于/etc/hosts文件中的配置不正确或存在冲突导致的,特别是当...
但是在使用 Hadoop 过程中,我们经常会遇到一些错误和问题,本文将为您提供一些常见的 Hadoop 故障解决方法。 一、Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out 这个错误是由于系统默认的打开...
hadoop配置运行错误解决方法 hadoop是一个大数据处理的基础架构,但是在实际使用过程中经常会碰到各种各样的问题,以下是解决hadoop配置运行错误的一些经验总结: 一、hadoop集群在namenode格式化后重启集群会出现...
在大数据处理中,Logstash 和 Hadoop 是经常被使用的组件,但是它们之间的整合可能会出现一些报错,例如 Failed to connect to host 192.168.0.80:50070,No route to host 等。这篇文章将详细介绍 Logstash6 整合 ...
本文将详细介绍这两个文件及其在Hadoop生态系统中的作用,以及如何解决它们缺失的问题。 首先,`hadoop.dll`是一个动态链接库文件,主要在Windows操作系统上用于支持Hadoop本地运行时环境。它包含了Hadoop在Windows...
在开发过程中,将"hadoop-common.zip"解压后放入正确的目录,可以确保开发环境正确识别并使用Hadoop的相关组件,解决可能出现的异常。 当在IDE中使用Hadoop时,需要配置Hadoop的环境变量,包括HADOOP_HOME和PATH,...
在Windows环境下搭建Hadoop开发或测试环境时,经常会遇到一个问题,那就是“缺少winutils.exe”错误。这个错误意味着系统无法找到必要的Hadoop工具组件,winutils.exe是Hadoop在Windows操作系统上运行的关键部分,...
在安装过程中,我们经常会遇到需要替换特定文件的情况,以确保系统的正确运行。我们将详细介绍安装步骤、可能遇到的问题以及解决方案。 首先,Hadoop 2.7.3的安装通常涉及以下几个关键步骤: 1. **下载Hadoop**: ...
- **解决方法**:更改SSH服务的监听端口,例如在 `/etc/ssh/sshd_config` 文件中设置 `Port 2222` 并重启SSH服务。 以上是关于SSH配置及常见错误的处理方法的详细介绍。这些知识点可以帮助您更好地理解和操作SSH,...
对于初学者来说,经常遇到的错误如“找不到hadoop.dll”或“找不到winutils.exe”,这通常是由于环境变量配置不正确或者缺少这些文件导致的。因此,正确地获取并配置这两个文件,是解决Eclipse中Hadoop环境配置问题...
8. **问题排查与故障诊断**:在学习过程中,了解如何处理Hadoop运行中遇到的问题和故障是非常重要的,笔记可能会涵盖一些常见的错误及其解决方案。 通过这份详尽的笔记,无论是初学者还是有一定经验的开发者,都能...
在Windows 7环境下,开发人员经常需要通过Eclipse IDE与远程Linux系统上的Hadoop集群进行交互,例如执行MapReduce任务。然而,由于操作系统和环境差异,可能会遇到一些问题。本文将详细阐述如何解决在Win7中使用...
在搭建Hadoop环境的过程中,经常会遇到一些挑战,主要包括SSH免密登录问题、Namenode服务未启动以及Datanode服务缺失。以下是对这些问题的详细解释和解决方法。 1. SSH免密登录问题: 当使用`start-all.sh`启动...
在进行实际操作时,记得经常查看Hadoop的日志文件,以获取错误信息和调试线索。 总之,配置Hadoop的伪分布式环境涉及多个环节,每个环节都需要细心操作,确保配置正确无误。一旦成功,你就可以在本地环境中体验到...
在使用Apache Hadoop进行分布式计算时,经常遇到与`hadoop.dll`和`winutils.exe`相关的错误,尤其是在Windows环境中。这两个文件对于Hadoop在Windows上的正常运行至关重要。`hadoop.dll`是Java Native Access(JNA)...
在Windows环境下调试Hadoop,尤其是涉及HDFS(Hadoop Distributed File System)的操作时,经常会遇到需要配置和使用`winutils.exe`和`hadoop.dll`的情况。这两个文件是Apache Hadoop在Windows操作系统上的关键组件,...
但是,在使用 Hive 过程中,经常会遇到一些常见错误,影响着整个项目的进度和效率。因此,本文将总结常见的 Hive 错误及解决方案,帮助开发者快速解决问题,提高工作效率。 错误一:SecureCRT 7.3 出现乱码或者删除...
在IT行业中,对开源软件的理解和使用经常需要深入到源码层面,Hadoop作为大数据处理领域的重要组件,其源码编译是开发者和技术爱好者研究其内部机制的关键步骤。本篇将详细阐述如何在Linux环境下编译Hadoop 2.5.0的...
总结来说,“hadoop-common-2.2.0-bin_32bit_&_64bit”压缩包为Windows用户提供了调试Hadoop所需的必备组件,包括32位和64位版本的Hadoop Common库,以及解决“空指针异常”的关键依赖`hadoop.dll`和`winutils.exe`...