遇到问题以后先查看日志,以下是常见的错误情况及解决方法,希望对大家有所帮助。
1、启动hadoop时没有NameNode的可能原因:
(1) NameNode没有格式化
(2) 环境变量配置错误
(3) Ip和hostname绑定失败
2、地址占用
报错:org.apache.hadoop.hdfs.server.namenode.NameNode: Address already in use
解决方法:查找被占用的端口号对应的PID:netstat –tunl
- Pkill -9 PID 实在不行就killall -9 java
3、safeMode
报错:
bin/hadoop fs -put ./input input
put: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/input. Name node is in safe mode.
hadoop dfsadmin -safemode leave
解决方法:
NameNode在启动的时候首先进入安全模式,如果dataNode丢失的block达到一定的比例(1-dfs.safemode.threshold.pct),则系统一直处于安全模式状态,即只读状态。
dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS启动的时候,如果DataNode上报的block个数达到了元数据记录的block个数的0999倍才可以离开安全模式,否则一直是这种只读模式。如果设置为1,则HDFS一直处于安全模式。
下面这行摘录自NameNode启动时的日志(block上报比例1达到了阈值0.999)
The ratio of reported blocks 1.0000 has reached the threshold 0.9990. Safe mode will be turned off automatically in 14 seconds.
有两种方法离开这种安全模式:
(1) 修改dfs.safeMode.threshold.pct为一个比较小的值,缺省是0.999;
(2) hadoop dfsadmin –safemode leave命令强制离开
用户可通过dfsadmin –safemode value来操作安全模式,参数value说明如下:
Enter : 进入安全模式
Leave :强制NameNode离开安全模式
Get : 返回安全模式是否开启的信息
Wait:等待,一直到安全模式结束。
4、could only be replicatied to 0 nodes, instead of 1
报错:
hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop
.ipc.RemoteException: java.io.IOException: ... could only be replicated to 0 nodes, instead of 1 ...
可能出现的现象:用jps查看进程都正常。但是用web查看的话,live nodes 为0,这说明datanode没有正常启动,可是datanode进程又启动了。
解决方法:
(1) 防火墙原因:
- 永久关闭防火墙命令:chkconfig iptables stop
(2) 磁盘空间原因:
- df –ah #查看磁盘空间
如果是磁盘空间不够,则调整磁盘空间(像下图就是磁盘空间不够)
如果上述方法不行,可用以下方法(只不过会丢失数据,慎用)
A. 先运行stop-all.sh
B. 格式化namenode,不过在这之前先删除原目录,
即core-site.xml下配置的<name>hadoop.tmp.dir</name>指向的目录,
删除后切记重新建立配置的空目录,然后运行命令hadoop namenode-format。
5、启动时报错java.net. UnknownHostException
原因分析:通过localhost.localdomain根本无法映射到一个IP地址。
解决方法:查看/etc/hosts,将主机名hostname添加到hosts文件中。
6、启动时报错: java.io.IOException: File jobtracker.info could only be replicated to 0 nodes, instead of 1。
解决方法:
首先,检查防火墙是否关闭,是否对各节点的通信产生了影响;
其次,可以检查namenode和datanode中的namespaceID的值是否相同,在不同的情况下,会造成该问题,修改为相同的值后,重启该节点;
然后,将safemode设置为off状态
Hadoop dfsadmin –safemode leave
此外,还需检查/etc/hosts文件中主机名的映射是否正确,不要使用127.0.0.1或localhost。
将safemode设置为off状态可以有两种方法:
执行上面的命令可以强制设置为off状态,或者在hdfs-site.xml文件中添加如下代码,将safemode的threshold.pct设置为较小的值,这种方法避免了在执行hadoop过程中经常性遇到错误Name node is in safe mode而导致需强制将safemode置为off。
[java] view plaincopyprint? 1. <span style="font-size:18px;"><property>
-
<name>dfs.safemode.threshold.pct</name>
-
<value>0.95f</value>
-
</property>
-
</span>
7、ip和域名解析问题
也会造成File jobtracker.info could only be replicated to 0 nodes, instead of 1的问题,此时要检查/etc/hosts文件中主机名的映射是否正确,127.0.1 对应的名称不能为空或者其他不存在的主机名
8、hive执行报错: java.lang.OutOfMemoryError: GC overhead limit exceeded(没有试验过,仅作为参考)
原因:
这个是jdk6新增的错误类型,是发生在GC占用大量时间为释放很小空间的时候发生的,是一种保护机制。
解决方法:
关闭该功能,可以添加JVM的启动参数来限制使用内存:
在mapred-site.xml里新增项:mapred.child.java.opts,
内容:-XX:-UseGCOverheadLimit
9. FATAL [main] org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: Java heap space
单个shuffle能够消耗的内存占reduce所有内存的比例,默认值为0.25。Expert”专家模式”,说的很唬人。。
mapred-site.xml中,降低mapreduce.reduce.shuffle.memory.limit.percent这个参数应该可以使得程序选择OnDiskMapout而不是选择InMemory,调低至0.06在测试,顺利执行,不再报错。
相关推荐
"Hadoop 使用常见问题以及解决方法" Hadoop 作为一个大数据处理的开源框架,广泛应用于数据存储、处理和分析等领域。但是在使用 Hadoop 时,经常会遇到一些常见的问题,本文将对这些问题进行总结和解决。 Shuffle ...
Hadoop使用常见问题以及解决方法.doc Hadoop使用常见问题以及解决方法.doc
hadoop常见问题及解决方法 Hadoop是大数据处理的重要工具,但是在安装和使用Hadoop时,可能会出现一些常见的问题,这些问题可能会导致Hadoop无法正常工作,或者无法达到预期的性能。下面是Hadoop常见的问题及解决...
#### 七、常见问题与解决方案 1. **权限问题**:确保所有的Hadoop配置文件和服务都是以hadoop用户身份运行的。 2. **网络问题**:检查网络配置是否正确,确保主机名解析正常。 3. **日志错误**:查阅Hadoop的日志...
### Hadoop Datanode启动失败:...- **Hadoop故障排查指南**:参考更多关于Hadoop常见问题及其解决方案的文章和资料。 通过以上步骤和建议,可以有效地解决Hadoop Datanode启动失败的问题,并确保Hadoop集群稳定运行。
Hadoop安装及常见异常处理,记录了在Hadoop安装中可能出现的几类常见异常及其解决方案
Hadoop常见问题及解决办法汇总 Hadoop是一个基于Apache的开源大数据处理框架,广泛应用于大数据处理、数据分析和机器学习等领域。然而,在使用Hadoop时,经常会遇到一些常见的问题,这些问题可能会导致Hadoop集群...
**4.1 Hadoop安装常见问题** - **权限问题**: 确保所有节点上Hadoop相关的目录具有正确的权限。 - **网络问题**: 检查各个节点之间的网络连通性。 - **日志分析**: 通过分析日志文件定位问题。 **4.2 HBase安装...
在安装 Hadoop 过程中,可能会遇到一些问题,例如 JDK 安装失败、Hadoop 文件夹权限问题等。可以通过查看日志文件或搜索在线资源来解决这些问题。 安装 Hadoop 需要小心翼翼,需要按照步骤安装和配置每个组件,否则...
Hadoop 安装常见问题及解决方案 - **DataNode 启动失败**:安装 Hadoop 时 DataNode 进程未能正常启动。这可能是因为配置文件设置不当或权限问题。检查 hadoop-env.sh 和 hdfs-site.xml 配置文件,确保 DataNode ...
在Hadoop安装配置过程中,可能会遇到各种问题,如安装失败、配置错误或集群启动不了等。文档需要提供这些常见问题的解决方法,帮助用户快速定位和解决问题。 以上内容是根据所提供文件的【部分内容】中提取的知识点...
### Hadoop学习常见问题解析 #### Namenode问题 ##### cannotdeletenamenodeisinsafemode **问题描述**:当尝试向HDFS系统中放置数据时,可能会遇到`namenodeisinsafemode`的问题,即使使用了`Hadoop dfsadmin -...
通过上述步骤的逐一排查与修复,大多数Hadoop集群部署过程中的常见问题都可以得到有效解决。需要注意的是,在实际操作中可能还会遇到其他类型的错误或异常,因此灵活运用上述方法并结合具体的错误信息来定位问题是...
"Hadoop大数据常见面试题库"通常涵盖了Hadoop生态系统的核心组件、数据处理原理、集群管理和优化等多个方面,这对于求职者或者想要提升自己Hadoop技能的人来说是宝贵的资料。以下是基于这个主题的一些关键知识点: ...
熟悉CDH的常见问题和解决方案,能有效提升集群的稳定性和可用性。 9. **最佳实践** 为了确保CDH集群的高效运行,需要遵循一些最佳实践,如定期清理数据,合理设定HDFS的副本数量,优化MapReduce任务的内存分配等。...
在Windows 10和Windows 7操作系统中安装Hadoop是一项技术性的任务,因为涉及到处理依赖性问题。Hadoop是Apache开源项目,主要用于大数据处理和分布式计算。在这个过程中,我们需要确保所有必要的组件都正确配置,...
最后,"Hadoop安装手册.pdf"很可能是官方或第三方编写的全面安装指南,包含更详细的步骤、最佳实践和常见问题解答。这份手册可能涵盖单机模式、伪分布式模式和完全分布式模式的安装,以及如何进行故障排查。 总的来...
10. **常见问题与解决**:在安装过程中可能会遇到如端口冲突、权限问题、配置错误等常见问题,截图可以帮助识别这些问题并找到相应的解决方案。 这个资源对于那些正在尝试自己动手搭建Hadoop环境的人来说非常宝贵,...
### Hadoop 2.6.0 伪分布模式安装详细指南 #### 一、环境准备与常见问题 在开始安装之前,确保您的机器满足以下条件: 1. **JDK 版本确认**:Hadoop 2.6.0 对 JDK 的版本有一定要求,通常推荐使用 Oracle JDK 1.7...
综上所述,正确理解和应用Hadoop至关重要,避免这些误解可以帮助企业更好地利用Hadoop解决实际问题,提高数据处理的效率和价值。在实践中,结合业务场景,选择合适的技术栈和工具,才能充分发挥Hadoop在大数据时代的...