运行hadoop程序时出现以下问题。
09/12/13 19:47:12 INFO mapred.JobClient: Running job: job_200912131946_0001
09/12/13 19:47:13 INFO mapred.JobClient: map 0% reduce 0%
09/12/13 19:47:21 INFO mapred.JobClient: map 15% reduce 0%
09/12/13 19:47:24 INFO mapred.JobClient: map 23% reduce 0%
09/12/13 19:47:27 INFO mapred.JobClient: map 38% reduce 0%
09/12/13 19:47:30 INFO mapred.JobClient: map 46% reduce 0%
09/12/13 19:47:33 INFO mapred.JobClient: map 61% reduce 0%
09/12/13 19:47:36 INFO mapred.JobClient: map 69% reduce 0%
09/12/13 19:47:40 INFO mapred.JobClient: map 84% reduce 0%
09/12/13 19:47:46 INFO mapred.JobClient: map 100% reduce 0%09/12/13 19:58:18 INFO mapred.JobClient: Task Id : attempt_200912131946_0001_m_000000_0, Status : FAILED
Too many fetch-failures
09/12/13 20:01:27 WARN mapred.JobClient: Error reading task outputConnection timed out
09/12/13 20:04:36 WARN mapred.JobClient: Error reading task outputConnection timed out在/etc/hosts里面有一行是
201.139.56.34 TestMachine从网上查找,找到这个东西
1. Make sure that all the needed parameters are configured in hadoop-site.xml, and all the worker nodes should have the same content of this file.
2. URI for TaskTracker and HDFS should use hostname instead of IP address. I saw some instances of Hadoop cluster using IP address for the URI, they can start all the services and execute the jobs, but the task never finished successfully.
3. Check the file /etc/hosts on all the nodes and make sure that you’re binding the host name to its network IP, not the local one (127.0.0.1), don’t forget to check that all the nodes are able to communicate to the others using their hostname.
Anyway, it doesn’t make sense to me when Hadoop always try to resolve an IP address using the hostname. I consider this is a bug of Hadoop and hope they will solve it in next stable version.
然后我就把/etc/hosts里面的那一行改为
127.0.0.1 TestMachine
再运行程序就没有出现问题。
更多信息请查看 java进阶网 http://www.javady.com
分享到:
相关推荐
hadoop常见问题及解决方法 Hadoop是大数据处理的重要工具,但是在安装和使用Hadoop时,可能会出现一些常见的问题,这些问题可能会导致Hadoop无法正常工作,或者无法达到预期的性能。下面是Hadoop常见的问题及解决...
Hadoop使用常见问题以及解决方法.doc Hadoop使用常见问题以及解决方法.doc
### Hadoop集群遇到的问题及其解决方法 #### 异常一:DataNode无法连接到NameNode **问题描述:** 在Hadoop集群部署过程中,经常会出现DataNode无法成功连接到NameNode的情况,导致集群无法正常启动。 **原因分析...
Logstash6整合Hadoop报错与解决方案 Logstash是 Elastic Stack 中的数据处理引擎,可以从多种数据源中提取数据,并对其进行处理和转换,然后将其输出到多种目标中,例如 Elasticsearch、Kafka、Hadoop 等。在大...
但是在使用 Hadoop 过程中,我们经常会遇到一些错误和问题,本文将为您提供一些常见的 Hadoop 故障解决方法。 一、Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out 这个错误是由于系统默认的打开...
作为一个开源框架,Hadoop为海量数据的存储、处理和分析提供了高效且可扩展的解决方案。本文将深入探讨“Hadoop高级编程——构建与实现大数据解决方案”这一主题,旨在帮助读者掌握如何利用Hadoop构建实际的大数据...
本篇将深入探讨Hadoop中文乱码问题的原因及解决方案。 首先,我们需要理解Hadoop系统中的编码设置。Hadoop默认使用的是UTF-8编码,但并非所有系统或文件都遵循这一标准。当输入的中文数据使用了不同的编码格式,...
Hadoop 文件上传失败原因分析及解决方法 本文主要讨论了在 Java Web 程序中上传文件到 Hadoop HDFS 文件系统中失败的原因分析及解决方法。通过对问题的分析和解决,可以总结出以下知识点: 1. Hadoop 文件上传失败...
资源中具体对Hadoop HA平台搭建过程中出现的问题给出了相应的解决办法,图文结合,适合新手学习来用,如果遇到其他,欢迎交流学习
### Hadoop Datanode启动失败:...- **Hadoop故障排查指南**:参考更多关于Hadoop常见问题及其解决方案的文章和资料。 通过以上步骤和建议,可以有效地解决Hadoop Datanode启动失败的问题,并确保Hadoop集群稳定运行。
### Hadoop MapReduce作业卡死问题的解决方法 #### 一、问题背景 在使用Hadoop MapReduce进行大规模数据处理的过程中,遇到了一个棘手的问题——部分MapReduce作业长时间卡死,严重影响了系统的运行效率和资源利用...
Hadoop 的出现源于Google发布的MapReduce论文,它为处理大规模数据提供了一个新的解决方案,解决了众多企业和机构面临的海量数据处理难题。 Hadoop 主要由两个关键组件组成:Hadoop Distributed File System (HDFS)...
在windows环境下开发hadoop时,需要配置HADOOP_HOME环境变量,变量值D:\hadoop-common-2.7.3-bin-master,并在Path...解决方案:下载本资源解压将hadoop.dll和winutils.exe文件复制到hadoop2.7.3的bin目录下即可解决。
最后,文档提到总结和感悟部分,虽然没有提供具体内容,但可以推断其内容可能涉及对Hadoop集群管理中遇到的共性问题和解决方案的总结,以及对于故障处理经验的分享。 整体而言,文档涉及了Hadoop集群的日常管理、...
3. **查找替代源**:如果官方下载包中确实没有这个文件,可以在Hadoop社区论坛、GitHub或其他开发者资源中寻找可能的解决方案,比如其他人可能已经共享了缺失的DLL文件。 4. **系统配置**:确保Windows系统满足...
- **社区支持**:利用开源社区,如Stack Overflow、GitHub等,搜索类似问题的解决方案,或者直接提问寻求帮助。 - **代码审查**:检查自己的代码,确保符合Hadoop和Mahout的最佳实践,以及遵循编程规范。 - **性能...
随着时间的推移,Hadoop的社区在不断增长,全球多个大型企业都在使用Hadoop作为其大数据解决方案的基础。 总的来说,Hadoop 1.0和2.0为大数据时代的技术创新与实践奠定了坚实的基础。它不仅推动了大数据领域的发展...
【Hadoop 数据挖掘解决方案】 Hadoop 是一个基于Java的开源框架,主要用于处理和存储大规模数据。它由Apache软件基金会维护,旨在提供分布式文件系统(HDFS)和分布式计算(MapReduce)的能力,使得处理海量数据变...