`
ssxxjjii
  • 浏览: 950495 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop常见异常

 
阅读更多

错误解决:

1.如果在bin/hadoop dfs -put /home/test-in input该过程中出现"can only be replicated to node 0, instead of 1",解决办法是打开http://localhost:50070/dfshealth.jsp查看,确定了livenode数目为你的机器实际数目时,再进行put(注:如果有个别datanode没有启动起来,这是正常的,重新格式化文件系统,然后start-up)。

2.如果put时出现java.io.IOException: Not a file: hdfs://localhost:9000/user/icymary/input/test-in 

解决办法是bin/hadoop dfs -rmr input

bin/hadoop dfs -put /home/test-in input

原因是,当执行了多次put之后,就会在分布式文件系统中生成子目录,删除重新put即可。

3.如果在 bin/hadoop jar hadoop-0.16.0-examples.jar wordcount input output该过程中出现"can only be replicated to node 0, instead of 1",解决办法是,给磁盘释放更多的空间,当时我的空间只有200M了,运行一直报错,折腾了1天。

4.如果 bin/hadoop jar hadoop-0.16.0-examples.jar wordcount input output过程中

INFO mapred.JobClient: map 0% reduce 0%

且一直卡住,在log日志中也没有出现异样,那么解决办法是,把/etc/hosts里面多余的机器名删掉,即可。
-----------------------

异常分析
在进行上述实践过程中,可能会遇到某种异常情况,大致分析如下:
1、Call to localhost/127.0.0.1:9000 failed on local exception异常
(1)异常描述
可能你会在执行如下命令行的时候出现:
[root@localhost hadoop-0.19.2]# bin/hadoop jar hadoop-0.19.0-examples.jar wordcount input output
出错异常信息如下所示:
10/08/01 19:50:55 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s).
10/08/01 19:50:56 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 1 time(s).
10/08/01 19:50:57 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 2 time(s).
10/08/01 19:50:58 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 3 time(s).
10/08/01 19:50:59 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 4 time(s).
10/08/01 19:51:00 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 5 time(s).
10/08/01 19:51:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 6 time(s).
10/08/01 19:51:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 7 time(s).
10/08/01 19:51:03 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 8 time(s).
10/08/01 19:51:04 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 9 time(s).
java.lang.RuntimeException: java.io.IOException: Call to localhost/127.0.0.1:9000 failed on local exception: Connection refused
        at org.apache.hadoop.mapred.JobConf.getWorkingDirectory(JobConf.java:323)
        at org.apache.hadoop.mapred.FileInputFormat.setInputPaths(FileInputFormat.java:295)
        at org.apache.hadoop.mapred.FileInputFormat.setInputPaths(FileInputFormat.java:268)
        at org.apache.hadoop.examples.WordCount.run(WordCount.java:146)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.examples.WordCount.main(WordCount.java:155)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:68)
        at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:141)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:61)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:165)
        at org.apache.hadoop.mapred.JobShell.run(JobShell.java:54)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79)
        at org.apache.hadoop.mapred.JobShell.main(JobShell.java:68)
Caused by: java.io.IOException: Call to localhost/127.0.0.1:9000 failed on local exception: Connection refused
        at org.apache.hadoop.ipc.Client.call(Client.java:699)
        at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:216)
        at $Proxy0.getProtocolVersion(Unknown Source)
        at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:319)
        at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:104)
        at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:177)
        at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:74)
        at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1367)
        at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:56)
        at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1379)
        at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:215)
        at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:120)
        at org.apache.hadoop.mapred.JobConf.getWorkingDirectory(JobConf.java:319)
        ... 21 more
Caused by: java.net.ConnectException: Connection refused
        at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
        at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574)
        at sun.nio.ch.SocketAdaptor.connect(SocketAdaptor.java:100)
        at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:299)
        at org.apache.hadoop.ipc.Client$Connection.access$1700(Client.java:176)
        at org.apache.hadoop.ipc.Client.getConnection(Client.java:772)
        at org.apache.hadoop.ipc.Client.call(Client.java:685)
        ... 33 more
(2)异常分析
从上述异常信息分析,这句是关键:
Retrying connect to server: localhost/127.0.0.1:9000.
是说在尝试10次连接到“server”时都无法成功,这就说明到server的通信链路是不通的。我们已经在hadoop-site.xml中配置了namenode结点的值,如下所示:
  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
  </property>
所以,很可能namenode进程根本就没有启动,更不必谈要执行任务了。
上述异常,过程是:
格式化了HDFS,但是没有执行bin/start-all.sh,直接启动wordcount任务,就出现上述异常。
所以,应该执行bin/start-all.sh以后再启动wordcount任务。
2、Input path does not exist异常
(1)异常描述
当你在当前hadoop目录下面创建一个input目录,并cp某些文件到里面,开始执行:
[root@localhost hadoop-0.19.2]# bin/hadoop namenode -format
[root@localhost hadoop-0.19.2]# bin/start-all.sh  
这时候,你认为input已经存在,应该可以执行wordcount任务了:
[root@localhost hadoop-0.19.2]# bin/hadoop jar hadoop-0.19.0-examples.jar wordcount input output
结果抛出一堆异常,信息如下:
org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: hdfs://localhost:9000/user/root/input
        at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:179)
        at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:190)
        at org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:782)
        at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1127)
        at org.apache.hadoop.examples.WordCount.run(WordCount.java:149)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.examples.WordCount.main(WordCount.java:155)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:68)
        at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:141)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:61)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:165)
        at org.apache.hadoop.mapred.JobShell.run(JobShell.java:54)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79)
        at org.apache.hadoop.mapred.JobShell.main(JobShell.java:68)
上述异常,我模拟的过程是:
[root@localhost hadoop-0.19.2]# bin/hadoop fs -rmr input
Deleted hdfs://localhost:9000/user/root/input
[root@localhost hadoop-0.19.2]# bin/hadoop fs -rmr output
Deleted hdfs://localhost:9000/user/root/output
(2)异常分析
本地的input目录并没有上传到HDFS上,所出现org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: hdfs://localhost:9000/user/root/input
只需要执行上传的命令即可:
[root@localhost hadoop-0.19.2]# bin/hadoop fs -put input/ input
分享到:
评论
1 楼 yingjianxuehun 2013-09-01  
INFO mapred.JobClient: map 0% reduce 0%
请问lz,我在伪分布模式下也遇到此问题,但是我看hosts没有别的主机,还有别的原因么?

相关推荐

    Hadoop常见异常

    Hadoop常见异常解决方案 Hadoop是一款大数据处理框架,但是在实际使用过程中,可能会遇到各种异常情况。本文将对Hadoop常见的异常进行总结和分析,并提供相应的解决方案。 一、Cannot replicate to node 0, ...

    hadoop安装以及常见异常处理.docx

    Hadoop安装及常见异常处理,记录了在Hadoop安装中可能出现的几类常见异常及其解决方案

    hadoop.dll 资源包

    总的来说,hadoop.dll的丢失或错误可能导致Hadoop集群运行异常,通过了解其作用,正确地部署和管理这个文件,可以确保Hadoop系统的稳定运行。同时,对Hadoop整体架构的理解,以及如何阅读和解析错误信息,是解决此类...

    Hadoop汇总整理.doc

    Hadoop 在 Windows 上常见异常: 1. 异常一:解决方法:hadoop-common-2.2.0-bin-master 中的文件放置到 hadoop 解压后的 bin 文件夹中,注意:如果有重复的文件不要移动。 2. 异常二:执行命令 hadoop fs -mkdir -...

    hadoop运行wordcount实例

    在配置Hadoop的过程中,可能会遇到以下常见问题及其解决方法: 1. **Java环境问题**: - 错误提示:“java: no such file or directory”。 - 解决方案:确保已经正确安装 Java 环境并且 PATH 环境变量设置正确。...

    Hadoop Share

    在Hadoop中,我们可以使用MapReduce编写程序来处理这些日志数据,例如分析用户行为、识别访问模式、检测异常流量等。通过Hadoop,我们可以高效地处理大量日志文件,而无需担心单机系统的内存和处理能力限制。 总的...

    hadoop权威指南 ncdc2015年数据

    在Hadoop环境中,这样的大量小文件处理是一个常见的挑战,因为Hadoop最初设计是为处理大文件而优化的。每个小文件作为一个单独的HDFS块,会导致大量的小文件开销,影响系统的整体性能。 1. **Hadoop核心组件**:...

    java整合spring和hadoop HDFS全部jar

    Java整合Spring和Hadoop HDFS是一项常见的任务,特别是在大数据处理和分布式存储的场景下。这里,我们将深入探讨这个主题,了解如何将这三个关键技术融合在一起。 首先,Java是编写应用程序的通用编程语言,它提供...

    Hadoop-NativeIO.java

    在本地测试Hadoop时,这样的问题很常见,因为不同操作系统和环境配置可能会带来各种挑战。通过理解Hadoop的本地I/O机制和Windows平台的交互,我们可以更有效地定位并解决这类问题。在进行测试时,确保所有依赖项都...

    hadoop2.7.3+mahout0.9问题集

    - **查阅官方文档**:Hadoop和Mahout的官方文档通常提供了详细的配置指南和常见问题解答。 - **社区支持**:利用开源社区,如Stack Overflow、GitHub等,搜索类似问题的解决方案,或者直接提问寻求帮助。 - **代码...

    php hadoop源码

    这些例子可能涵盖了读取HDFS文件、运行MapReduce作业等常见操作。 6. **性能优化**:由于PHP不是原生支持分布式计算的语言,因此在使用PHP操作Hadoop时,可能需要考虑性能优化。这可能涉及数据分块策略、内存管理、...

    Hadoop网站KPI使用数据

    常见的压缩格式有Gzip、Bzip2、LZO和Snappy等,其中Snappy由于其较高的压缩和解压缩速度,常被用于Hadoop环境。在这个场景中,656MB的日志数据可能经过压缩后变得更小,使得处理更快,资源利用率更高。 “多节点...

    Spark编译与部署(中)--Hadoop编译安装

    ##### 3.3 安装HADOOP 2.2.0出现不能找到/ETC/HADOOP目录异常 如果在安装过程中遇到找不到`/etc/hadoop`目录的问题,需要确保已经按照文档中的步骤创建了这个目录,并且所有配置文件都已放置在正确的路径下。 通过...

    hadoop集群遇到的问题及其解决方法

    通过上述步骤的逐一排查与修复,大多数Hadoop集群部署过程中的常见问题都可以得到有效解决。需要注意的是,在实际操作中可能还会遇到其他类型的错误或异常,因此灵活运用上述方法并结合具体的错误信息来定位问题是...

    Hadoop实战手册

    启动执行和异常检查17#通过界面查看集群部署部署成功18#通过执行 Hadoop pi 运行样例检查集群是否成功19#安装部署 常见错误207. Hadoop 集群系统 配置安装配置20#检查node节点linux 基础环境是否正常,参考 [ linux ...

    大数据技术之-03-Hadoop学习-Hadoop运行模式及常见错误及解决方案.docx

    大数据技术之 Hadoop 运行模式及常见错误及解决方案 Hadoop 运行模式是大数据技术中的一个重要概念,它决定了 Hadoop 集群的运行方式和性能。在本文中,我们将详细介绍 Hadoop 的三种运行模式:本地运行模式、伪...

    Hadoop气象数据

    2. **数据预处理**:在处理气象数据前,可能需要进行预处理步骤,例如清洗数据、去除异常值、格式转换等,以确保数据质量和一致性。 3. **数据分块与分布**:Hadoop通过将大文件切分成多个块并分布到集群的不同节点...

    Hadoop fs包文件系统抽象

    标题中的“Hadoop fs包...由于没有具体的内容可以引用,以上是基于常见Hadoop FileSystem API使用的分析。如果你能够访问到提供的博客链接,那里的信息应该更加详细且具体,可以帮助你深入理解Hadoop的文件系统抽象。

    王家林的“云计算分布式大数据Hadoop实战高手之路

    教程也会讲解常见问题的解决方法,以及如何进行性能调优,以提高Hadoop集群的稳定性和效率。 总之,“王家林的“云计算分布式大数据Hadoop实战高手之路"是一个全面且深入的Hadoop学习资源,旨在帮助学习者系统地...

    基于Hadoop的商品推荐系统.zip

    2. 数据预处理:Hadoop的HDFS负责存储大量原始数据,MapReduce则用于数据清洗、转换,如去除异常值、填充缺失值、标准化数据等。 3. 特征提取:利用MapReduce对预处理后的数据进行特征提取,例如用户的购买频次、...

Global site tag (gtag.js) - Google Analytics