刚刚学习hadoop,搭建起集群在运行hadoop自带例子时报如下错误。请高手帮我解决下
hadoop jar c:/hadoop/hadoop-0.20.2/hadoop-0.20.2-examples.jar wordcount in/test.txt out
12/06/08 15:57:08 INFO input.FileInputFormat: Total input paths to process : 1
12/06/08 15:57:08 INFO mapred.JobClient: Running job: job_201206081518_0001
12/06/08 15:57:09 INFO mapred.JobClient: map 0% reduce 0%
12/06/08 15:57:18 INFO mapred.JobClient: map 100% reduce 0%
12/06/08 15:57:32 INFO mapred.JobClient: Task Id : attempt_201206081518_0001_r_000000_0, Status : FAILED
java.io.IOException: Can not get the relative path: base = hdfs://MASTER:9000/user/Administrator/out/_temporary/_attempt_201206081518_0001_r_000000_0 child = hdfs://master:9000/user/Administrator/out/_temporary/_attempt_201206081518_0001_r_000000_0/part-r-00000
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.getFinalPath(FileOutputCommitter.java:200)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.moveTaskOutputs(FileOutputCommitter.java:146)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.moveTaskOutputs(FileOutputCommitter.java:165)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.commitTask(FileOutputCommitter.java:118)
at org.apache.hadoop.mapred.Task.commit(Task.java:779)
at org.apache.hadoop.mapred.Task.done(Task.java:691)
at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:414)
at org.apache.hadoop.mapred.Child.main(Child.java:170)
12/06/08 15:57:47 INFO mapred.JobClient: Task Id : attempt_201206081518_0001_r_000000_1, Status : FAILED
java.io.IOException: Can not get the relative path: base = hdfs://MASTER:9000/user/Administrator/out/_temporary/_attempt_201206081518_0001_r_000000_1 child = hdfs://master:9000/user/Administrator/out/_temporary/_attempt_201206081518_0001_r_000000_1/part-r-00000
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.getFinalPath(FileOutputCommitter.java:200)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.moveTaskOutputs(FileOutputCommitter.java:146)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.moveTaskOutputs(FileOutputCommitter.java:165)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.commitTask(FileOutputCommitter.java:118)
at org.apache.hadoop.mapred.Task.commit(Task.java:779)
at org.apache.hadoop.mapred.Task.done(Task.java:691)
at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:414)
at org.apache.hadoop.mapred.Child.main(Child.java:170)
12/06/08 15:58:02 INFO mapred.JobClient: Task Id : attempt_201206081518_0001_r_000000_2, Status : FAILED
java.io.IOException: Can not get the relative path: base = hdfs://MASTER:9000/user/Administrator/out/_temporary/_attempt_201206081518_0001_r_000000_2 child = hdfs://master:9000/user/Administrator/out/_temporary/_attempt_201206081518_0001_r_000000_2/part-r-00000
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.getFinalPath(FileOutputCommitter.java:200)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.moveTaskOutputs(FileOutputCommitter.java:146)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.moveTaskOutputs(FileOutputCommitter.java:165)
at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.commitTask(FileOutputCommitter.java:118)
at org.apache.hadoop.mapred.Task.commit(Task.java:779)
at org.apache.hadoop.mapred.Task.done(Task.java:691)
at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:414)
at org.apache.hadoop.mapred.Child.main(Child.java:170)
12/06/08 15:58:20 INFO mapred.JobClient: Job complete: job_201206081518_0001
12/06/08 15:58:20 INFO mapred.JobClient: Counters: 12
12/06/08 15:58:20 INFO mapred.JobClient: Job Counters
12/06/08 15:58:20 INFO mapred.JobClient: Launched reduce tasks=4
12/06/08 15:58:20 INFO mapred.JobClient: Launched map tasks=1
12/06/08 15:58:20 INFO mapred.JobClient: Data-local map tasks=1
12/06/08 15:58:20 INFO mapred.JobClient: Failed reduce tasks=1
12/06/08 15:58:20 INFO mapred.JobClient: FileSystemCounters
12/06/08 15:58:21 INFO mapred.JobClient: HDFS_BYTES_READ=25
12/06/08 15:58:21 INFO mapred.JobClient: FILE_BYTES_WRITTEN=93
12/06/08 15:58:21 INFO mapred.JobClient: Map-Reduce Framework
12/06/08 15:58:21 INFO mapred.JobClient: Combine output records=5
12/06/08 15:58:21 INFO mapred.JobClient: Map input records=2
12/06/08 15:58:21 INFO mapred.JobClient: Spilled Records=5
12/06/08 15:58:21 INFO mapred.JobClient: Map output bytes=45
12/06/08 15:58:21 INFO mapred.JobClient: Combine input records=5
12/06/08 15:58:21 INFO mapred.JobClient: Map output records=5
分享到:
相关推荐
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储(HDFS)和分布式计算(MapReduce)的能力。然而,在处理包含中文字符的数据时,用户可能会遇到中文乱码的问题。这个问题通常出现在数据读取...
3. **TaskTracker(Hadoop 1.x)或NodeManager(Hadoop 2.x+)**:运行在每个节点上的进程,负责执行由ResourceManager分配的任务。 4. **Map任务**:Map函数接收输入数据,将其切分为键值对,然后应用用户定义的...
其中一个重要检查点是验证NameNode与DataNode之间的节点ID是否一致。如果ID不一致,可能会导致NameNode无法正确识别并连接DataNode,从而引发启动失败的问题。 #### 三、解决方案 针对上述问题,有两种常见且有效...
Hadoop 是一个大数据处理框架,它提供了一个分布式计算模型,即 MapReduce。MapReduce 是一个编程模型,它将大规模数据处理任务分解成小规模的任务,然后将这些任务分布到多个节点上执行,并将结果汇总以获得最终...
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。Hadoop 2.7.3是这个框架的一个稳定版本,它包含了多个改进和优化,以提高性能和稳定性。在这个版本中,Winutils.exe和hadoop.dll是两...
描述中提到的“HADOOP在window环境下,不可执行的问题”可能源于几个原因: 1. **环境变量问题**:Hadoop的可执行文件需要被添加到系统的PATH环境变量中,以便从任何目录下都能执行。如果未正确设置环境变量,...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在普通硬件上高效处理大量数据。在Windows环境下,Hadoop的使用与Linux有所不同,因为它的设计最初是针对Linux操作系统的。"winutils"和"hadoop.dll...
这个问题通常涉及到Hadoop的权限模型、HDFS(Hadoop Distributed File System)的访问控制以及用户身份验证。 Hadoop的权限模型基于Unix式的ACL(Access Control List),它包括用户、组和其他用户的读(read)、写...
2. **Winutils工具**:这是一个在Windows上运行Hadoop必需的工具集,包含一些命令行工具,如`hadoop.dll`和`winutils.exe`。这些文件提供了Hadoop与Windows文件系统交互的接口。通常需要下载对应版本的Hadoop ...
Hadoop是一个开源的分布式计算框架,由Apache基金会开发,它主要设计用于处理和存储大量数据。在提供的信息中,我们关注的是"Hadoop的dll文件",这是一个动态链接库(DLL)文件,通常在Windows操作系统中使用,用于...
在Hadoop生态系统中,Hadoop 2.7.7是一个重要的版本,它为大数据处理提供了稳定性和性能优化。Hadoop通常被用作Linux环境下的分布式计算框架,但有时开发者或学习者在Windows环境下也需要进行Hadoop相关的开发和测试...
hive执行过程,便于初学者尽快掌握hive开发所需知识和技能。
在Linux上,这些功能通常由`bin/hadoop`脚本完成,但在Windows上,由于命令行和文件系统的差异,需要一个单独的可执行文件来模拟这些行为。`winutils.exe`可以帮助用户管理HDFS、设置Hadoop环境变量、启动和停止...
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储和计算的能力。本文将详细探讨与"Hadoop.dll"和"winutils.exe"相关的知识点,以及它们在Hadoop-2.7.1版本中的作用。 Hadoop.dll是Hadoop在...
`hadoop.dll`是一个动态链接库文件,主要用于在Windows环境中提供Hadoop运行时所需的函数库支持,而`winutils.exe`则是一个实用工具程序,它提供了类似于Linux环境下`hadoop`命令行工具的功能。 首先,我们来详细...
`hadoop.dll`是Hadoop在Windows环境下运行所必需的一个动态链接库(Dynamic Link Library)文件。在Linux系统中,Hadoop依赖于`libhadoop.so`这样的共享对象文件,而在Windows上,相应的依赖变成了`hadoop.dll`。这...
解决这个问题通常需要重新下载或获取正确的Hadoop发行版,确保所有必需的文件都包含在内。有时,也可能需要从其他来源获取缺失的DLL文件,并将其放在系统路径中的正确位置,通常是Hadoop安装目录下的"bin"文件夹。 ...
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。它是由Apache软件基金会开发并维护的,旨在实现高效、可扩展的数据处理能力。Hadoop的核心由两个主要组件构成:Hadoop Distributed ...
《Hadoop源码分析 第一章 Hadoop脚本》 Hadoop是大数据处理领域中的一个核心框架,它为...只有深入理解Hadoop的每一个细节,才能更好地利用这一强大工具解决实际问题。通过不断学习和实践,你将成为驾驭Hadoop的专家。