浏览 8395 次
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
|
|
---|---|
作者 | 正文 |
发表时间:2011-08-31
运行 hadoop fs -ls 时出现错误如下: root@ubuntu:/home/chenwq/hadoop/book/ch03/src/main/java# hadoop fs -ls 11/08/31 22:51:37 INFO security.Groups: Group mapping impl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping; cacheTimeout=300000 11/08/31 22:51:38 WARN conf.Configuration: mapred.task.id is deprecated. Instead, use mapreduce.task.attempt.id 11/08/31 22:51:39 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 0 time(s). 11/08/31 22:51:40 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 1 time(s). 11/08/31 22:51:41 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 2 time(s). 11/08/31 22:51:42 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 3 time(s). 11/08/31 22:51:43 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 4 time(s). 11/08/31 22:51:44 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 5 time(s). 11/08/31 22:51:45 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 6 time(s). 11/08/31 22:51:46 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 7 time(s). 11/08/31 22:51:47 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 8 time(s). 11/08/31 22:51:48 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8020. Already tried 9 time(s). Bad connection to FS. command aborted.
解决方案: 格式化namenode: hadoop namenode -format 重新启动start-all.sh,输入 jps
查看后台进程 root@ubuntu:/home/chenwq/hadoop/hadoop-0.21.0/bin# jps 8734 NameNode 8934 DataNode 9137 SecondaryNameNode 9479 Jps 此时namenode启动
运行 hadoop fs -ls 出现: 11/08/31 23:09:37 INFO security.Groups: Group mapping impl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping; cacheTimeout=300000 11/08/31 23:09:37 WARN conf.Configuration: mapred.task.id is deprecated. Instead, use mapreduce.task.attempt.id Found 1 items -rw-r--r-- 1 root supergroup 628 2011-08-31 23:01 /user/root/books/URLCat.java
声明:ITeye文章版权属于作者,受法律保护。没有作者书面许可不得转载。
推荐链接
|
|
返回顶楼 | |
发表时间:2011-09-06
是伪分布式下的环境吗?
|
|
返回顶楼 | |
发表时间:2011-09-06
xm_king 写道 是伪分布式下的环境吗?
是的 |
|
返回顶楼 | |
发表时间:2011-09-06
为什么我发现网上但凡出现Datanode无法启动的问题都去格式化Namenode,就是不去找为什么启动不了的原因.难道生产环境也这么搞? 知道Namenode有多重要吗?
localhost/127.0.0.1:8020. Already tried 2 time(s). 大多都是hdfs没有启动造成的,何必去格式化Namenode |
|
返回顶楼 | |
发表时间:2011-09-06
datanode都没有启动!看日志
|
|
返回顶楼 | |
发表时间:2011-09-07
格式化就啥也没了。。
|
|
返回顶楼 | |
发表时间:2011-09-10
同求问题解决方案,我只要重启就需要格式化才能启动成功,不知道到底哪里错了。
|
|
返回顶楼 | |
发表时间:2011-09-10
我的问题已经查到原因,但是没有去试验
以下是我查到的资料: 每次都要重新 format namenode,有可能是您未設定 hadoop.tmp.dir 到其他路徑。 預設值是 /tmp/hadoop-${user.name},/tmp 重開機就會容易被清空。 |
|
返回顶楼 | |
发表时间:2011-09-14
andy_ghg 写道 同求问题解决方案,我只要重启就需要格式化才能启动成功,不知道到底哪里错了。
Hadoop的默认配置使用hadoop.tmp.dir作为本地文件系统和HDFS的临时目录, 在使用中,我们应创建自己的临时目录 $sudo mkdir -p /app/hadoop/tmp $sudo chown chenwq:chenwq /app/hadoop/tmp |
|
返回顶楼 | |