hadoop启动过程中遇到下面的问题:
2012-07-04 18:43:20,763 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting DataNode
STARTUP_MSG: host = slave1/192.168.18.87
STARTUP_MSG: args = []
STARTUP_MSG: version = 0.20.2
STARTUP_MSG: build = https://svn.apache.org/repos/asf ... ranches/branch-0.20 -r 911707; compiled by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010
************************************************************/
2012-07-04 18:43:22,468 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 0 time(s).
2012-07-04 18:43:23,468 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 1 time(s).
2012-07-04 18:43:24,469 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 2 time(s).
2012-07-04 18:43:25,470 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 3 time(s).
2012-07-04 18:43:26,471 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 4 time(s).
2012-07-04 18:43:27,472 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 5 time(s).
2012-07-04 18:43:28,473 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 6 time(s).
2012-07-04 18:43:29,474 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 7 time(s).
2012-07-04 18:43:30,475 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 8 time(s).
2012-07-04 18:43:31,475 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 9 time(s).
2012-07-04 18:43:31,479 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Call to /192.168.18.218:9000 failed on local exception: java.net.NoRouteToHostException: 没有到主机的路由
at org.apache.hadoop.ipc.Client.wrapException(Client.java:775)
at org.apache.hadoop.ipc.Client.call(Client.java:743)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220)
at $Proxy4.getProtocolVersion(Unknown Source)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383)
at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314)
at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:291)
at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:269)
at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:216)
at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1283)
at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1238)
at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1246)
at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1368)
Caused by: java.net.NoRouteToHostException: 没有到主机的路由
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:701)
NameNode启动start-all.sh时出现上述错误,解决办法如下:
(1)从namenode主机ping其它主机名(如:ping slave1),如果ping不通,原因可能是namenode节点的/etc/hosts配置错误
(2)从datanode主机ping namenode主机名,如果ping不通,原因可能是datenode节点的/etc/hosts配置的配置错误
解决办法:以上两种错误都需要修改/etc/hosts,同时保证集群中所有机器的/etc/hosts一致,参考:http://hi.baidu.com/tdfrank/blog/item/a1b9e1d95e3b013f10df9b01.html
(3)查看namenode主机的9000(具体根据core-site.xml中的fs.default.name节点配置)端口,是否打开,如果已打开(如下图所示),原因可能是防火墙开启,解决办法:关闭namenode和datanode主机的防火墙,或者设置防火墙开启指定端口
[root@master swxing]# netstat -nap | grep 9000
tcp 0 0 ::ffff:192.168.18.218:9000 :::* LISTEN 4662/java
tcp 0 0 ::ffff:192.168.18.218:46116 ::ffff:192.168.18.218:9000 ESTABLISHED 4859/java
tcp 0 0 ::ffff:192.168.18.218:9000 ::ffff:192.168.18.87:36794 ESTABLISHED 4662/java
tcp 0 0 ::ffff:192.168.18.218:9000 ::ffff:192.168.18.218:46116 ESTABLISHED 4662/java
[root@master swxing]# service iptables stop
(4)格式化硬盘(hadoop namenode -format)后启动namenode(start-all.sh)
以上操作命令是在centos6.1中的操作命令,其它linux系统的操作命令可能有些不一样,读者根据自己的系统来定义操作,本文只提供一个思路。
分享到:
相关推荐
向yarn提交任务时Retrying connect to server 0.0.0.0:8032异常
NULL 博文链接:https://ouyida3.iteye.com/blog/1144326
【Hadoop简介】 Hadoop是Apache软件基金会的一个开源项目,主要设计用于处理和存储大量数据。它是一个分布式文件系统(HDFS),同时包含了MapReduce计算框架,能够将大型数据集分布在大量的计算机节点上进行并行...
在Hadoop MapReduce框架中,Job的提交过程是整个分布式计算流程中的关键步骤。这个过程涉及到客户端、JobTracker(在Hadoop 2.x版本中被ResourceManager替代)和TaskTracker(在Hadoop 2.x版本中被NodeManager替代)...
当启动hadoop或者使用ssh时出现: 输入ifconfig指令发现:自己之前配置的ip:192.168.79.103地址已经发生了变化 怎么解决办法呢? 如下步骤: 重新修改静态ip 输入vi /etc/udev/rules.d/70-persistent-net.rules...
《Hadoop客户端与服务器通信详解》 在大数据处理领域,Hadoop是一个不可或缺的名字,它以其分布式计算框架闻名。本文将深入探讨Hadoop客户端与服务器之间的通信机制,帮助读者理解这一核心过程,以便更好地利用和...
Maven坐标:org.apache.hadoop:hadoop-mapreduce-client-common:2.6.5; 标签:apache、mapreduce、common、client、hadoop、jar包、java、API文档、中英对照版; 使用方法:解压翻译后的API文档,用浏览器打开...
在使用Hadoop进行数据上传时,可能会出现"cannot replicate to node 0, instead of 1"的错误提示。解决办法是,打开http://localhost:50070/dfshealth.jsp,查看livenode的数量是否与机器的实际数量相同。如果发现...
hadoop 启动时 TaskTracker无法启动 ERROR org.apache.hadoop.mapred.TaskTracker: Can not start task tracker because java.io.IOException: Failed to set permissions of path: \tmp\hadoop-admin \mapred\...
For the latest information about Hadoop, please visit our website at: ... Hadoop Yarn Server Web Proxy uses the BouncyCastle Java cryptography APIs written by the Legion of the Bouncy Castle Inc.
Maven坐标:org.apache.hadoop:hadoop-yarn-server-resourcemanager:2.6.0; 标签:server、apache、resourcemanager、hadoop、yarn、jar包、java、API文档、中文版; 使用方法:解压翻译后的API文档,用浏览器打开...
Maven坐标:org.apache.hadoop:hadoop-yarn-server-common:2.6.5; 标签:server、apache、common、hadoop、yarn、jar包、java、中文文档; 使用方法:解压翻译后的API文档,用浏览器打开“index.html”文件,即可...
java.sql.SQLException: null, message from server: “Host ‘223.72.41.7’ is not allowed to connect to this MySQL server” 客户端访问时报错: 解决方法: 1,登陆服务器 mysql> use mysql; //用mysql ...
问题描述:在hadoop集群启动时,slave总是无法启动datanode,并报错“could only be replicated to 0 nodes, instead of 1”。 解决方法: 1. 删除所有节点的数据文件:删除所有节点的dfs.data.dir和dfs.tmp.dir...
### Hadoop权威指南知识点概述 #### 一、书籍基本信息与背景介绍 - **书名**:《Hadoop权威指南》(第三版) - **作者**:Tom White - **出版商**:O'Reilly Media, Inc. - **出版日期**:2012年 - **ISBN**:978-...
7. **启动Hadoop服务**:启动DataNode、NameNode等Hadoop守护进程。 这个压缩包的提供者贴心地为无法直接访问外网的用户提供了这些关键组件,简化了在没有网络环境下的配置流程。在实际操作中,用户需要根据自己的...
"hadoop启动日志"这个主题涉及到的是Hadoop集群启动过程中的日志记录,这对于系统管理员进行故障排查、性能优化以及理解Hadoop运行状态至关重要。日志文件通常包含了丰富的信息,如服务启动时间、初始化步骤、依赖...
jps判断hadoop启动是否成功;分别对master和slave进行了判断。jps不是hadoop的什么命令,是java的命令,所以直接执行就行了。
- **启动NameNode**:启动Hadoop集群的NameNode服务。 ```bash [root@namenode hadoop-2.7.3]# sbin/hadoop-daemon.sh start namenode ``` - **启动DataNode**:启动Hadoop集群的DataNode服务。 ```bash ...