重新启动之前坏掉的一个节点的Datanode,发现进程没有启动成功。查看相应日志,
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: org.apache.hadoop.ipc.RemoteException: java.io.IOException: verifyNodeRegistration: unknown datanode wh-9-132:50010
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.verifyNodeRegistration(FSNamesystem.java:3939)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:2052)
at org.apache.hadoop.hdfs.server.namenode.NameNode.register(NameNode.java:735)
at sun.reflect.GeneratedMethodAccessor21.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:512)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:966)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:962)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.ipc.Server$Handler.run(Server.java:960)
at org.apache.hadoop.ipc.Client.call(Client.java:740)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:221)
at $Proxy4.register(Unknown Source)
at org.apache.hadoop.hdfs.server.datanode.DataNode.register(DataNode.java:544)
at org.apache.hadoop.hdfs.server.datanode.DataNode.runDatanodeDaemon(DataNode.java:1251)
at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1294)
at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1415)
原来是namenode节点将它打入了黑名单
1.修改主节点的exclude.txt文件
删除此节点所对应的一行
2.刷新节点信息
在主节点执行如下命令
hadoop dfsadmin -refreshNodes
注意:不要重启集群,风险太大
3.重新启动datanode
在datanode节点执行如下命令
hadoop-daemon.sh start datanode
重启成功
分享到:
相关推荐
### Hadoop单节点部署指导知识点详解 #### 一、实验目的 - **理解Hadoop原理机制**:深入了解Hadoop的工作原理及其背后的技术架构。 - **熟悉Hadoop集群体系结构**:掌握Hadoop集群中各组成部分的功能及其交互方式...
因业务需要搭建一个新hadoop集群,并将老的hadoop集群中的数据迁移至新的hadoop集群,而且datanode节点不能全部上线,其中还可能会出现节点上线或下线的情况,这个时候就很容易出现机器与机器之间磁盘的均衡的情况,...
通过分析这些日志,可以了解Hadoop集群的健康状况,诊断潜在的问题,比如检查NameNode是否成功启动,DataNode是否加入到集群,MapReduce任务是否正常执行等。 对于大型Hadoop集群,日志分析工具如Flume、Sentry、...
2. 配置 Datanode 节点,使用命令 `ssh-keygen -t rsa`。 3. 配置 Hadoop 集群,使用命令 `hadoop`。 搭建 Hadoop 环境需要安装 Ubuntu 操作系统、安装 Hadoop 软件、配置 SSH 无密码登录、配置 Hadoop 集群等步骤...
在每个节点上启动Hadoop服务,包括NameNode、DataNode、ResourceManager和NodeManager。启动顺序很重要,确保先启动NameNode,然后是DataNode,接着是ResourceManager和NodeManager。 2.7. 验证集群 一旦所有节点都...
master 节点上主要运行 Namenode 和 Resourcemanager 进程,而 slave 节点上运行 Datanode 和 Nodemanager 进程。这种架构设计使得集群具有高度的可扩展性和灵活性。 二、虚拟机配置 由于大多数人只有 一台计算机...
如果ID不一致,可能会导致NameNode无法正确识别并连接DataNode,从而引发启动失败的问题。 #### 三、解决方案 针对上述问题,有两种常见且有效的解决方法: **方法一:清理临时文件并重新格式化** 1. **定位问题...
完成所有配置后,格式化NameNode,启动Hadoop服务,包括DataNode、NameNode、Secondary NameNode、YARN的ResourceManager和NodeManager,以及MapReduce的JobHistory Server。你可以使用Hadoop提供的start-dfs.sh和...
对各个节点指定好功能 maseter为主节点,hadoop01 为从节点和datanode hadoop02 为yarn主节点负责各个节点的资源调度, hadoop02,hadoop03为datanode节点 OS hostname IP Centos8 hadoop-master ...
在主节点上启动Hadoop服务: ``` start-dfs.sh start-yarn.sh ``` 使用`jps`命令检查各个守护进程是否正常运行。 9. **测试Hadoop集群** 创建一个测试文件并将其上传到HDFS,然后查看文件: ``` echo ...
- `start-dfs.sh`:启动HDFS(分布式文件系统),包括NameNode和DataNode。 - `stop-dfs.sh`:停止HDFS进程。 - `start-mapred.sh`:启动MapReduce进程,包括jobtracker和tasktrackers。 - `stop-mapred.sh`:...
"Hadoop 集群部署" Hadoop 是一种基于分布式计算的开源框架,主要用于...部署 Hadoop 集群需要准备好虚拟机环境、虚拟机节点、hosts 文件、Hadoop 软件包、namenode、datanode 等组件,并进行相应的配置和启动操作。
完成配置后,启动Hadoop守护进程,包括NameNode、DataNode、ResourceManager和NodeManager。最后,你可以通过Hadoop命令行工具或Web界面来验证安装是否成功,并开始执行简单的MapReduce任务。 这个学习过程中,理解...
- **HDFS守护进程**:在主节点上启动NameNode和Secondary NameNode,然后在从节点上启动DataNode。 - **MapReduce守护进程**:在主节点上启动JobTracker,然后在从节点上启动TaskTracker。 6. **停止多节点集群**...
上一篇文章中我们介绍了Hadoop编程基于MR程序实现倒排索引示例的有关内容,这里我们看看如何在Hadoop中动态地增加和删除节点(DataNode)。...3、在新DataNode上启动hadoop ..sbin/hadoop-daemon.sh
在该目录下,创建`hosts`文件,列出所有Hadoop集群节点的IP地址或主机名,按照角色进行分组,例如,`namenode`、`datanode`等。 3. **编写Playbook**:创建`site.yml`或`hadoop-cluster.yml`文件,这是Ansible的...
Datanode 是 Hadoop 集群中的从节点,负责存储实际数据块。它从 Namenode 接收命令,执行读写操作,并将数据块存储在本地文件系统中。 部署架构 在这个部署中,我们将使用两个 Ubuntu 服务器,分别作为 Namenode...
问题描述:在hadoop安装目录/bin/hadoop中有一段shell代码导致Hadoop启动datanode时出现Unrecognized option: -jvm和Could not create the Java virtual machine错误。 解决方法: 1. 修改hadoop安装目录/bin/...