出处不详:
hadoop 添加删除datanode及tasktracker
首先:
建议datanode和tasktracker分开写独立的exclude文件,由于一个节点即可以同时是datanode和tasktracker,也可以单独是datanode或tasktracker。
1、删除datanode
修改namenode上的hdfs-site.xml
<property>
<name>dfs.hosts</name>
<value>/usr/local/hadoop/conf/datanode-allow-list</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>/usr/local/hadoop/conf/datanode-deny-list</value>
</property>
其中dfs.host列出了连进namenode的节点,假如为空,则所有的datanode都可以连进namenode。假如不为空,则文件中存在的datanode可以连进。
dfs.hosts.exclude列出了禁止连进namenode的节点。
假如一个节点同时存在于dfs.hosts和dfs.hosts.exclude,则禁止连进。
具体步骤
(1)将要删除的datanode加进到dfs.hosts.exclude指定的文件中。(最好使用主机名,IP有时可能不生效)
(2)动态刷新配置,不需要重启namenode
hadoop dfsadmin -refreshNodes
(3)通过hadoop dfsadmin -report或webui,可以看到,该datanode的状态为Decommissioning
(4)等待一段时间,该节点为dead状态。
(5)删除dfs.hosts文件中该节点
(6)
hadoop dfsadmin -refreshNodes
注:按照上面的操纵后,假如你想要重新启用该节点为datanode,从dfs.hosts.exclude中删除该节点,refreshNodes,然后,到该节点上,重启启动该datanode:
/usr/local/hadoop/bin/hadoop-daemon.sh stop datanode
/usr/local/hadoop/bin/hadoop-daemon.sh start datanode
注:正确的删除datanode的方法应该是按照上面的方法,使用exclude文件,而不应该直接往datanode上往sotp
datanode,这样会造出数据丢失,而且stop以后,webui和hadoop dfsadmin
-report都仍然显示该datanode节点。除非重新启动namenode。
之所以重新启用exclude的节点时可以stop datanode,由于此时该datanode不包含在cluster中,所以,stop后不会造成数据丢失。
2、添加datanode
假如存在dfs.hosts文件,且不为空,则添加新的datanode到该文件中,refreshNodes。
到新节点上,启动即可
/usr/local/hadoop/bin/hadoop-daemon.sh start datanode
假如不存在dfs.hosts文件,或文件为空,直接启动新节点即可。
3、删除tasktracker
原理和步骤与删除datanode一样。
<property>
<name>mapred.hosts</name>
<value>/usr/local/hadoop/conf/tasktracker-allow-list</value>
</property>
<property>
<name>mapred.hosts.exclude</name>
<value>/usr/local/hadoop/conf/tasktracker-deny-list</value>
</property>
动态刷新配置的命令为:
hadoop mradmin -refreshNodes
立即生效,可以在webui中看到,nodes节点数目的变化,以及Excluded Nodes节点的变化。
具体的步骤参考上面的删除datanode的步骤
注:按照上面的操纵后,假如你想要重新启用该节点为tasktracker,从mapred.hosts.exclude中删除该节点,refreshNodes,然后,到该节点上,重启启动该tasktracker:
/usr/local/hadoop/bin/hadoop-daemon.sh stop tasktracker
/usr/local/hadoop/bin/hadoop-daemon.sh start tasktracker
注:正确的删除tasktracker的方法应该是按照上面的方法,使用exclude文件,而不应该直接往tasktracker上往sotp
tasktracker,这样会造成job失败,而且stop以后,webui上仍然显示该tasktracker节点。除非重新启动
jobtracker。
我碰到的一个题目:
在exclude文件中,我使用了IP,发现tasktracker仍然参与计算。
在webui中发现,Excluded Nodes中存在该IP,Nodes中仍然存在该tasktracker的hostname。
解决的办法就是,在exclude中使用hostname而不使用IP。
判定是否真正生效:假如exclued文件中正确的填写了要失效的node,则总得nodes数目应该减小。
4、添加tasktracker
假如存在mapred.hosts文件,且不为空,则添加新的tasktracker到该文件中,refreshNodes。
到新节点上,启动即可
/usr/local/hadoop/bin/hadoop-daemon.sh start tasktracker
假如不存在mapred.hosts文件,或文件为空,直接启动新节点即可。
6、添加或删除datanode后,平衡磁盘利用率
运行bin/start-balancer.sh,这个会很耗时间
备注:
假如不balance,那么cluster会把新的数据都存放在新的node上,这样会降低mr的工作效率;
/usr/local/hadoop/bin/start-balancer.sh -threshold 0.1
threshold 是平衡阈值,默认是10%,值越低各节点越平衡,但消耗时间也更长。
balancer也可以在有mr job的cluster上运行,默认dfs.balance.bandwidthPerSec很低,为1M/s。在没有mr job时,可以进步该设置加快负载均衡时间。
在namenode的hdfs-site.xml中增加设置balance的带宽,默认只有1M:
<property>
<name>dfs.balance.bandwidthPerSec</name>
<value>10485760</value>
<description>
Specifies the maximum bandwidth that each datanode can utilize for the balancing purpose in term of the number of bytes per second.
</description>
</property>
分享到:
相关推荐
然后在新节点上执行 `cd path/to/hadoop` 进入 Hadoop 目录,接着运行 `bin/hadoop-daemon.sh start datanode` 和 `bin/hadoop-daemon.sh start tasktracker` 启动 DataNode 和 TaskTracker。最后,在 master 节点上...
192.168.0.227 功能:DataNode,TaskTracker 主机名称:hdfs3 ip:192.168.0.228 功能:DataNode,TaskTracker 重点:修改3台机器的/etc/hosts,让彼此的主机名称和ip都能顺利解析 127.0.0.1 localhost 192.168.0.37 ...
作为云计算的标准开源软件,Hadoop的生态系统分布图包括多个构造模块,如NameNode、DataNode、Secondary NameNode、JobTracker和TaskTracker等。 Hadoop集群中的机器分为两类:主节点和从节点。NameNode、...
master 节点用于运行 namenode、secondary namenode 和 jobtracker 任务,而 slave 节点用于运行 datanode 和 tasktracker 任务。可以通过复制和粘贴虚拟机节点来轻松地创建多个虚拟机节点。 hosts 文件配置 hosts...
Hadoop核心守护程序由NameNode/DataNode和JobTracker/TaskTracker这几个角色构成。Hadoop的DFS需要确立NameNode与DataNode角色,一般NameNode会部署到一台单独的服务器上而不与DataNode共同一机器。另外Map/Reduce...
Hadoop安装需要配置NameNode和DataNode的IP地址和主机名,添加Hadoop用户组和用户,并配置SSH连接。 6. NameNode配置 NameNode需要配置IP地址、主机名和SSH连接。NameNode作为主服务器,管理文件系统的命名空间和...
然后,需要编辑 core-site.xml 文件,添加一个 hadoop.tmp.dir 变量,以便指定 Hadoop 的临时目录。最后,需要编辑 mapred-site.xml 文件,配置好 MapReduce 的相关参数。 三、Hadoop 配置 在安装完 Hadoop 之后,...
Salve节点包括DataNode和TaskTracker,负责存储和处理数据,执行任务和返回结果。 环境说明: * 集群中包括 4 个节点:1 个 Master,3 个 Salve,节点之间局域网连接,可以相互ping 通。 * 节点 IP 地址分布: + ...
它包含了运行Hadoop守护进程(如Namenode、Datanode和TaskTracker)所需的特定于平台的函数实现,这些函数通常涉及到操作系统级别的操作,如文件系统操作、网络通信和进程管理。`hadoop.dll`确保Hadoop可以在Windows...
6. 启动Hadoop服务,包括DataNode、NameNode、TaskTracker和JobTracker。 7. 测试集群功能,如上传文件到HDFS,运行MapReduce示例程序。 在集群环境中,还需要确保防火墙设置允许Hadoop相关端口通信,如NameNode的...
在本例中,Namenode和Jobtracker部署在hadoop1上,hadoop2和hadoop3作为Datanode和Tasktracker。这种配置允许分散任务执行和数据存储,提高系统的可用性和容错性。 4. **目录结构** Hadoop的部署目录结构需要在...
在Hadoop中,客户端(Client)负责提交任务、读写数据,而服务器端则包括NameNode、DataNode和TaskTracker等组件,它们处理客户端请求,管理数据存储和任务调度。 二、HDFS通信 1. 客户端与NameNode交互: 当...
同时,你可能还需要开启DataNode和TaskTracker,以提供数据存储和任务执行能力。 5. **验证运行**:通过浏览器访问`http://localhost:50070`和`http://localhost:8088`来检查HDFS和YARN的Web界面,确认Hadoop已经...
6. 启动Hadoop服务:依次启动DataNode、NameNode、TaskTracker和JobTracker等服务,确保所有节点正常运行。 7. 验证安装:通过上传文件到HDFS并运行简单的MapReduce作业来检查集群是否正确配置和运行。 在完成以上...
然后,通过`bin/start-all.sh`启动所有的Hadoop进程,包括Namenode、DataNode、JobTracker和TaskTracker。 请注意,Hadoop的启动可能需要一些时间,启动后可以通过访问Web UI(Namenode的UI通常在50070端口,...
3. **配置Hadoop环境变量**:编辑`/etc/profile`文件,添加Hadoop环境变量。 4. **配置Hadoop核心文件**:编辑`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`等配置文件,设置必要的参数。 5. **格式化HDFS**...
Hadoop 集群包含三种主要节点类型:NameNode、DataNode 和 TaskTracker。NameNode 负责元数据管理,DataNode 存储实际数据,TaskTracker 执行 MapReduce 任务。NameNode 与 DataNode 之间通过心跳机制保持通信,...