hadoop2.X动态添加节点教程及相关问题总结
设置hadoop运行的系统环境
修改系统hostname(通过hostname和/etc/sysconfig/network进行修改)
修改hosts文件,将集群所有节点hosts配置进去(集群所有节点保持hosts文件统一)
设置NameNode(两台HA均需要)到DataNode的免密码登录(ssh-copy-id命令实现,可以免去cp *.pub文件后的权限修改)
修改主节点slave文件,添加新增节点的ip或计算机名信息(集群重启时使用)
将hadoop的配置文件scp到新的节点上(这里特别注意一定要拷贝nameNode节点的hadoop文件夹,如果拷贝dataNode的会有问题,在最后总结)
添加DataNode
对于新添加的DataNode节点,需要启动datanode进程,从而将其添加入集群
在新增的节点上,运行sbin/hadoop-daemon.sh start datanode即可
在namenode节点刷新datanode,hdfs dfsadmin -refreshNodes
然后在namenode通过hdfs dfsadmin -report查看集群情况
也可以通过nameNode50070端口查看活动的datanode节点数
最后还需要对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M,即hdfs dfsadmin -setBalancerBandWidth 67108864即可
默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%
然后启动Balancer,sbin/start-balancer.sh -threshold 5,等待集群自均衡完成即可
添加Nodemanager
由于Hadoop 2.X引入了YARN框架,所以对于每个计算节点都可以通过NodeManager进行管理,同理启动NodeManager进程后,即可将其加入集群
在新增节点,运行sbin/yarn-daemon.sh start nodemanager即可
在ResourceManager,通过yarn node -list查看集群情况
问题总结:
问题一:我使用虚拟机搭建的hadoop集群,在新加入节点的时候由于新节点的MAC地址与原有节点MAC冲突,导致在ping的时候丢包?
问题原因:MAC地址冲突导致,解决办法修改MAC地址即可。修改办法自行google。(这里还有个现象:nameNode节点ping新节点,丢包,新节点pingnameNode畅通)
问题二:在复制hadoop文件夹时我复制的datanode的hadoop,最终导致,新节点与被复制节点的datanodeUuid一样(位置:{HADOOPHOME}/tmp/dfs/name/current/VERSION文件)这样会导致,被复制节点和新节点的冲突,被复制节点和新节点在web查看时,或者被复制节点出现,或者新节点出现(但均为“死节点”)
解决办法:一定要从namenode中复制hadoop文件夹
相关推荐
10. 集群扩展:Hadoop 2.7.4支持动态添加或删除节点,方便集群规模的灵活扩展,以适应不同规模的大数据处理需求。 总的来说,Hadoop 2.7.4是一个功能强大且稳定的分布式计算框架,对于理解大数据处理原理、学习...
对于`hadoop-2.5.2-hbase-0.14.0-hadoop2`这个版本,它适用于Hadoop 2.x系列,这是Hadoop的一个重要版本,引入了YARN资源管理器,提高了集群的效率和可扩展性。 HBase的安装通常包括以下几个步骤: 1. 下载HBase的...
上一篇文章中我们介绍了Hadoop编程基于MR程序实现倒排索引示例的有关内容,这里我们看看如何在Hadoop中动态地增加和删除节点(DataNode)。 假设集群操作系统均为:CentOS 6.7 x64 Hadoop版本为:2.6.3 一、动态...
2.4 .2 副本放置策略的有效前提………………………………………………………………………. 73 2.4 .3 默认副本放置策略的分析……··………………………………………………………………. 73 2.4.4 目标存储好坏的...
Hadoop HA(High Availability)是指在Hadoop集群中提供高可用性的解决方案,确保即使主节点(Namenode)发生故障,也能迅速地将服务切换到备份节点上,从而实现不间断的服务。在Hadoop 2.7.6版本中,HA功能得到了...
2. **解压安装包**:使用`tar -zxvf hadoop-x.x.x.tar.gz`命令解压安装包至指定目录。 3. **配置Hadoop环境变量**:编辑`/etc/profile`文件,添加Hadoop环境变量。 4. **配置Hadoop核心文件**:编辑`core-site.xml`...
在本教程中,我们将深入探讨如何在VMware虚拟机上安装和配置Hadoop1.x,具体版本为Hadoop1.2.1。首先,确保你的虚拟机环境是VMware8.0,操作系统选择CentOS6.4。安装的依赖包括JDK1.8和Hadoop1.2.1。 **1. 下载与...
本章旨在帮助读者深入了解并掌握Hadoop的管理技巧,包括但不限于HDFS命令行工具的使用方法、如何有效地添加或删除节点、使用Ganglia进行集群性能监控以及利用Sqoop实现数据导入与导出等功能。 #### HDFS命令行工具 ...
文档《linux创建用户、文件夹、用户组的添加和删除的命令及解说.docx》涵盖了这些基本操作,例如`useradd`、`groupadd`、`mkdir`、`rm`、`chown`、`chmod`等。 六、问题调试与优化 1. **日志查看**:通过检查...
HDFS中的文件被分割成块进行存储,默认的块大小为128MB(Hadoop 2.x之后)。较大的块大小有助于提高系统的I/O效率,减少寻址开销。选择合适的块大小对于优化HDFS性能至关重要。 #### 二、HDFS Shell操作(开发重点...
首先,Hadoop 2.8是在Hadoop 2.x系列中的一个稳定版本,它引入了YARN(Yet Another Resource Negotiator),这是一个资源管理和调度框架,极大地提升了Hadoop的性能和可扩展性。对于Windows用户,Hadoop的安装和配置...
4. 生成POM文件:运行`dev-support/generate-hadoopX-poms.sh`脚本来生成适合Hadoop 2.x的POM文件。 5. 编译源码:执行`mvn`命令,跳过测试并生成最终的assembly。 6. 安装包生成:完成编译后,你会在`hbase-...
《深入浅出Hadoop》这篇文章主要探讨了Hadoop这一分布式计算框架的源代码级实现,旨在帮助读者理解其内部工作原理。Hadoop是Apache软件基金会的一个开源项目,它提供了处理和存储大规模数据的能力,尤其适合大数据...
### Hadoop操作与环境搭建详解 #### 一、Hadoop简介 Hadoop是一个开源软件框架,用于分布式存储和处理大规模数据集。它由Apache基金会维护,主要包括HDFS(Hadoop Distributed File System)和MapReduce两个核心...
默认情况下,在Hadoop 2.x中,块大小为128MB,而在旧版本中为64MB。选择较大的块大小是为了减少寻址开销,使得数据传输时间主要依赖于磁盘传输速率,而非寻址时间。 ### HDFS命令行操作 Hadoop提供了丰富的命令行...
2. 在所有节点上安装新版本的JDK,使用rpm命令安装jdk-7u79-linux-x64.rpm。 3. 修改安装后的JDK文件所有者为root,并设置合适的文件权限。 4. 配置环境变量,包括JAVA_HOME指向JDK安装目录,以及将JAVA_HOME的bin...
根据提供的《Hadoop 数据分析平台》课程毕业测试题的相关信息,我们可以提炼出一系列与Hadoop相关的知识点,这些知识点不仅能够帮助学生更好地理解Hadoop的工作原理和技术细节,还能够加深他们对大数据处理技术的...
2. **下载Hadoop**:访问Apache官网或镜像站点下载Hadoop的稳定版本,如Hadoop 2.x或3.x系列。 3. **解压并配置Hadoop**:将下载的Hadoop压缩包解压到合适的目录,然后进行基本的配置。主要修改`etc/hadoop/core-...