`

HADOOP/HBase动态新增节点

 
阅读更多

1. 检查JDK版本是否相同并拷贝JDK,并配置/etc/profile文件的JAVA_HOME和CLASSPATH属性

2. 配置/etc/hosts文件,新增新加机器的计算机名,包括原有机器和新增机器都要修改该文件

3. 拷贝hadoop-2.6.0和hbase-1.0.1.1,并把hadoop-2.6.0和hbase-1.0.1.1文件夹的文件所有者和文件所属组改成hadoop

4. 配置Master到Slave的无密码登录

5. 设置机器句柄数,修改/etc/security/limits.conf,详见http://beyond3518.blog.51cto.com/1360525/1764190

6. 安装snappy

    6.1 安装软件: Gcc c++, autoconf, automake, libtool, Java 6, JAVA_HOME set, Maven 3, glibc

           安装方法 : yum install xxx

    6.2 安装glibc方法 : 

            6.2.1 到192.168.9.110的/data/server/glibc-2.14.tar.gz拷贝文件,把该文件拷贝到/usr/local目录下

            6.2.2 进入/usr/local目录下, cd /usr/local

            6.2.3 解压glibc-2.14.tar.gz,  tar -zxvf glibc-2.14.tar.gz

            6.2.4 新建目录/usr/local/glibc, mkdir /usr/local/glibc

            6.2.5 进入/usr/local/glibc目录, cd /usr/local/glibc

            6.2.6 运行命令 export CFLAGS="-g -O2"

            6.2.7 运行命令 /usr/local/glibc-2.14/configure --prefix=/usr --disable-profile --enable-add-ons --with-headers=/usr/include --with-binutils=/usr/bin

            6.2.8 运行命令 make

            6.2.9 运行命令 make install

            6.2.10 验证是否安装成功 : 

                        运行命令 : ll /lib64/libc.so.6 , 如果显示结果 /lib64/libc.so.6 -> libc-2.14.so , 则安装成功

 

7. 修改hadoop的slaves配置文件,添加新增节点,并把该配置文件发送到所有其他节点上去

8. 添加Datanode

对于新添加的Datanode节点,需要启动datanode进程,从而将其添加到集群

    8.1 在新增的节点上,运行sbin/hadoop-daemon.sh start datanode即可

    8.2 然后在namenode通过hdfs dfsadmin -report查看集群情况

    8.3 最后还需要对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M,即hdfs dfsadmin -setBalancerBandwidth 67108864即可

    8.4 默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%

    8.5 然后启动Balancer,sbin/start-balancer.sh -threshold 5,等待集群自均衡完成即可

9. 添加Nodemanager

由于Hadoop 2.X引入了YARN框架,所以对于每个计算节点都可以通过NodeManager进行管理,同理启动NodeManager进程后,即可将其加入集群

    9.1 在新增节点,运行sbin/yarn-daemon.sh start nodemanager即可

    9.2 在ResourceManager,通过yarn node -list查看集群情况

10. 修改hbase的regionservers配置文件,添加新增节点.并把该配置文件发送到所有其他节点

11. 在新增的节点上,启动regionserver. 运行hbase-daemon.sh start regionserver即可

 

12. 修改InputService/StoreService服务器的/etc/hosts文件,添加新节点的域名

 

分享到:
评论

相关推荐

    hadoop动态增加和删除节点方法介绍

    当面临数据量的增长或者硬件资源的变化时,动态增加和删除节点的能力是集群管理的关键。本篇文章将详细阐述如何在Hadoop集群中实现动态增加DataNode和删除DataNode的操作。 **一、动态增加DataNode** 在Hadoop集群...

    hadoop集群安装手册

    安装Hbase需要先安装Hadoop,配置`hbase-site.xml`,并启动Hbase服务。 ### 安装Mysql Mysql作为元数据存储,例如Hive和HBase可能会用到。安装Mysql服务器,创建对应的数据库和用户,配置相关连接参数。 ### 安装...

    Hadoop架构讲解

    新增数据节点时,新节点开始参与服务需要约5分钟。 在Hadoop架构中,分布式存储系统采用数据块(Block)存储数据,每个数据块默认大小为64MB,并且通常以多副本形式保存数据,以保证数据的可靠性和容错性。数据块大小...

    hadoop故障分析与技术方案揭秘

    在Hadoop故障分析方面,文档中提到了几个典型的故障案例,包括新增节点时发生的莫名其妙的错误、计算节点大面积瘫痪的问题、存储节点崩溃导致的多米诺骨效应,以及master节点的灾难性故障。这些故障案例揭示了在大...

    Hadoop入门实战手册

    - **新增节点**:逐步指导如何添加新的节点到现有集群中。 - **删除节点**:介绍如何从集群中安全地移除节点。 **7.6 其它日常问题说明**:针对常见的运维问题提供解决方案,如数据节点启动失败、任务跟踪器启动...

    hadoop技术

    HBase是一个基于Hadoop的非关系型分布式数据库,是Google BigTable的开源实现,它支持海量数据的随机读写和实时访问。HBase数据模型基于列族进行数据存储,它能够在HDFS上提供快速的查找和更新操作。 Hive是一个...

    基于Hadoop的大数据处理平台研究.pdf

    随着数据规模的不断增长,Hadoop版本也在不断更新,从Hadoop 1.X升级至Hadoop 2.X,例如新增的YARN(Yet Another Resource Negotiator),为解决资源管理与数据处理提供更高效的方案。 其次,Hadoop平台主要由以下...

    1.Hadoop入门进阶课程_第1周_Hadoop1.X伪分布式安装.pdf

    - **特点**: 在多节点集群中部署 Hadoop。 - **用途**: 实际生产环境中使用。 #### 5. Hadoop 1.X 伪分布式安装步骤 虽然文档没有详细列出伪分布式安装的具体步骤,但通常包括以下关键步骤: - **准备环境**: 确保...

    亿赞普Hadoop应用浅析 共16页.pptx

    在应用方面,IZP利用Hadoop进行数据挖掘,通过爬取网页并存储在Hbase中,提取关键词信息,进行网页兴趣组分类,预测广告点击率(CTR),并根据用户历史行为进行用户兴趣组划分,实现个性化广告投放。同时,Hadoop也...

    HBase2.0在360的技术改进与应用实践.pdf

    HBase作为Apache Hadoop项目的重要组成部分之一,是一种分布式的、面向列的开源数据库。随着HBase版本的不断更新和完善,其性能和稳定性得到了显著提升。在360内部,HBase被广泛应用于各类业务场景中。 - **规模...

    zookeeper学习入门-搞懂这些就够了

    - 在分布式系统中,节点状态的变化(如新增或删除)需要及时通知到集群内的所有成员。 - **实现原理**: 利用 Zookeeper 的 Watcher 机制,监听节点变化事件。 - **过程**: - 每个节点将自己的状态信息保存在 ...

    博康卡口大数据管理应用平台.pdf

    采用Hadoop的大数据云存储技术,平台能够处理PB级别的数据,同时具备1秒内检索100亿条以上过车记录的能力。其Key-Value查询/插入性能强大,单台服务器可达到7千记录/秒的插入速度,且可通过扩展计算节点提升性能和...

    阿里云-云栖大会

    - **新增节点**:香港、新加坡等地域的数据中心节点。 - **地域覆盖**:杭州、青岛、北京、深圳、美国、中东、日本、欧洲等,形成全球化的数据中心布局。 ##### 技术升级 - **热迁移能力**:实现了云服务器的热迁移...

    SQuirrl安装使用手册-window10截图介绍修改明细

    - 从集群中Phoenix SQL节点的相应目录下获取三个JAR包,并将其放置于SQuirrl的`lib`目录下。 - 由于Ambari中的HBase默认配置与Phoenix版本中的`hbase-default.xml`配置文件中某些配置项不一致,因此需要将集群自带...

    大数据技术如何应用于传统信息系统.pptx

    此外,Hadoop生态还包括HBase(分布式NoSQL数据库)和Hive(基于Hadoop的数据仓库工具)等组件,进一步增强了大数据的处理能力。 Hadoop的HDFS设计了数据冗余和智能数据放置策略,以确保高可用性和容错性。数据块...

    大数据技术如何应用于传统的信息系统45.pptx

    例如,如果用单个节点以50MB/s的速度扫描数据,处理100TB的数据需要35,000分钟,但通过1000个节点则只需35分钟。这表明了扩展能力和效率的需求。 3. 数据丢失:据IDC的报告,到2020年,60%以上产生的数据将因无法...

    zookeeper资料

    Zookeeper已成为Hadoop生态系统中的基础组件,适用于HDFS、YARN、Storm、HBase、Flume、Dubbo(阿里巴巴)、metaq(阿里巴巴)等系统。 Zookeeper的特点包括: 1. 最终一致性:Zookeeper为客户端展示同一视图,确保...

Global site tag (gtag.js) - Google Analytics