`
fengshulin
  • 浏览: 41666 次
社区版块
存档分类
最新评论

Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)

 
阅读更多

一.概述

1.1 hadoop1.0的单点问题

Hadoop中的NameNode好比是人的心脏,非常重要,绝对不可以停止工作。在hadoop1时代,只有一个NameNode。如果该NameNode数据丢失或者不能工作,那么整个集群就不能恢复了。这是hadoop1中的单点问题,也是hadoop1不可靠的表现。如下图所示,便是hadoop1.0的架构图;



 

1.2 hadoop2.0对hadoop1.0单点问题的解决

为了解决hadoop1中的单点问题,在hadoop2中新的NameNode不再是只有一个,可以有多个(目前只支持2个)。每一个都有相同的职能。一个是active状态的,一个是standby状态的。当集群运行时,只有active状态的NameNode是正常工作的,standby状态的NameNode是处于待命状态的,时刻同步active状态NameNode的数据。一旦active状态的NameNode不能工作,通过手工或者自动切换,standby状态的NameNode就可以转变为active状态的,就可以继续工作了。这就是高可靠。

 

1.3 使用JournalNode实现NameNode(Active和Standby)数据的共享

Hadoop2.0中,2个NameNode的数据其实是实时共享的。新HDFS采用了一种共享机制,Quorum Journal Node(JournalNode)集群或者Nnetwork File System(NFS)进行共享。NFS是操作系统层面的,JournalNode是hadoop层面的,我们这里使用JournalNode集群进行数据共享(这也是主流的做法)。如下图所示,便是JournalNode的架构图。



 两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了

 

1.4 NameNode之间的故障切换

对于HA集群而言,确保同一时刻只有一个NameNode处于active状态是至关重要的。否则,两个NameNode的数据状态就会产生分歧,可能丢失数据,或者产生错误的结果。为了保证这点,这就需要利用使用ZooKeeper了。首先HDFS集群中的两个NameNode都在ZooKeeper中注册,当active状态的NameNode出故障时,ZooKeeper能检测到这种情况,它就会自动把standby状态的NameNode切换为active状态。

 

二.Hadoop(HA)集群的搭建

2.1 配置详细
主机名 IP NameNode DataNode Year Zookeeper JournalNode
mast1 192.168.177.131
mast2 192.168.177.132
mast3 192.168.177.133

 

2.2 安装jdk

(省略)安装jdk和配置环境变量

 

2.2 SSH免登录

(省略),参考:http://eksliang.iteye.com/blog/2187265

 

2.4 Zookeeper集群搭建

(省略),参考,http://eksliang.iteye.com/blog/2107002,这是我的solr集群部署,也是使用zookeeper进行管理,zookeeper这里步骤跟操作一模一样,最后我的zoo.cfg文件如下所示

 

Java代码  收藏代码
  1. [hadoop@Mast1 conf]$ cat zoo.cfg   
  2. # The number of milliseconds of each tick  
  3. tickTime=2000  
  4. # The number of ticks that the initial   
  5. # synchronization phase can take  
  6. initLimit=10  
  7. # The number of ticks that can pass between   
  8. # sending a request and getting an acknowledgement  
  9. syncLimit=5  
  10. # the directory where the snapshot is stored.  
  11. dataDir=/home/hadoop/zookeeper/data  
  12. dataLogDir=/home/hadoop/zookeeper/datalog  
  13. # the port at which the clients will connect  
  14. clientPort=2181  
  15. server.1=mast1:2888:3888    
  16. server.2=mast2:2888:3888    
  17. server.3=mast3:2888:3888   

 

 
2.5配置Hadoop配置文件

先配置mast1这台机器,配置后了后,将配置环境,复制到mast2、mast3上面即可!

hadoop2.0的配置存放在~/etc/hadoop目录下面,

 

  • core.xml
Java代码  收藏代码
  1. <configuration>  
  2.  <!-- 指定hdfs的nameservice为ns -->  
  3.  <property>      
  4.       <name>fs.defaultFS</name>      
  5.       <value>hdfs://ns</value>      
  6.  </property>  
  7.  <!--指定hadoop数据临时存放目录-->  
  8.  <property>  
  9.       <name>hadoop.tmp.dir</name>  
  10.       <value>/home/hadoop/workspace/hdfs/temp</value>  
  11.  </property>     
  12.                             
  13.  <property>      
  14.       <name>io.file.buffer.size</name>      
  15.       <value>4096</value>      
  16.  </property>  
  17.  <!--指定zookeeper地址-->  
  18.  <property>  
  19.       <name>ha.zookeeper.quorum</name>  
  20.       <value>mast1:2181,mast2:2181,mast3:2181</value>  
  21.  </property>  
  22.  </configuration>  

 

 

  • hdfs-site.xml
Java代码  收藏代码
  1. <configuration>  
  2.     <!--指定hdfs的nameservice为ns,需要和core-site.xml中的保持一致 -->      
  3.     <property>      
  4.         <name>dfs.nameservices</name>      
  5.         <value>ns</value>      
  6.     </property>    
  7.     <!-- ns下面有两个NameNode,分别是nn1,nn2 -->  
  8.     <property>  
  9.        <name>dfs.ha.namenodes.ns</name>  
  10.        <value>nn1,nn2</value>  
  11.     </property>  
  12.     <!-- nn1的RPC通信地址 -->  
  13.     <property>  
  14.        <name>dfs.namenode.rpc-address.ns.nn1</name>  
  15.        <value>mast1:9000</value>  
  16.     </property>  
  17.     <!-- nn1的http通信地址 -->  
  18.     <property>  
  19.         <name>dfs.namenode.http-address.ns.nn1</name>  
  20.         <value>mast1:50070</value>  
  21.     </property>  
  22.     <!-- nn2的RPC通信地址 -->  
  23.     <property>  
  24.         <name>dfs.namenode.rpc-address.ns.nn2</name>  
  25.         <value>mast2:9000</value>  
  26.     </property>  
  27.     <!-- nn2的http通信地址 -->  
  28.     <property>  
  29.         <name>dfs.namenode.http-address.ns.nn2</name>  
  30.         <value>mast2:50070</value>  
  31.     </property>  
  32.     <!-- 指定NameNode的元数据在JournalNode上的存放位置 -->  
  33.     <property>  
  34.          <name>dfs.namenode.shared.edits.dir</name>  
  35.          <value>qjournal://mast1:8485;mast2:8485;mast3:8485/ns</value>  
  36.     </property>  
  37.     <!-- 指定JournalNode在本地磁盘存放数据的位置 -->  
  38.     <property>  
  39.           <name>dfs.journalnode.edits.dir</name>  
  40.           <value>/home/hadoop/workspace/journal</value>  
  41.     </property>  
  42.     <!-- 开启NameNode故障时自动切换 -->  
  43.     <property>  
  44.           <name>dfs.ha.automatic-failover.enabled</name>  
  45.           <value>true</value>  
  46.     </property>  
  47.     <!-- 配置失败自动切换实现方式 -->  
  48.     <property>  
  49.             <name>dfs.client.failover.proxy.provider.ns</name>  
  50.             <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>  
  51.     </property>  
  52.     <!-- 配置隔离机制 -->  
  53.     <property>  
  54.              <name>dfs.ha.fencing.methods</name>  
  55.              <value>sshfence</value>  
  56.     </property>  
  57.     <!-- 使用隔离机制时需要ssh免登陆 -->  
  58.     <property>  
  59.             <name>dfs.ha.fencing.ssh.private-key-files</name>  
  60.             <value>/home/hadoop/.ssh/id_rsa</value>  
  61.     </property>  
  62.                                 
  63.     <property>      
  64.         <name>dfs.namenode.name.dir</name>      
  65.         <value>file:///home/hadoop/workspace/hdfs/name</value>      
  66.     </property>      
  67.       
  68.     <property>      
  69.         <name>dfs.datanode.data.dir</name>      
  70.         <value>file:///home/hadoop/workspace/hdfs/data</value>      
  71.     </property>      
  72.       
  73.     <property>      
  74.        <name>dfs.replication</name>      
  75.        <value>2</value>      
  76.     </property>     
  77.     <!-- 在NN和DN上开启WebHDFS (REST API)功能,不是必须 -->                                                                      
  78.     <property>      
  79.        <name>dfs.webhdfs.enabled</name>      
  80.        <value>true</value>      
  81.     </property>      
  82. </configuration>  

 

 

  • mapred-site.xml
Java代码  收藏代码
  1. <configuration>  
  2.  <property>      
  3.         <name>mapreduce.framework.name</name>      
  4.         <value>yarn</value>      
  5.  </property>      
  6. </configuration>  

 

  • yarn-site.xml
Java代码  收藏代码
  1. <configuration>  
  2.     <!-- 指定nodemanager启动时加载server的方式为shuffle server -->  
  3.     <property>      
  4.             <name>yarn.nodemanager.aux-services</name>      
  5.             <value>mapreduce_shuffle</value>      
  6.      </property>    
  7.      <!-- 指定resourcemanager地址 -->  
  8.      <property>  
  9.             <name>yarn.resourcemanager.hostname</name>  
  10.             <value>mast3</value>  
  11.       </property>   
  12. </configuration>  

 

  • slaves
Java代码  收藏代码
  1. [hadoop@Mast1 hadoop]$ cat slaves  
  2. mast1  
  3. mast2  
  4. mast3  

 

  • 修改JAVA_HOME

 

分别在文件hadoop-env.sh和yarn-env.sh中添加JAVA_HOME配置

Java代码  收藏代码
  1. #export JAVA_HOME=${JAVA_HOME} --原来     
  2. export JAVA_HOME=/usr/local/java/jdk1.7.0_67  

 虽然默认配置了${JAVA_HOME}的环境变量,但是hadoop启动时,会提示找不到,没有办法,指定绝对路径,这个是必须的。

 

  • 配置hadoop的环境变量,参考我的配置
Java代码  收藏代码
  1. [hadoop@Mast1 hadoop]$ vim ~/.bash_profile    
  2. export HADOOP_HOME="/home/hadoop/hadoop-2.5.2"    
  3. export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH    
  4. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native    
  5. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"    

 

  • 将配置复制到mast2、mast3
Java代码  收藏代码
  1. scp -r ~/.bash_profile hadoop@mast2:/home/hadoop/    
  2. scp -r ~/.bash_profile hadoop@mast3:/home/hadoop/    
  3. scp -r $HADOOP_HOME/etc/hadoop hadoop@mast2:/home/hadoop/hadoop-2.5.2/etc/    
  4. scp -r $HADOOP_HOME/etc/hadoop hadoop@mast3:/home/hadoop/hadoop-2.5.2/etc/    

 

 

至此Hadoop的配置完毕,接下来就是启动集群了

 

三.集群的启动

3.1 启动zookeeper集群

分别在mast1、mast2、mast3上执行如下命令启动zookeeper集群;

Java代码  收藏代码
  1. [hadoop@Mast1 bin]$ sh zkServer.sh start  

 验证集群zookeeper集群是否启动,分别在mast1、mast2、mast3上执行如下命令验证zookeeper集群是否启动,集群启动成功,有两个follower节点跟一个leader节点;

Java代码  收藏代码
  1. [hadoop@Mast1 bin]$ sh zkServer.sh status  
  2. JMX enabled by default  
  3. Using config: /home/hadoop/zookeeper/zookeeper-3.3.6/bin/../conf/zoo.cfg  
  4. Mode: follower  
 3.2 启动journalnode集群

在mast1上执行如下命令完成JournalNode集群的启动

Java代码  收藏代码
  1. [hadoop@Mast1 hadoop-2.5.2]$ sbin/hadoop-daemons.sh start journalnode  

 执行jps命令,可以查看到JournalNode的java进程pid

 

3.3 格式化zkfc,让在zookeeper中生成ha节点

在mast1上执行如下命令,完成格式化

Java代码  收藏代码
  1. hdfs zkfc –formatZK  

 (注意,这条命令最好手动输入,直接copy执行有可能会有问题,当时部署时我是蛋疼了许久)

  格式成功后,查看zookeeper中可以看到

Java代码  收藏代码
  1. [zk: localhost:2181(CONNECTED) 1] ls /hadoop-ha  
  2. [ns]  
 
3.4 格式化hdfs
Java代码  收藏代码
  1. hadoop namenode –format  

 (注意,这条命令最好手动输入,直接copy执行有可能会有问题)

 

3.5 启动NameNode

首先在mast1上启动active节点,在mast1上执行如下命令

Java代码  收藏代码
  1. [hadoop@Mast1 hadoop-2.5.2]$ sbin/hadoop-daemon.sh start namenode  

 在mast2上同步namenode的数据,同时启动standby的namenod,命令如下

Java代码  收藏代码
  1. #把NameNode的数据同步到mast2上  
  2. [hadoop@Mast2 hadoop-2.5.2]$ hdfs namenode –bootstrapStandby  
  3. #启动mast2上的namenode作为standby  
  4. [hadoop@Mast2 hadoop-2.5.2]$ sbin/hadoop-daemon.sh start namenode  

 

3.6 启动启动datanode

在mast1上执行如下命令

Java代码  收藏代码
  1. [hadoop@Mast1 hadoop-2.5.2]$ sbin/hadoop-daemons.sh start datanode  

 

3.7 启动year  

在作为资源管理器上的机器上启动,我这里是mast3,执行如下命令完成year的启动

Java代码  收藏代码
  1. [hadoop@Mast3 hadoop-2.5.2]$ sbin/start-yarn.sh   

 

3.8 启动ZKFC

在mast1上执行如下命令,完成ZKFC的启动

Java代码  收藏代码
  1. [hadoop@Mast1 hadoop-2.5.2]$ sbin/hadoop-daemons.sh start zkfc  

全部启动完后分别在mast1,mast2,mast3上执行jps是可以看到下面这些进程的

Java代码  收藏代码
  1. #mast1上的java PID进程  
  2. [hadoop@Mast1 hadoop-2.5.2]$ jps  
  3. 2837 NodeManager  
  4. 3054 DFSZKFailoverController  
  5. 4309 Jps  
  6. 2692 DataNode  
  7. 2173 QuorumPeerMain  
  8. 2551 NameNode  
  9. 2288 JournalNode  
  10. #mast2上的java PID进程  
  11. [hadoop@Mast2 ~]$ jps  
  12. 2869 DFSZKFailoverController  
  13. 2353 DataNode  
  14. 2235 JournalNode  
  15. 4522 Jps  
  16. 2713 NodeManager  
  17. 2591 NameNode  
  18. 2168 QuorumPeerMain  
  19. #mast3上的java PID进程  
  20. [hadoop@Mast3 ~]$ jps  
  21. 2167 QuorumPeerMain  
  22. 2337 JournalNode  
  23. 3506 Jps  
  24. 2457 DataNode  
  25. 2694 NodeManager  
  26. 2590 ResourceManager  

 

四.测试HA的高可用性

启动后mast1的namenode和mast2的namenode如下所示:



 



 

此时在mast1上执行如下命令关闭mast1上的namenode

Java代码  收藏代码
  1. [hadoop@Mast1 hadoop-2.5.2]$ sbin/hadoop-daemon.sh stop namenode  

 再次查看mast1上的namenode,发现自动切换为active了!证据如下:



 

转载出自:http://eksliang.iteye.com/blog/2226986

分享到:
评论

相关推荐

    eclipse开发hadoop2.5.2所用到都jar

    标题 "eclipse开发hadoop2.5.2所用到的jar" 指的是在Eclipse中进行Hadoop 2.5.2开发时所需的特定版本的JAR文件集合。这些JAR文件通常包括以下几个部分: 1. Hadoop Common:这是Hadoop的基础模块,包含了一般用途的...

    hadoop2.5.2的本地模式、伪分布式集群、分布式集群和HDFS系统的高可用的环境搭建.docx

    在搭建Hadoop 2.5.2环境的过程中,我们需要经历几个关键步骤,包括本地模式、伪分布式集群和分布式集群的设置,以及HDFS系统的高可用性配置。首先,确保你的系统已经安装了JDK 1.8,因为Hive等组件需要1.7以上的版本...

    CentOS上搭建Hadoop2.5.2_CentOS搭建hadoop_云计算_源码

    - 对于生产环境,通常会配置Hadoop的高可用性,包括NameNode HA和ResourceManager HA,这涉及到ZooKeeper的使用和额外的NameNode/ResourceManager节点设置。 13. **安全性**: - 考虑启用Hadoop的安全特性,如...

    Hadoop2.5.2+Sqoop-1.4.6

    同时,还需要安装ZooKeeper,因为ZooKeeper在Hadoop的高可用性和集群协调中起着关键作用。 安装Sqoop时,需要下载`mysql-connection-java-5.1.29bin.jar`作为MySQL的JDBC驱动,以及Sqoop的jar包,如`sqoop-1.4.5....

    Hadoop Hbase Zookeeper系列安装手册

    环境介绍:3台虚拟机安装centos6.5 64位、jdk1.7 64位、hadoop2.5.2 64位

    hadoop2.x 安装文档

    - 解压Hadoop压缩包:`tar -zxvf hadoop2.5.2.tar.gz`。 - 进入Hadoop安装目录下的`etc/hadoop/`。 2. **环境变量配置**: - 修改`hadoop-env.sh`文件中的`JAVA_HOME`环境变量指向JDK安装路径: ```bash export...

    Hadoop权威指南 第二版(中文版)

     本书从Hadoop的缘起开始,由浅入深,结合理论和实践,全方位地介绍Hadoop这一高性能处理海量数据集的理想工具。全书共16章,3个附录,涉及的主题包括:Haddoop简介;MapReduce简介;Hadoop分布式文件系统;Hadoop...

    hadoop-ha-docker:Hadoop HA 码头集装箱。 在 docker hub 上作为 jurmoushadoop 可用

    jurmous/hadoop 是 Hadoop 分布式存储引擎,打包在轻量级 docker 中,并以一种方式配置为轻松运行分布式高可用性。套餐详情Java 7(最新的来自 java:7 作为基础容器) Hadoop 2.5.2 重击没有额外打包的操作系统,...

    Hadoop权威指南(中文版)2015上传.rar

    第1章 初识Hadoop 数据!数据! 数据存储与分析 与其他系统相比 关系型数据库管理系统 网格计算 志愿计算 1.3.4 Hadoop 发展简史 Apache Hadoop和Hadoop生态圈 第2章 关于MapReduce 一个气象数据集 数据的格式 使用...

    Hadoop-2.4.0+Hbase-0.94.18+Nutch-2.3集群爬虫配置攻略

    在搭建Hadoop-2.4.0集群时,首先需要确保系统已安装必要的依赖包和工具,包括Maven 3.0或更高版本,Findbugs 1.3.9(如果要运行findbugs),ProtocolBuffer 2.5.0以及CMake 2.6或更新版本(如果要编译本地代码)。...

    英特尔Hadoop发行版 2.2 管理手册

    - 配置Hadoop集群的高可用性,如NameNode的HA模式。 #### 六、系统配置 **6.1 许可证管理** - 管理Intel® Manager for Hadoop的许可证信息,确保软件合法使用。 **6.2 用户管理** - **6.2.1 添加用户**:增加...

    hbase安装,节点添加,移除,常见问题解决

    在Hadoop HA(高可用)环境中安装HBase,需要确保Hadoop的NameNode也是HA模式,并且配置了多个Zookeeper实例,这样可以提高整个系统的稳定性。 接下来是HBase节点的动态添加与移除: 1. 添加节点:在新节点上完成...

    hbase安装文档

    本文将详细介绍如何在生产环境中安装HBase,包括所需软件版本的选择,安装步骤以及配置文件的修改,以确保与Hadoop集群的无缝配合。 一、软件选型与下载 在开始安装前,我们需要准备以下软件包: 1. ZooKeeper:...

    22-安装部署Sqoop1

    Sqoop 是一个用于在 Apache Hadoop 和关系数据库之间进行数据导入导出的工具。它提供了命令行接口,方便用户将结构化的数据从 RDBMS(关系数据库管理系统)批量加载到 Hadoop 分布式文件系统(HDFS)中,或者从 HDFS...

    bigdata-learn:大数据学习

    hadoop2.5.2,参照文档 5. zookeeper-3.4.6,参照文档 6. 机器:macbook pro 2017版 8G内存二、虚拟机准备1. 搭建 4台Centos7,下载的是min版本的CentOS-7-x86_64-Minimal-1804.iso2. 分配静态ipCentos7中查看ip的...

    hbase-2.2.5-bin.tar.gz

    HBase构建于Hadoop文件系统(HDFS)之上,提供高可靠性、高性能、可伸缩的数据存储。它能够支持实时读写,非常适合于大数据应用场景,如实时分析、日志处理等。 在HBase 2.2.5版本中,我们看到的是一个稳定且功能...

Global site tag (gtag.js) - Google Analytics