`
yehao0716
  • 浏览: 22715 次
  • 性别: Icon_minigender_1
  • 来自: 武汉
社区版块
存档分类
最新评论

hadoop2.5.1集群搭建:(二)搭建自动切换HA的HDFS集群

阅读更多
搭建自动切换HA的HDFS集群(比手工切换ha集群,多了zookeeper集群)
----------------------------------------------------------------------------------------------
zookeeper:hadoop2-1、hadoop2-2、hadoop2-3
namenode:hadoop2-1和hadoop2-2
datanode:hadoop2-3、hadoop2-4、hadoop2-5、hadoop2-6
journalnode:hadoop2-1、hadoop2-2、hadoop2-3
 

2.0 搭建zookeeper集群,并启动
2.0.1  在hadoop2-1上解压缩,重命名为zookeeper,把conf/zoo_sample.cfg重命名为conf/zoo.cfg
  修改文件conf/zoo.cfg
  (1)dataDir=/usr/local/zookeeper/data
  (2)增加以下内容
     server.1=hadoop2-1:2888:3888
     server.2=hadoop2-2:2888:3888
     server.3=hadoop2-3:2888:3888
  创建目录mkdir zookeeper/data
  写入文件echo 1 >> zookeeper/data/myid
  
  复制zookeeper文件夹到hadoop2-2、hadoop2-3上
  scp -rq zookeeper  hadoop2-2:/usr/local
  scp -rq zookeeper  hadoop2-3:/usr/local
  
  在hadoop2上执行命令echo 2 >> zookeeper/data/myid
  在hadoop3上执行命令echo 3 >> zookeeper/data/myid
2.0.2 启动
  在hadoop2-1、hadoop2-2、hadoop2-3上,分别执行命令zookeeper/bin/zkServer.sh start
2.0.3 验证
  执行命令zookeeper/bin/zkCli.sh 
  进入后执行ls /
 
 
2.1 配置文件(hadoop-env.sh、core-site.xml、hdfs-site.xml、slaves)
2.1.1 hadoop-env.sh
  export JAVA_HOME=/usr/local/jdk1.7.0-45
2.1.2 core-site.xml

<property>
<name>fs.defaultFS</name>
<value>hdfs://cluster1</value>
</property>

<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>

<property>
<name>ha.zookeeper.quorum</name>
<value>hadoop2-1:2181,hadoop2-2:2181,hadoop2-3:2181</value>
</property>

2.1.3 hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>3</value>
</property>

<property>
<name>dfs.nameservices</name>
<value>cluster1</value>
</property>

<property>
<name>dfs.ha.namenodes.cluster1</name>
<value>hadoop2-1,hadoop2-2</value>
</property>

<property>
<name>dfs.namenode.rpc-address.cluster1.hadoop2-1</name>
<value>hadoop2-1:9000</value>
</property>

<property>
<name>dfs.namenode.http-address.cluster1.hadoop2-1</name>
<value>hadoop2-1:50070</value>
</property>

<property>
<name>dfs.namenode.rpc-address.cluster1.hadoop2-2</name>
<value>hadoop2-2:9000</value>
</property>

<property>
<name>dfs.namenode.http-address.cluster1.hadoop2-2</name>
<value>hadoop2-2:50070</value>
</property>

<property>
<name>dfs.ha.automatic-failover.enabled.cluster1</name>
<value>true</value>
</property>

<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://hadoop2-1:8485;hadoop2-2:8485;hadoop2:8485/cluster1</value>
</property>

<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/hadoop/tmp/journal</value>
</property>

<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>

<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>

<property>
<name>dfs.client.failover.proxy.provider.cluster1</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

2.1.6 slaves
hadoop2-3
hadoop2-4
hadoop2-5
hadoop2-6
 

2.1.7 删除其他节点的hadoop文件夹,然后把hadoop2-1上的hadoop文件夹复制到其他节点
2.2 格式化zk集群
  在hadoop2-1上执行hadoop/bin/hdfs zkfc -formatZK
2.3 启动journalnode集群
  在hadoop2-1、hadoop2-2、hadoop2-3上分别执行hadoop/sbin/hadoop-daemon.sh start journalnode
2.4 格式化namenode、启动namenode
  在hadoop2-1上执行hadoop/bin/hdfs namenode -format
  在hadoop2-1上分别执行hadoop/sbin/hadoop-daemon.sh start namenode
  在hadoop2-2上执行hadoop/bin/hdfs namenode -bootstrapStandby
  在hadoop2-2上分别执行hadoop/sbin/hadoop-daemon.sh start namenode
2.5 启动datanode
  在hadoop2-1上分别执行hadoop/sbin/hadoop-daemons.sh start datanode
2.6 启动ZKFC
  在hadoop2-1、hadoop2-2上 启动zkfc,执行命令hadoop/sbin/hadoop-daemon.sh start zkfc
 

总结:
  自动切换比手工切换多出来的
  (1)配置上core-site.xml增加了配置项ha.zookeeper.quorum;hdfs-site.xml中把dfs.ha.automatic-failover.enabled.cluster1改为true
  (2)操作上格式化zk,执行命令bin/hdfs zkfc -formatZK;启动zkfc,执行命令sbin/hadoop-daemon.sh start zkfc
0
1
分享到:
评论

相关推荐

    hadoop-hdfs-2.5.1-API文档-中文版.zip

    赠送jar包:hadoop-hdfs-2.5.1.jar; 赠送原API文档:hadoop-hdfs-2.5.1-javadoc.jar; 赠送源代码:hadoop-hdfs-2.5.1-sources.jar; 赠送Maven依赖信息文件:hadoop-hdfs-2.5.1.pom; 包含翻译后的API文档:hadoop...

    hadoop-hdfs-2.5.1-API文档-中英对照版.zip

    赠送jar包:hadoop-hdfs-2.5.1.jar; 赠送原API文档:hadoop-hdfs-2.5.1-javadoc.jar; 赠送源代码:hadoop-hdfs-2.5.1-sources.jar; 赠送Maven依赖信息文件:hadoop-hdfs-2.5.1.pom; 包含翻译后的API文档:hadoop...

    hadoop2.5.1汇总:最新编译_32位、64位安装包、源码包、API下载及新特性 中文

    2. **HA(High Availability)**:Hadoop 2.5.1支持NameNode和ResourceManager的高可用性,这意味着即使主节点故障,系统也能自动切换到备份节点,保证服务不间断。 3. **性能优化**:包括更快的文件读写速度,更...

    hadoop伪集群搭建及eclipse插件配置

    搭建伪集群模式的Hadoop可以用于开发与测试,在这个模式下,所有节点实际上都运行在同一个物理机上,模拟集群的运行环境。同时,通过在开发IDE如Eclipse中配置Hadoop插件,可以更便捷地进行开发和调试Hadoop程序。...

    Hadoop分布式集群搭建所需安装包资源

    在部署Hadoop集群时,你需要解压此文件,然后进行编译和安装,或者直接将预编译的二进制文件部署到集群节点上。 安装Hadoop时,通常遵循以下步骤: 1. 解压Hadoop安装包:`tar -zxvf hadoop-2.7.5.tar.gz` 2. 配置...

    hadoop集群搭建文档资料

    Hadoop集群的搭建是一项技术性很强的任务,涉及到多个组件的配置和优化。以下是对"hadop集群搭建文档资料"的详细解析: 1. **Hadoop概述**:Hadoop由Apache基金会开发,基于Java语言,设计为分布式计算系统,它支持...

    3.基于hadoop集群搭建hbase

    ### 基于Hadoop集群搭建HBase集群详解 #### 一、引言 随着大数据技术的迅猛发展,海量数据的高效存储与处理成为企业关注的重点。Hadoop作为一款能够处理大量数据的基础框架,被广泛应用于各类场景之中。然而,在...

    hadoop2.7.0集群搭建

    本文根据实际的操作,详细的讲解了hadoop2.7.0集群的搭建过程

    Hadoop集群搭建(全)

    Hadoop集群搭建详解 Hadoop是一个开源的分布式计算平台,由 Apache 软件基金会开发,核心组件包括HDFS(Hadoop Distributed Filesystem)和MapReduce。HDFS是一个分布式文件系统,提供了对文件系统的命名空间和...

    Hadoop和Spark多节点集群搭建:从入门到进阶0基础!!易懂!!

    Hadoop和Spark多节点集群搭建Hadoop和Spark多节点集群搭建Hadoop和Spark多节点集群搭建Hadoop和Spark多节点集群搭建Hadoop和Spark多节点集群搭建Hadoop和Spark多节点集群搭建Hadoop和Spark多节点集群搭建Hadoop和...

    hadoop集群搭建(超级详细)

    本文将详细讲解如何搭建一个Hadoop集群,包括虚拟机安装、环境配置、Hadoop和Zookeeper的安装及集群验证。以下是对每个步骤的详细说明: 一、虚拟机安装与配置 在搭建Hadoop集群之前,首先需要准备多台虚拟机。可以...

    linux下Hadoop集群环境搭建

    在Linux环境下搭建Hadoop集群是一项复杂但至关重要的任务,它为大数据处理提供了强大的分布式平台。以下将详细介绍如何在一台虚拟机上安装多台Linux服务节点,并构建Hadoop集群环境。 首先,我们需要准备一个基础...

    hadoop 分布式集群搭建

    Hadoop分布式集群搭建的知识点包括以下几个主要方面: 1. 环境准备与组件安装: - 首先,需要准备一个网络中各个节点之间能够通信的环境,确保集群中的每台计算机都能够通过SSH无密码登录,这对于集群中的各个服务...

    HadoopHA集群配置文件

    配置Hadoop HA集群需要对这些文件进行精确调整,以实现命名节点的自动故障切换、保证数据的安全性和一致性,以及优化资源分配和任务调度。在实际操作中,还需要关注其他配置,比如Zookeeper的设置(用于协调NN的故障...

    Hadoop 分布式集群搭建.md

    Hadoop 分布式集群搭建.md

    hadoop2.5.1安装指引.txt

    可参考 http://www.bjsxt.com/down/3191.html 安装视频。

    Hadoop3.0分布式集群搭建(HA)详细文档.docx

    Hadoop 3.0 分布式集群搭建(HA)详细文档 本资源摘要信息主要介绍了 Hadoop 3.0 分布式集群搭建的详细步骤和要求,从搭建前的准备工作到集群的安装和配置,涵盖了主机规划、软件规划、用户规划、数据目录规划、...

    01 hadoop 3.2.4集群搭建.html

    hadoop 3.2.4集群搭建

    基于Linux平台下的Hadoop和Spark集群搭建研究.pdf

    在Hadoop集群的搭建中,需要首先安装Hadoop框架,然后配置Hadoop的文件系统HDFS和MapReduce的运行环境。 Spark集群的搭建需要安装Spark框架,然后配置Spark的运行环境。 本文还讨论了Hadoop和Spark集群的结合,使用...

Global site tag (gtag.js) - Google Analytics