- 浏览: 293837 次
- 性别:
- 来自: 北京
文章分类
最新评论
-
白Rime:
楼主在吗,我在装 libxml2 时,出现该问题,有些地方还是 ...
python安装是 -fPIC问题的解决 -
yeelor:
$./configure --prefix=/usr/loca ...
python安装是 -fPIC问题的解决 -
yeelor:
$./configure --prefix=/usr/loca ...
python安装是 -fPIC问题的解决 -
fuzzball:
bo_hai 写道楼主的办法解决我了的问题。给你32个 兄弟有 ...
python安装是 -fPIC问题的解决 -
fuzzball:
silent1 写道编译ganglia的时候出现此问题,按楼主 ...
python安装是 -fPIC问题的解决
今天折腾HA,那叫一个顺利啊,
我原本准备花一周时间来折腾的,结果今天一天基本搞定,没遇到什么大问题。
要写总结,我也不知道写啥了。
大致流程罗列一下吧。
主要分三步,
第一步,弄清楚HA原理架构,这个参考官方文档,说的很清楚。
http://hadoop.apache.org/docs/r2.0.0-alpha/hadoop-yarn/hadoop-yarn-site/HDFSHighAvailability.html
http://www.cloudera.com/blog/2012/03/high-availability-for-the-hadoop-distributed-file-system-hdfs/
http://yanbohappy.sinaapp.com/?p=50 (中文的,很不错)
第二步,部署好NFS,这个网上也有很多。
http://blog.sina.com.cn/s/blog_542627730100ipi5.html 我主要参考这个,下面是粘贴
一、Linux 服务器端NFS 服务器的配置
以root 身份登陆Linux 服务器,编辑/etc 目录下的共享目录配置文件exports,指定共享目录及权限等。
执行如下命令编辑文件/etc/exports:
# vi /etc/exports
在该文件里添加如下内容:
/home/work 192.168.0.*(rw,sync,no_root_squash)
然后保存退出。
添加的内容表示:允许ip 地址范围在192.168.0.*的计算机以读写的权限来访问/home/work 目录。
/home/work 也称为服务器输出共享目录。
括号内的参数意义描述如下:
rw:读/写权限,只读权限的参数为ro;
sync:数据同步写入内存和硬盘,也可以使用async,此时数据会先暂存于内存中,而不立即写入硬盘。
no_root_squash:NFS 服务器共享目录用户的属性,如果用户是 root,那么对于这个共享目录来说就具有 root 的权限。
接着执行如下命令,启动端口映射:
# /etc/rc.d/init.d/portmap start
最后执行如下命令启动NFS 服务,此时NFS 会激活守护进程,然后就开始监听 Client 端的请求:
# /etc/rc.d/init.d/nfs start
#exportfs -rv (这句必须执行)
用户也可以重新启动Linux 服务器,自动启动NFS 服务。
在NFS 服务器启动后,还需要检查Linux 服务器的防火墙等设置(一般需要关闭防火墙服务),确保没有屏蔽掉NFS 使用的端口和允许通信的主机,主要是检查Linux 服务器iptables,ipchains 等选项的设置,以及/etc/hosts.deny,/etc/hosts.allow 文件。
我们首先在Linux 服务器上进行NFS 服务器的回环测试,验证共享目录是否能够被访问。在Linux 服务器上运行如下命令:
# mount –t nfs 192.168.0.20:/home/work /mnt
# ls /mnt 命令将Linux 服务器的NFS 输出共享目录挂载到/mnt 目录下,因此,如果NFS 正常工作,应该能够在/mnt 目录看到/home/work 共享目录中的内容。
在客户机进行上如下操作:
# mkdir /mnt/nfs //建立Linux 服务器输出共享目录的挂载点;
# mount –t nfs 192.168.0.20:/home/work /mnt/nfs –o nolock
# cd /mnt/nfs
# ls
在开发过程中,来回输入命令非常烦人,我写了两个简单的脚本来完成nfs的启动,挂载。
host启动nfs:
snfs
#!/bin/bash
ifconfig eth0 192.168.0.20
/etc/rc.d/init.d/portmap start
/etc/rc.d/init.d/nfs start
目标机挂载nfs:
mnfs:
#!/bin/sh
mount -t nfs 192.168.0.20:/home/work/nfs /mnt/nfs -o nolock
echo “nfs ok!”
也可以配置/etc/fstab:
#vi /etc/fstab
加入以下内容
192.168 . 0.203 :/home/cqxs3/data /home/cqxs3/data nfs defaults
第三步,配置hadoop HA,基本上一路顺利,按照官方文档弄就行:http://hadoop.apache.org/docs/r2.0.0-alpha/hadoop-yarn/hadoop-yarn-site/HDFSHighAvailability.html
1,保证两个namenode硬件配置相同,或者都能胜任工作吧;
2,保证两个namenode都挂载了nfs同一块区域吧。
3,保证两个namenode可以互相免密码ssh,namenode运行的进程。
4,保证两个NameNode的dfs.namenode.name.dir路径下内容相同;
5,保证dfs.namenode.shared.edits.dir路径下有current/edit_*文件
6,可以启动啦,在namenode上执行start-dfs.sh,可以jps查进程、访问namenode的web、以及看日志确认namenode是否成功启动了。
7,启动datanode (因为我开了security模式,所以datanode要单独在root下启动)
8,启动之后,两个namenode都在standby模式,在namenode上执行hdfs dfs -haadmin failover nn2 nn1 就行啦。
9,没有了,一切静待运行几天。
10,补充下,hadoop 的client也做的ha重试机制,所以client知道去哪里找namenode。
11,再补充一下,两个namenode机器上运行namenode进程的用户(我这里是hdfs)的uid要相同,要不然无法对nfs中的数据拥有相同的权限。
最后,附上我的配置文件
我原本准备花一周时间来折腾的,结果今天一天基本搞定,没遇到什么大问题。
要写总结,我也不知道写啥了。
大致流程罗列一下吧。
主要分三步,
第一步,弄清楚HA原理架构,这个参考官方文档,说的很清楚。
http://hadoop.apache.org/docs/r2.0.0-alpha/hadoop-yarn/hadoop-yarn-site/HDFSHighAvailability.html
http://www.cloudera.com/blog/2012/03/high-availability-for-the-hadoop-distributed-file-system-hdfs/
http://yanbohappy.sinaapp.com/?p=50 (中文的,很不错)
第二步,部署好NFS,这个网上也有很多。
http://blog.sina.com.cn/s/blog_542627730100ipi5.html 我主要参考这个,下面是粘贴
引用
一、Linux 服务器端NFS 服务器的配置
以root 身份登陆Linux 服务器,编辑/etc 目录下的共享目录配置文件exports,指定共享目录及权限等。
执行如下命令编辑文件/etc/exports:
# vi /etc/exports
在该文件里添加如下内容:
/home/work 192.168.0.*(rw,sync,no_root_squash)
然后保存退出。
添加的内容表示:允许ip 地址范围在192.168.0.*的计算机以读写的权限来访问/home/work 目录。
/home/work 也称为服务器输出共享目录。
括号内的参数意义描述如下:
rw:读/写权限,只读权限的参数为ro;
sync:数据同步写入内存和硬盘,也可以使用async,此时数据会先暂存于内存中,而不立即写入硬盘。
no_root_squash:NFS 服务器共享目录用户的属性,如果用户是 root,那么对于这个共享目录来说就具有 root 的权限。
接着执行如下命令,启动端口映射:
# /etc/rc.d/init.d/portmap start
最后执行如下命令启动NFS 服务,此时NFS 会激活守护进程,然后就开始监听 Client 端的请求:
# /etc/rc.d/init.d/nfs start
#exportfs -rv (这句必须执行)
用户也可以重新启动Linux 服务器,自动启动NFS 服务。
在NFS 服务器启动后,还需要检查Linux 服务器的防火墙等设置(一般需要关闭防火墙服务),确保没有屏蔽掉NFS 使用的端口和允许通信的主机,主要是检查Linux 服务器iptables,ipchains 等选项的设置,以及/etc/hosts.deny,/etc/hosts.allow 文件。
我们首先在Linux 服务器上进行NFS 服务器的回环测试,验证共享目录是否能够被访问。在Linux 服务器上运行如下命令:
# mount –t nfs 192.168.0.20:/home/work /mnt
# ls /mnt 命令将Linux 服务器的NFS 输出共享目录挂载到/mnt 目录下,因此,如果NFS 正常工作,应该能够在/mnt 目录看到/home/work 共享目录中的内容。
在客户机进行上如下操作:
# mkdir /mnt/nfs //建立Linux 服务器输出共享目录的挂载点;
# mount –t nfs 192.168.0.20:/home/work /mnt/nfs –o nolock
# cd /mnt/nfs
# ls
在开发过程中,来回输入命令非常烦人,我写了两个简单的脚本来完成nfs的启动,挂载。
host启动nfs:
snfs
#!/bin/bash
ifconfig eth0 192.168.0.20
/etc/rc.d/init.d/portmap start
/etc/rc.d/init.d/nfs start
目标机挂载nfs:
mnfs:
#!/bin/sh
mount -t nfs 192.168.0.20:/home/work/nfs /mnt/nfs -o nolock
echo “nfs ok!”
也可以配置/etc/fstab:
#vi /etc/fstab
加入以下内容
192.168 . 0.203 :/home/cqxs3/data /home/cqxs3/data nfs defaults
第三步,配置hadoop HA,基本上一路顺利,按照官方文档弄就行:http://hadoop.apache.org/docs/r2.0.0-alpha/hadoop-yarn/hadoop-yarn-site/HDFSHighAvailability.html
1,保证两个namenode硬件配置相同,或者都能胜任工作吧;
2,保证两个namenode都挂载了nfs同一块区域吧。
3,保证两个namenode可以互相免密码ssh,namenode运行的进程。
4,保证两个NameNode的dfs.namenode.name.dir路径下内容相同;
5,保证dfs.namenode.shared.edits.dir路径下有current/edit_*文件
6,可以启动啦,在namenode上执行start-dfs.sh,可以jps查进程、访问namenode的web、以及看日志确认namenode是否成功启动了。
7,启动datanode (因为我开了security模式,所以datanode要单独在root下启动)
8,启动之后,两个namenode都在standby模式,在namenode上执行hdfs dfs -haadmin failover nn2 nn1 就行啦。
9,没有了,一切静待运行几天。
10,补充下,hadoop 的client也做的ha重试机制,所以client知道去哪里找namenode。
11,再补充一下,两个namenode机器上运行namenode进程的用户(我这里是hdfs)的uid要相同,要不然无法对nfs中的数据拥有相同的权限。
最后,附上我的配置文件
<configuration> <!-- NameNode URI of the cluster --> <property> <name>fs.defaultFS</name> <value>hdfs://hadoopii</value> </property> <property> <name>fs.trash.interval</name> <value>1440</value> </property> </configuration>
<configuration> <property> <name>dfs.federation.nameservices</name> <value>hadoopii</value> </property> <property> <name>dfs.permissions.superusergroup</name> <value>hadoop</value> </property> <!-- namenode dir --> <property> <name>dfs.namenode.name.dir</name> <value>/data/NameNode</value> </property> <!-- datanode dir --> <property> <name>dfs.datanode.data.dir</name> <value>/data/DataNode</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.datanode.max.xcievers</name> <value>4096</value> </property> <!-- datanode dir --> <property> <name>dfs.checksum.type</name> <value>CRC32</value> </property> <property> <name>dfs.ha.namenodes.hadoopii</name> <value>nn1,nn2</value> </property> <property> <name>dfs.namenode.rpc-address.hadoopii.nn1</name> <value>myhost20:54310</value> </property> <property> <name>dfs.namenode.rpc-address.hadoopii.nn2</name> <value>myhost-1:54310</value> </property> <property> <name>dfs.namenode.servicerpc-address.hadoopii.nn1</name> <value>myhost20:53310</value> </property> <property> <name>dfs.namenode.servicerpc-address.hadoopii.nn2</name> <value>myhost-1:53310</value> </property> <property> <name>dfs.namenode.http-address.hadoopii.nn1</name> <value>myhost20:50070</value> </property> <property> <name>dfs.namenode.http-address.hadoopii.nn2</name> <value>myhost-1:50070</value> </property> <property> <name>dfs.client.failover.proxy.provider.hadoopii</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> <property> <name>dfs.namenode.shared.edits.dir</name> <value>file:///nfs_myhost0/hdfs/ha-name-dir-shared</value> </property> <property> <name>dfs.ha.fencing.methods</name> <value>sshfence</value> </property> <property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/home/hdfs/.ssh/id_rsa</value> </property> <property> <name>dfs.ha.fencing.ssh.connect-timeout</name> <value>5000</value> </property> </configuration>
发表评论
-
hadoop 2.0.1-alpha上部署 oozie-3.2.0
2012-09-21 12:33 1906不知道为什么bin/addwar.sh里面说只支持0.20.x ... -
pig 部署在hadoop 23上
2012-09-16 10:32 2029pig-0.10.0版本是支持hadoop 23的。 但是需要 ... -
fuse=dfs 安装
2012-08-28 22:34 3398其实不是那么难,但是 ... -
hadoop 2.0.1 使用distcp问题解决
2012-08-26 12:55 10320幸幸苦苦安装好了新版hadoop, 然后辛辛苦苦调通,可以跑m ... -
hadoop 2.0.1配置纪要
2012-08-26 12:55 2685折腾了一天一夜。 到运行mr任务时卡住了,一直报错,说找不到 ... -
hadoop lzo配置
2012-05-13 23:27 1876这个东西,看来很复杂,网上一搜很多资料。 总的来说就是 一, ... -
尝试bigtop
2012-04-14 20:47 7146无意中在cloudera网站上看到的bigtop介绍: htt ... -
zz hadoop常见问题
2012-04-12 21:30 2275http://www.hadoopor.com/thread- ... -
hadoop 0.23 配置(启动、跑mapRedcue、web UI)
2012-03-04 20:24 4328启动有几个部分: 1,hdfs; 其中包括、namenode、 ... -
hadoop 0.23 配置、安装、升级(YARN 与 log路径 )
2012-03-04 12:30 2659yarn的配置比hdfs那几个点点简单多了, 网上随便找个教 ... -
hadoop 0.23 配置、安装、升级(HDFS篇)
2012-03-03 19:53 3933折腾了一天, 装0.23的hd ... -
Hadoop升级,CDH3B3 to CDH3U2
2011-10-30 10:54 2709只是升级hadoop和Hbase两个组件。 参考的主要是 ... -
HBase错误处理记录
2011-10-28 09:22 1378错误一,hbase版本统一 报出一堆getMaster的错误, ... -
hbase启动失败解决
2011-10-21 20:43 7442因为一个程序把hadoop集群整死了。 集群重启后,hbase ... -
namenode无法启动,解决
2011-10-13 16:24 5050hadoop集群关闭后,重新开启 Namenode无法启动。 ... -
hadoop 批量移除 dataNode
2011-08-02 21:48 2336其实就是编辑一个文本,文本内容就是写出要移除机器的ip地址。 ...
相关推荐
本文将深入探讨Hadoop HA(高可用性)集群的配置文件,包括`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`、`yarn-site.xml`以及`slaves`文件,这些都是确保Hadoop集群稳定运行的基础。 1. `core-site.xml`:...
### Hadoop部署和配置Kerberos安全认证 #### 一、Kerberos认证系统简介 Kerberos是一种网络认证协议,其设计目标是通过密钥分发中心(Key Distribution Center, KDC)来管理用户和服务之间的认证过程。Kerberos在...
详细的 hadoop (HA)高可用配置文件内容,以及注释摘要。四个配置文件详细内容。
【Hadoop HA集群部署】是高可用(High Availability)配置的一种,主要目的是为了确保Hadoop分布式文件系统在遇到单点故障时,能够自动切换到备用节点,保证服务不间断。这通常涉及到NameNode HA,Secondary NameNode...
5. **Hadoop HA部署所需软件包** - CentOS 7操作系统:作为基础操作系统。 - JDK 8:Hadoop需要Java运行环境。 - Hadoop 2.8.5:具体版本可能因需求而异。 - Chrony:提供精确的时间同步,对分布式系统非常重要...
整个实验过程共分为三个部分:实验一:高可用 ZooKeeper 集群部署、实验二:Hadoop HA 集群配置和实验三:Hadoop HA 集群测试。 一、实验一:高可用 ZooKeeper 集群部署 1.1. 实验目的 本实验的目的是部署高可用 ...
5. 测试和监控:在实际部署前,需要进行故障切换测试以验证HA功能的正确性,并配置合适的监控工具以实时了解Hadoop集群的健康状态。 通过这个一键运行脚本,用户可以简化繁琐的配置过程,快速搭建起一个具备HA能力...
在构建高可用(HA)Hadoop集群时,HDFS(Hadoop Distributed File System)HA配置是关键步骤,目的是确保即使NameNode节点发生故障,数据访问和服务也不会中断。本教程将详细讲解如何配置、启动和验证Hadoop HA集群...
### Hadoop2.0分布式HA环境部署 #### Hadoop2.0 HA机制概览 Hadoop2.0相比Hadoop1.0,在集群稳定性与可用性方面进行了显著增强,特别是引入了High Availability (HA)机制。Hadoop1.0中仅存在单一的NameNode作为元...
【Hadoop HA 集群部署与 YARN HA 测试Job 教学】 在大数据处理领域,Hadoop 是一个至关重要的分布式计算框架,它提供了高可用性(HA)的特性来确保服务的连续性和稳定性。Hadoop HA 主要指的是 HDFS(Hadoop ...
《Hadoop安装配置与部署运行》 在大数据处理领域,Hadoop是一个不可或缺的开源框架,它为分布式存储和计算提供了强大的支持。对于初学者来说,理解并掌握Hadoop的安装、配置和部署运行过程至关重要。本教程将带你一...
本文件"**HadoopHA配置文件.rar**"包含了实现Hadoop HA所需的一些核心配置,主要包括`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`和`yarn-site.xml`,以及`slaves`文件。以下将详细解析这些配置文件中的...
在本文中,我们将详细讨论如何配置Hadoop HA版本,特别是使用Quorum Journal Manager (QJM) 实现HDFS的HA。 首先,我们需要理解Hadoop HA的基本架构。Hadoop HA主要涉及两个关键组件:NameNode和ResourceManager。...
部署全分布模式Hadoop集群 实验报告一、实验目的 1. 熟练掌握 Linux 基本命令。 2. 掌握静态 IP 地址的配置、主机名和域名映射的修改。 3. 掌握 Linux 环境下 Java 的安装、环境变量的配置、Java 基本命令的使用。 ...
在实际部署过程中可能会遇到一些常见的问题,如网络连接问题、权限问题、配置错误等。针对这些问题,建议仔细检查配置文件的一致性,并确保网络通信正常。如果遇到特定错误,可以查阅Hadoop官方文档或社区论坛获取...
在提供的压缩包文件中,"HDP HAģʽ"可能包含了Hadoop HA的部署架构图,有助于理解各组件间的相互关系。"HDP HA模式"可能是具体的配置文件或脚本,可以参照这些文件来配置自己的Hadoop HA环境。在实际操作中,务必...
【正文】 ...总结来说,Hadoop HA集群部署是一项涉及多个组件和配置的复杂任务,需要细心规划和严谨执行。通过正确的部署和验证,可以构建出高可用、高可靠的大数据处理环境,保证业务连续性和数据安全性。
在Hadoop生态系统中,了解和配置不同的运行模式是至关重要的,这些模式包括独立模式、伪分布模式、完全分布式模式以及高可用性(HA)配置。接下来,我们将详细探讨这些模式及其相关的配置文件。 1. **独立模式**: ...
整体来看,Hadoop的HA配置是一个涉及多个层面和组件的复杂过程,需要仔细规划和配置。通过Hadoop HA思维导图,可以帮助架构师和管理员更清晰地理解各个组件的交互关系,以及如何有效地进行故障转移,确保Hadoop集群...
Hadoop高可用配置HA.docx