作者
岑文初
发布于
2008年8月7日 下午1时39分
Java
主题
网格计算
,
集群与缓存
标签
Hadoop
── 分布式计算开源框架Hadoop入门实践(二)
其实参看Hadoop官方文档已经能够很容易配置分布式框架运行环境了,不过这里既然写了就再多写一点,同时有一些细节需要注意的也说明一下,其实
也就是这些细节会让人摸索半天。Hadoop可以单机跑,也可以配置集群跑,单机跑就不需要多说了,只需要按照Demo的运行说明直接执行命令即可。这里
主要重点说一下集群配置运行的过程。
环境
7台普通的机器,操作系统都是Linux。内存和CPU就不说了,反正Hadoop一大特点就是机器在多不在精。JDK必须是1.5以上的,这个切记。7台机器的机器名务必不同,后续会谈到机器名对于MapReduce有很大的影响。
部署考虑
正如上面我描述的,对于Hadoop的集群来说,可以分成两大类角色:Master和Slave,前者主要配置NameNode和
JobTracker的角色,负责总管分布式数据和分解任务的执行,后者配置DataNode和TaskTracker的角色,负责分布式数据存储以及任
务的执行。本来我打算看看一台机器是否可以配置成Master,同时也作为Slave使用,不过发现在NameNode初始化的过程中以及
TaskTracker执行过程中机器名配置好像有冲突(NameNode和TaskTracker对于Hosts的配置有些冲突,究竟是把机器名对应
IP放在配置前面还是把Localhost对应IP放在前面有点问题,不过可能也是我自己的问题吧,这个大家可以根据实施情况给我反馈)。最后反正决定一
台Master,六台Slave,后续复杂的应用开发和测试结果的比对会增加机器配置。
实施步骤
- 在所有的机器上都建立相同的目录,也可以就建立相同的用户,以该用户的home路径来做hadoop的安装路径。例如我在所有的机器上都建立了
/home/wenchu
。
- 下载Hadoop,先解压到Master上。这里我是下载的0.17.1的版本。此时Hadoop的安装路径就是
/home/wenchu/hadoop-0.17.1
。
- 解压后进入conf目录,主要需要修改以下文件:
hadoop-env.sh
,hadoop-site.xml
、masters
、slaves
。
Hadoop的基础配置文件是hadoop-default.xml
,看Hadoop的代码可以知道,默认建立一个Job的时候会建立Job的Config,Config首先读入hadoop-default.xml
的配置,然后再读入hadoop-site.xml
的配置(这个文件初始的时候配置为空),hadoop-site.xml
中主要配置你需要覆盖的hadoop-default.xml
的系统级配置,以及你需要在你的MapReduce过程中使用的自定义配置(具体的一些使用例如final等参考文档)。
以下是一个简单的hadoop-site.xml
的配置:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>//你的namenode的配置,机器名加端口
<value>hdfs://10.2.224.46:54310/</value>
</property>
<property>
<name>mapred.job.tracker</name>//你的JobTracker的配置,机器名加端口
<value>hdfs://10.2.224.46:54311/</value>
</property>
<property>
<name>dfs.replication</name>//数据需要备份的数量,默认是三
<value>1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>//Hadoop的默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令。
<value>/home/wenchu/hadoop/tmp/</value>
</property>
<property>
<name>mapred.child.java.opts</name>//java虚拟机的一些参数可以参照配置
<value>-Xmx512m</value>
</property>
<property>
<name>dfs.block.size</name>//block的大小,单位字节,后面会提到用处,必须是512的倍数,因为采用crc作文件完整性校验,默认配置512是checksum的最小单元。
<value>5120000</value>
<description>The default block size for new files.</description>
</property>
</configuration>
hadoop-env.sh
文件只需要修改一个参数:
# The java implementation to use. Required.
export JAVA_HOME=/usr/ali/jdk1.5.0_10
配置你的Java路径,记住一定要1.5版本以上,免得莫名其妙出现问题。
Masters中配置Masters的IP或者机器名,如果是机器名那么需要在/etc/hosts
中有所设置。Slaves中配置的是Slaves的IP或者机器名,同样如果是机器名需要在/etc/hosts
中有所设置。范例如下,我这里配置的都是IP:
Masters:
10.2.224.46
Slaves:
10.2.226.40
10.2.226.39
10.2.226.38
10.2.226.37
10.2.226.41
10.2.224.36
- 建立Master到每一台Slave的SSH受信证书。由于Master将会通过SSH启动所有Slave的Hadoop,所以需要建立单向或者双向证书保证命令执行时不需要再输入密码。在Master和所有的Slave机器上执行:
ssh-keygen -t rsa
。执行此命令的时候,看到提示只需要回车。然后就会在/root/.ssh/
下面产生id_rsa.pub
的证书文件,通过scp将Master机器上的这个文件拷贝到Slave上(记得修改名称),例如:scp root@masterIP:/root/.ssh/id_rsa.pub /root/.ssh/46_rsa.pub
,然后执行cat /root/.ssh/46_rsa.pub >>/root/.ssh/authorized_keys
,建立authorized_keys
文
件即可,可以打开这个文件看看,也就是rsa的公钥作为key,user@IP作为value。此时可以试验一下,从master
ssh到slave已经不需要密码了。由slave反向建立也是同样。为什么要反向呢?其实如果一直都是Master启动和关闭的话那么没有必要建立反
向,只是如果想在Slave也可以关闭Hadoop就需要建立反向。
- 将Master上的Hadoop通过scp拷贝到每一个Slave相同的目录下,根据每一个Slave的
Java_HOME
的不同修改其hadoop-env.sh
。
- 修改Master上
/etc/profile:
新增以下内容:(具体的内容根据你的安装路径修改,这步只是为了方便使用)
export HADOOP_HOME=/home/wenchu/hadoop-0.17.1
export PATH=$PATH:$HADOOP_HOME/bin
修改完毕后,执行source /etc/profile
来使其生效。
- 在Master上执行
Hadoop namenode –format
,这是第一需要做的初始化,可以看作格式化吧,以后除了在上面我提到过删除了Master上的hadoop.tmp.dir
目录,否则是不需要再次执行的。
- 然后执行Master上的
start-all.sh
,这个命令可以直接执行,因为在6中已经添加到了path路径,这个命令是启动hdfs和mapreduce两部分,当然你也可以分开单独启动hdfs和mapreduce,分别是bin目录下的start-dfs.sh
和start-mapred.sh
。
- 检查Master的logs目录,看看Namenode日志以及JobTracker日志是否正常启动。
- 检查Slave的logs目录看看Datanode日志以及TaskTracker日志是否正常。
- 如果需要关闭,那么就直接执行
stop-all.sh
即可。
以上步骤就可以启动Hadoop的分布式环境,然后在Master的机器进入Master的安装目录,执行hadoop jar hadoop-0.17.1-examples.jar wordcount
输入路径和输出路径,就可以看到字数统计的效果了。此处的输入路径和输出路径都指的是HDFS中的路径,因此你可以首先通过拷贝本地文件系统中的目录到HDFS中的方式来建立HDFS中的输入路径:
hadoop dfs -copyFromLocal /home/wenchu/test-in test-in。
其中/home/wenchu/test-in
是本地路径,test-in
是将会建立在HDFS中的路径,执行完毕以后可以通过hadoop dfs –ls
看到test-in目录已经存在,同时可以通过hadoop dfs –ls test-in
查看里面的内容。输出路径要求是在HDFS中不存在的,当执行完那个demo以后,就可以通过hadoop dfs –ls
输出路径看到其中的内容,具体文件的内容可以通过hadoop dfs –cat
文件名称来查看。
经验总结和注意事项(这部分是我在使用过程中花了一些时间走的弯路):
- Master和Slave上的几个conf配置文件不需要全部同步,如果确定都是通过Master去启动和关闭,那么Slave机器上的配置不需要去维护。但如果希望在任意一台机器都可以启动和关闭Hadoop,那么就需要全部保持一致了。
- Master和Slave机器上的
/etc/hosts
中
必须把集群中机器都配置上去,就算在各个配置文件中使用的是IP。这个吃过不少苦头,原来以为如果配成IP就不需要去配置Host,结果发现在执行
Reduce的时候总是卡住,在拷贝的时候就无法继续下去,不断重试。另外如果集群中如果有两台机器的机器名如果重复也会出现问题。
- 如果在新增了节点或者删除节点的时候出现了问题,首先就去删除Slave的
hadoop.tmp.dir
,然后重新启动试试看,如果还是不行那就干脆把Master的hadoop.tmp.dir
删除(意味着dfs上的数据也会丢失),如果删除了Master的hadoop.tmp.dir
,那么就需要重新namenode –format
。
- Map任务个数以及Reduce任务个数配置。前面分布式文件系统设计提到一个文件被放入到分布式文件系统中,会被分割成多个block放置到每一个的DataNode上,默认
dfs.block.size
应该是64M,也就是说如果你放置到HDFS上的数据小于64,那么将只有一个Block,此时会被放置到某一个DataNode中,这个可以通过使用命令:hadoop dfsadmin –report
就可以看到各个节点存储的情况。也可以直接去某一个DataNode查看目录:hadoop.tmp.dir/dfs/data/current
就
可以看到那些block了。Block的数量将会直接影响到Map的个数。当然可以通过配置来设定Map和Reduce的任务个数。Map的个数通常默认
和HDFS需要处理的blocks相同。也可以通过配置Map的数量或者配置minimum split size来设定,实际的个数为:max(min(block_size,data/#maps),min_split_size)
。Reduce可以通过这个公式计算:0.95*num_nodes*mapred.tasktracker.tasks.maximum
。
总的来说出了问题或者启动的时候最好去看看日志,这样心里有底。
Hadoop中的命令(Command)总结
这部分内容其实可以通过命令的Help以及介绍了解,我主要侧重于介绍一下我用的比较多的几个命令。Hadoop dfs 这个命令后面加参数就是对于HDFS的操作,和Linux操作系统的命令很类似,例如:
-
Hadoop dfs –ls
就是查看/usr/root目录下的内容,默认如果不填路径这就是当前用户路径;
-
Hadoop dfs –rmr xxx
就是删除目录,还有很多命令看看就很容易上手;
-
Hadoop dfsadmin –report
这个命令可以全局的查看DataNode的情况;
-
Hadoop job
后面增加参数是对于当前运行的Job的操作,例如list,kill等;
-
Hadoop balancer
就是前面提到的均衡磁盘负载的命令。
其他就不详细介绍了。
相关阅读:
-
分布式计算开源框架Hadoop介绍――分布式计算开源框架Hadoop入门实践(一)
。
-
Hadoop基本流程与应用开发――分布式计算开源框架Hadoop入门实践(三)
。
作者介绍:
岑文初,就职于阿里软件公司研发中心平台一部,任架构师。当前主要工作涉及阿里软件开发平台服务框架(ASF)设计与实现,服务集成平台(SIP)设计与实现。没有什么擅长或者精通,工作到现在唯一提升的就是学习能力和速度。个人Blog为:http://blog.csdn.net/cenwenchu79
。
参与InfoQ中文站内容建设,请邮件至editors@cn.infoq.com
。也欢迎大家到InfoQ中文站用户讨论组
参与我们的线上讨论。
分享到:
相关推荐
总的来说,《Hadoop集群配置及MapReduce开发手册》是一本全面、深入的实践指南,对于想要学习和掌握Hadoop及其相关技术的开发者来说,具有极高的参考价值。通过深入阅读和实践,读者将能够熟练地部署和管理Hadoop...
本文将深入探讨在标题为“hadoop集群安装、配置、维护文档”的压缩包中涉及的关键知识点,包括如何安装、配置Hadoop集群,以及相关的维护技巧。我们将依次讨论每个文件所涵盖的主题。 1. **hadoop增加节点.txt**: ...
随着Hadoop技术的不断发展,社区中出现了许多工具和框架来简化Hadoop的使用,使得开发者和运维人员可以更加便捷地管理和使用Hadoop集群。例如,EasyHadoop是一个开源项目,它的目标是简化Hadoop的安装和配置过程,...
本文将详细介绍在多节点环境下搭建Hadoop集群的过程,包括硬件准备、软件安装、配置优化等多个方面,旨在帮助读者掌握Hadoop集群的实际部署技巧。 #### 二、Hadoop集群概述 Hadoop集群主要由两个核心组件构成:...
1. "Hadoop实战(虚拟多台电脑).doc" - 这可能是关于如何在虚拟环境中配置和运行多节点Hadoop集群的教程,对于初学者来说非常有用,通过模拟真实环境,学习如何部署和管理分布式系统。 2. "hadoop的namenode和...
通过深入学习这份《Hadoop集群程序设计与开发》的PPT,开发者不仅能了解Hadoop的基本概念,还能掌握实际项目中的应用技巧,从而在大数据时代中发挥出更大的价值。对于希望从事大数据处理和分析的IT专业人士来说,这...
InfoQ 提供的相关资料如"InfoQ Hadoop基本流程与应用开发"、"InfoQ 分布式计算开源框架Hadoop介绍"和"InfoQ Hadoop中的集群配置和使用技巧"将帮助你深入学习这些主题,为你的Hadoop之旅提供坚实的理论基础和实践指导...
5. **Hadoop集群配置**:这部分专门讨论了如何配置Hadoop集群,包括各个节点的设置、网络配置、安全性设定等,这对于搭建和维护高效稳定的大数据处理平台至关重要。 6. **Hive、HBase、Pig**:这些是建立在Hadoop上...
此外,教程还涵盖了"分布式集群"的相关知识,讨论了如何规划、部署和管理Hadoop集群,包括节点配置、网络拓扑、资源调度(例如YARN)以及集群监控和优化。 "云计算"部分则探讨了Hadoop在云环境中的应用,包括如何在...
实验要求参与者对 Hadoop 基本架构有深入理解,并熟悉集群配置、守护进程管理以及故障切换机制。 ### 3. 实验环境 实验环境通常包括多台服务器,配置为 Hadoop 集群的节点,包括 NameNode、DataNode、...
第三版则在第二版的基础上进行了更新,引入了Hadoop的新特性,例如YARN(Yet Another Resource Negotiator),这是一个资源管理器,负责调度和监控Hadoop集群中的计算资源。此外,还涵盖了更广泛的数据处理工具,如...
在IT行业中,大数据处理是一个至关重要的领域,而Hadoop作为开源的大数据处理框架,因其分布式、容错性和可扩展性而备受青睐。...对于IT专业人士而言,掌握Hadoop集群的搭建和管理技巧是提升自身技能的重要一环。
5. **Hadoop集群管理**:讨论监控、维护、故障排查和性能优化技巧,如使用Ambari等工具进行集群管理。 6. **数据输入与输出**:介绍Hadoop的数据加载(如使用Hadoop Streaming、Pig、Hive、Spark等工具)和结果导出...
Hadoop集群安装详解则意味着接下来的内容会详细介绍安装和配置Hadoop集群的步骤和技巧。 Hadoop集群的搭建可以分为以下几个步骤和知识点: 1. 系统要求:搭建Hadoop集群前,需要了解其硬件和软件的基本要求。硬件...
根据给定文件的信息,我们可以总结出以下几个重要的知识点: ...综上所述,通过本次实验,学生不仅能够学会如何在Linux虚拟机中搭建Hadoop集群,还能掌握Hadoop的基本使用技巧,为进一步学习大数据分析打下坚实基础。
通过学习《Hadoop 0.20.1 配置手册》,开发者和管理员可以掌握Hadoop集群的基础配置和高级调优技巧,从而更好地管理和利用大数据资源。同时,理解早期版本的Hadoop也有助于对比分析Hadoop的演进历程,进一步理解当前...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在大规模集群中高效处理和存储海量数据。这个压缩包文件包含的"hadop实用案例"很可能是为了帮助初学者理解和应用Hadoop技术。以下是关于Hadoop的一些...
自动Balancer是Hadoop集群中的一种负载均衡机制,可以根据集群中的数据分布情况,自动地将数据重新分布到不同的节点上,以提高集群的性能和可靠性。 启动Balancer的命令: hadoop balancer 配置Balancer时传输...
【描述】:该压缩包文件包含了一份详细的关于Hadoop集群搭建的教程,总计10页,可能是PDF格式的文档,提供了从基础到进阶的Hadoop集群配置和管理指导。 【标签】:“Hadoop集群搭建共10页.p” - 这个标签可能是个误...