一、背景
HADOOP的配置优化,涉及到多方面,本部分主要针对HADOOP集群的配置优化进行汇总,以供参考。
二、配置
1、hdfs-site.xml配置文件
1)、dfs.block.size:块大小的设置,也就是说文件按照多大的size 来切分块。
一般来说,块的大小也决定了你map 的数量。举个例子:我现在有一个1T 的文件,如果我的块size 设置是默认的64M,那么在HDFS 上产生的块将有1024000/64=16000 块。
如果我们以TextInputFormat 来处理该1T 的文件,那么将会产生16000 个map 来处理。这样的多的map 明显是不合理的。所以,如果我们将block 的size 设置成512M,那么,将1T 的文件作为输入文件,将产生2000 个map,计算的时候效率将提升不少。
因此,block size 的大小是需要根据输入文件的大小以及计算时产生的map 来综合考量的。一般来说,文件大,集群数量少,还是建议将block size 设置大一些的好。
2)、dfs.replication:存放数据文件的份数。
设置为1,就是在集群中存一份。如果设置为2,即做一份备份,也就是说数据在集群中有2
份。还是以1T 的数据为例,如果设置1,集群中就存在1T 的文件,如果设置为2,那么集群占用空间为2T。
当然,这个备份还有个基于机架感知的备份机制(本地存放、同机架存放、异机架存放)如果
不配置机架,默认都在一个机架上,之所以做机架感知的备份就是为了做到异地容灾。因为我现在的集群都在一个机房,就是做了机架配置,也不能做异地容灾。要是机房断电,谁也不能容灾谁。
但是如果你的集群分别存放在2 个机房,还是可以考虑做机架配置,然后将备份数量设置为3。
备份数量有利有弊,备份数量多,节点挂个几个没影响,数据依然完整。但是你的冗余数据会
增加。如果只设置为1,那就是节点一旦有挂掉的,就是block miss。
一般来说,测试情况下建议设置为1,如果实际使用,所有机器都在一个机房,建议配置为2,如果集群分布在不同机房,还是试试配置为3 吧。
2、mapred-site.xml配置文件
1)、mapred.tasktracker.map.tasks.maximum和mapred.tasktracker.reduce.tasks.maximum:
这个2 个参数分别是用来设置的map 和reduce 的并发数量。实际作用就是控制同时运行的task的数量。这2 个参数实际上在配置的时候是需要结合计算节点的硬件配置以及任务调度模式来配置的。
举个例子吧。我现在有5 台机器,1 台master,4 台slave,配置都是2 个4 核CPU,8G 内存,1T 硬盘。我配置任务调度模式是默认的FIFO 模式。在这样的模式下,我配置并发map 为6,并发的reduce 为2。其实这样配置不难看出,map 和reduce 的并发数就等于CPU 的总核数。
网上有牛人建议:
如果使用fair 的调度模式,设置成相同,应该是可以的,但是如果是FIFO 模式,建议在map或是reduce 阶段,CPU 的核数没有得到充分的利用,有些可惜,所以,FIFO 模式下,还是尽量配置的map 并发数量多于redcue 并发数量。因此,我说这个参数的配置不仅仅要考虑硬件配置,还需要考虑到Job 的调度模式。需要说明的是,这个配置参数不同的节点可以配置不同。适用于硬件异构的集群。
2)、mapred.child.java.opts
这个参数是配置每个map 或reduce 使用的内存数量。默认的是200M。对于这个参数,我个人认为,如果内存是8G,CPU 有8 个核,那么就设置成1G 就可以了。实际上,在map 和reduce 的过程中对内存的消耗并不大,但是如果配置的太小,则有可能出现”无可分配内存”的错误。所以,Hadoop 开发者第四期Hadoop 集群的配置调优对于这个配置我总结了一个简单的公式:map/reduce 的并发数量(总和不大于CPU 核数)×
mapred.child.java.opts < 该节点机器的总内存。当然也可以等于,不过有点风险而已。
3)、mapred.reduce.tasks
设置reduce 的数量。一般来说在job 里面都会通过conf 来设置reduce 的数量,不采用这个参数。至于reduce 的数量,可以根据自己的reduce 业务逻辑复杂度以及输出的数据量来调整。
3、core-sit.xml配置文件
1)webinterface.private.actions
这个参数实际上就是为了方便测试用。允许在web 页面上对任务设置优先级以及kill 任务。需要注意的是,kill 任务是个缓慢的过程,它需要杀掉所有的任务task 然后才是任务结束。如果task数量多,可能有点慢,需要一些耐心等待。
三、配置信息加载顺序
需要说明一下,配置文件的加载顺序是:先加载默认的配置项(看看default 文件就知道默认配置项了),然后加载site 文件里的配置项,最后加载MR 代码里的配置项。所以,个性化的配置还是放在MR 代码中通过config.set 方法来设置比较合适。
分享到:
相关推荐
Datanode的热插拔是指在Hadoop集群中动态添加或删除Datanode节点的过程。这种操作可以提高Hadoop集群的可扩展性和灵活性。 添加Datanode的步骤: 1. 在新机器上安装好Hadoop,并配置好和NameNode的SSH连接。 2. 把...
【Hadoop配置项调优详解】 Hadoop作为一个分布式计算框架,其性能往往受到配置参数的影响。通过对Hadoop的配置项...通过深入理解这些配置项的作用和相互关系,可以有效地优化Hadoop集群的性能,提高数据处理的效率。
【标题】:“五分钟学大数据-Hadoop企业级调优手册1” ...综上所述,Hadoop企业级调优涵盖了从基础参数配置到集群性能测试、扩展与维护的全方位流程,旨在最大化HDFS的性能和稳定性,为企业的大数据应用提供有力支撑。
配置Hadoop集群主要包括以下几个步骤: 1. 安装Java环境:Hadoop依赖Java运行,确保所有节点上都安装了JDK,并且`JAVA_HOME`环境变量已设置。 2. 下载并解压Hadoop:获取Hadoop2.8.4的二进制包,并在所有节点上解压...
大数据技术之Hadoop(生产调优手册)V3.3为管理员提供了全面的指导,以确保他们的Hadoop集群达到最佳性能。从核心参数的配置,到内存的分配,再到心跳并发数的调整,手册详细解释了每个环节的优化策略。通过精确的...
【Hadoop性能调优】涉及多个层面,包括硬件选择、配置参数调整、数据分布策略等。选择适合Hadoop的硬件配置至关重要,一般考虑硬盘I/O性能、内存大小和CPU计算能力。在配置优化方面,调整如Block Size、Replication ...
本手册将详细介绍如何在5台虚拟机上手动安装和配置Hadoop集群,供初学者和专业人士参考。 ### 安装前准备 在开始安装前,确保所有服务器已安装最新操作系统,推荐使用Ubuntu或CentOS。检查硬件资源,至少需要分配...
### Hadoop集群安装与配置详解 #### 一、引言 随着互联网技术的快速发展和企业数据量的激增,高效处理大规模数据的需求日益迫切。Hadoop作为一种开源的大数据处理框架,因其优秀的分布式处理能力和可扩展性,成为...
最后,"slave"文件在Hadoop集群配置中扮演着重要角色。这个文件列出了集群中所有的DataNode和TaskTracker节点,它们是执行实际数据存储和计算任务的节点。DataNodes负责存储HDFS的数据块,而TaskTrackers接收来自...
总结,Hadoop集群的高可用性和性能优化是一个持续的过程,需要综合考虑硬件配置、软件参数调整、任务调度策略等多个方面。理解并熟练应用上述知识点,有助于构建出一个强大、可靠的Hadoop大数据处理平台。
### Hadoop集群配置详解 #### 一、引言 随着大数据时代的到来,处理海量数据的需求日益增长。Hadoop作为一种开源的大数据处理框架,被广泛应用于数据存储与处理领域。为了更好地利用Hadoop的强大功能,搭建一个...
7. **Hadoop集群部署与管理**:包括配置Hadoop环境、安装集群、数据分布策略、故障检测与恢复、性能调优等内容。 8. **案例分析**:通过实际案例展示Hadoop在日志分析、推荐系统、机器学习等领域的应用,加深对...
Hadoop作业调优是提升大数据处理效率的关键环节,通过对Hadoop MapReduce框架中的参数进行精细调整,可以显著改善作业的性能。...然而,调优是一个动态过程,需要不断监控和测试,以找到最佳配置。
### Hadoop集群搭建总结 #### 一、Hadoop概述与应用场景 Hadoop是一个由Apache基金会维护的开源分布式计算框架,其主要目标是处理大规模数据集的存储与计算问题。通过Hadoop,用户能够轻松地在分布式环境中开发和...