`

Hadoop/MapReduce 优化方案

阅读更多

从三个方面着手优化 :

1. hadoop配置

2. 设计mapred/job

3. 代码级别.

4. 改造hadoop

 

一. conf/hadoop-site.xml配置.

经验要求高, 特别需要结合实际情况.

典型参数如

复制因子,

mapred.child.java.opts,

mapred.tasktracker.map.tasks.maximum,

mapred.tasktracker.reduce.tasks.maximum,

mapred.map.tasks,

mapred.reduce.tasks,

fs.inmemory.size.mb,

dfs.block.size

等等

 

二. 在同一个job内完成尽可能多的计算任务, 主要是设计key和自定义OutputFormat, 将能合并的计算任务合并.

举例 : 用户访问行为(userid, ip, cookie), 分别统计每个用户的ip数和cookie数.

最简单的设计, 是使用量个job, 分别计算ip数和cookie数.但是我们可以按照下面的思路, 在一个job中完成这两项计算 :

(a). 把userid和字段存储到key中

public class UserKey implements WritableComparable<UserKey>{

 

    int userId;//userid

    byte field;//0 代表ip, 1代表cookie

    @Override

    public int compareTo(UserKey o) {

 

        if(userId > o.userId)return 1;

        if(userId < o.userId)return -1;

        if(field > o.field)return 1;

        if(field < o.field)return -1;

        return 0;

 

    }

    @Override

    public void readFields(DataInput in) throws IOException {

    // TODO Auto-generated method stub

    }

    @Override

    public void write(DataOutput out) throws IOException {

    // TODO Auto-generated method stub

    }

 

}

(b). 实现自定义的OutputFormat, 下面是两处关键代码如下 :

(x).

SequenceFile.Writer[] writers = new SequenceFile.Writer[2];

writers[0] = SequenceFile.createWriter(FileSystem.get(conf), conf, "ip", IntWritable.class, IntWritable.class, CompressionType.BLOCK, new DefaultCodec());

writers[1] = SequenceFile.createWriter(FileSystem.get(conf), conf, "field", IntWritable.class, IntWritable.class, CompressionType.BLOCK, new DefaultCodec());

(xx).

writers[key.field].append(key.userId, value.get());

 

三. 避免不必要的reduce任务.

(1). 假定要处理的数据是排序且已经分区的. 或者对于一份数据, 需要多次处理, 可以先排序分区.

(2). 自定义InputSplit, 将单个分区作为单个mapred的输入.

(3). 在map中处理数据, Reducer设置为空.

这样, 既重用了已有的 "排序", 也避免了多余的reduce任务.

 

四. 使用自定义的MapRunnable.

hadoop自带了两个MapRunnable,

(1). 一个是默认的单线程MapRunnable, org.apache.hadoop.mapred.MapRunner

(2).另一个是多线程的, org.apache.hadoop.mapred.lib.MultithreadedMapRunner.

根据特定情况, 可以自定义MapRunnable,

(1). 启用多线程, 比如web爬行时, 可启用多线程抓取网页.

(2). 避免map时, 单台tasktracker上辅助数据冗余, 比如在多模匹配时, 避免生成多份DFA.

 

五. 在某些情况下, 利用数据分布特性设计PARTITIONER的分区算法, 避免单个mapred消耗时间过长.

这跟木桶原理有些神似.

比如处理大量字符串时,

(1). 已知首字不同的字符串之间不存在任何关联关系

(2). 原始数据在某些 "首字" 上分布密集, 另一些 "首字" 上分布稀疏.

例如, 原始数据中, 1亿个以3开头, 1亿个以7开头, 3个以6开头.

那么,

(1). 如果以首字对4求余分区, 则 "1亿个以3开头" 和 "1亿个以7开头"将落在同一分区.若hadoop群集只支持同时2个map任务, 则...

(2). 如果以首字对3求余分区, 则 "1亿个以3开头" 和 "1亿个以7开头"将落在不同分区.

 

六. 最大限度地重用对象, 避免对象的生成/销毁开销.

该点在hadoop自带的 org.apache.hadoop.mapred.MapRunner中尤为突出,

它使用同一个key对象和同一个value对象不停读取原始数据, 再将自身交给mapper处理.

(此处注意, 若要保留该对象的即时状态, 需要clone, 深克隆或浅克隆.)

 

七. 在逻辑意义上, 合并同一对象. 如dotnet和java中的字符串INTERN技术.

 

八. 根据已有条件, 简化循环判定.

比如, for(int i = 0; i < end && i < size; i++);

可以改成 :

end = end < size ? end : size;

for(int i = 0; i < end; i++);

 

九. 降低多线程数目, 而让固定数目的线程循环处理.

比如, 一台机器8个CPU, 现在需要处理80亿个数据,

那么下面两个方案 :

(1). 启动800个线程, 每个线程处理80亿/800个数据.

(2). 启动8个线程(注意, 此处是8个), 每个线程循环处理, 每次循环处理100万个.

通常我个人选择方案(2).因为 :

(1). 最大限度利用了CPU.

(2). 避免了线程调度.

(3). 在java中, 可以使用AtomicInteger控制线程循环, AtomicInteger的效率很高.

(4). 有时, 还可以避免单个线程消耗时间过长.

 

十. 使用位移替代浮点数计算. 比如用 100 >> 3替代100 * 0.125.

(另外, 我们会需要将某个中间值乘以一个调节因子(经验值), 比如乘以0.12,

如果乘以0.12和0.124 "差不多" 时, 可以考虑直接使用位移).

 

十一. 避免循环体内不必要的判断逻辑, 与第八条不同.

比如, 处理10亿个数据, 每遇到一个有效数据时, 需要同前一个有效数据进行关联处理(或与前一个中间值进行关联处理),

for(int i = 0; i < size; i++)

{

//1. 判定是否存在前一个有效数据

//2. 如果不存在前一个有效数据, 则continue;

//3. 如果存在前一个有效数据, 则进行关联处理, 再continue.

}

通常在此种需求下, 一旦遇到一个有效数据, 必定会产生一个可供后续紧邻数据关联的值,

那么 :

int i = 0;

for(int i = 0; i < size; i++)

{

//1. data[i]是否有效?

//2. data[i]无效, continue;

//3. data[i]有效, break;

}

for(; i < size; i++)

{

//与前一个有效数据进行关联处理, 再continue.

}

 

十二. 方法调用过程, 辅助数据尽量放在方法体内, 避免使用全局辅助数据, 一来节省内存, 二来提高对象可重用性.

 

十三. 尽量不要生成转瞬即逝的对象, 或者专门构建专属对像来完成这一任务.

比如 :

1). 提供直接使用构造函数参数进行序列化的静态方法, 避免先使用参数构造对象再进行序列化.

2). 参考上述第六点.

 

十四. 利用-1 和 1的关联性, 减少内存使用量, 或携带更多的信息.

比如java.util.Arrays.binarySearch方法的返回值.

 

十五. 对于方方正正的多位数组Arr[d0][d1][d2]..[dn], 且di >> d(i+1)时, 可以考虑使用一维数组替代, 减少对象.

这是因为java中多位数组实际上使用 "数组的数组" 实现的.

 

十六. 尽量使key的WritableComparable性能最佳, 尽量使value的Writable性能最佳.

比如使用掩码操作.

 

十七. 尽早丢弃无关对象.

见 "使用hadoop/mapred的典型计数问题".

 

十八. 改造hadoop, 使merge过程更具弹性, 或更符合实际需求.

比如 :

1). 使reduce的<key, values>中的values按照顺序迭代.

2). 见 "使用hadoop/mapred的典型计数问题".

 

十九. 有效设计mapred中的combiner, 尽早降低I/O等操作.

此过程中, 可以结合自定义OutputFormat, 使得同一个Recuder类可同时充当map->merge->reduce中的后两个过程.

见 "使用hadoop/mapred的典型计数问题".

分享到:
评论

相关推荐

    数据算法Hadoop/Spark大数据处理技巧 源代码

    在大数据处理领域,Hadoop和Spark是两个至关重要的框架,它们为海量数据的存储、管理和分析提供了高效且可扩展的解决方案。本资源包含了基于这两个框架的数据算法和源代码,可以帮助我们深入理解并实践大数据处理...

    云计算-基于Hadoop的MapReduce计算模型优化与应用研究.pdf

    《云计算-基于Hadoop的...总结来说,这篇论文深入研究了Hadoop的MapReduce模型,并提出了一种优化策略,以提高云计算环境下的数据处理效率,同时也为企业特别是中小企业提供了一种更经济、高效的云计算解决方案。

    Hadoop-MapReduce下的PageRank矩阵分块算法

    ### Hadoop-MapReduce下的PageRank矩阵分块算法解析 #### 概述 PageRank算法作为Web结构挖掘领域的经典算法,在Google搜索引擎中的成功应用已经充分证明了其在评估网页重要性方面的价值。然而,传统的PageRank算法...

    hadoop的mapreduce把oracle/mysq导入到hbase和hdfs中的程序

    标题中的“hadoop的mapreduce把oracle/mysq导入到hbase和hdfs中的程序”指的是一项数据处理任务,利用Hadoop的MapReduce框架,将关系型数据库(如Oracle和MySQL)中的数据高效地迁移至分布式存储系统HDFS(Hadoop ...

    基于Apriori算法的频繁项集Hadoop mapreduce

    然而,需要注意的是,由于MapReduce的通信开销,对于某些特定数据结构和算法,可能有更优化的分布式解决方案,如Spark的FP-Growth等。 总结起来,"基于Apriori算法的频繁项集Hadoop mapreduce"是一个利用大数据处理...

    hadoop的优化.docx

    本文将总结 Hadoop 的优化技术,涵盖 MapReduce、Hive、Linux 层面的优化技术。 一、Hardware 配置优化 在 Hadoop 集群中,硬件配置的选择对于性能的影响非常大。CPU 和内存是最重要的两方面。当前进程如果是做...

    Hadoop平台性能优化

    Hadoop平台的性能优化研究涉及了如何在大型分布式系统中提升任务处理速度和效率,这对于当前数据密集型应用的发展至关重要。本文将从以下几个关键点详细解读Hadoop平台性能优化的知识点。 首先,了解Hadoop平台的...

    大数据课程设计-Hadoop-MapReduce实现sql的统计、groupby和join-全部源码

    在大数据处理领域,Hadoop是不可或缺的核心框架,它为海量数据的存储和计算提供了高效、可靠的解决方案。MapReduce是Hadoop中的并行计算模型,它将复杂的数据处理任务分解为两个阶段:Map和Reduce,使得分布式计算变...

    完整版大数据云计算课程 Hadoop数据分析平台系列课程 Hadoop 04 MapReduce 共31页.pptx

    描述中提到了多个相关的知识点,包括Hadoop的安装、配置和管理,数据的集成方案制定,以及MapReduce、HDFS、Pig、Hbase和Hive的使用。 1. **Hadoop安装与管理**:学习者应能独立完成Hadoop的安装,熟悉其配置,并...

    Hadoop mapreduce 实现KMeans

    在大数据处理领域,Hadoop MapReduce 是一种广泛使用的分布式计算框架,它允许高效地处理海量数据。...如果你正在处理大量数据并需要寻找数据的内在结构,Hadoop MapReduce 结合 KMeans 算法是一个值得考虑的解决方案。

    hadoop中文实战

    这些工具与Hadoop结合,提供了更高效、灵活的数据处理方案。例如,HBase提供实时的随机读写能力,适合处理大规模结构化数据;Hive则允许用户使用SQL查询Hadoop中的数据,简化了数据分析工作;Pig提供了一种高级语言...

    数据算法 Hadoop Spark大数据处理技巧

    《数据算法:Hadoop/Spark大数据处理技巧》介绍了很多基本设计模式、优化技术和数据挖掘及机器学习解决方案,以解决生物信息学、基因组学、统计和社交网络分析等领域的很多问题。这还概要介绍了MapReduce、Hadoop和...

    Hadoop MapReduce教程.pdf

    - **成本效益**:相比传统的专用数据仓库和分析服务器,Hadoop提供了更为经济高效的解决方案。 - **数据处理能力**:Hadoop能够处理结构化、半结构化和非结构化数据,适应各种数据类型和来源。 #### 实战应用案例 ...

    Hadoop mapreduce 实现MR_DesicionTreeBuilder 决策树

    总之,MR_DesicionTreeBuilder 是一个利用 Hadoop MapReduce 平台构建分布式决策树的解决方案,它在处理海量数据时具有优势,但也需要解决并行化和效率问题。理解和掌握这一技术对于大数据环境下的机器学习应用至关...

    Hadoop技术内幕 深入理解MapReduce架构设计与实现原理 高清完整中文版PDF下载

    3. **成本效益**:相比传统的数据处理解决方案,Hadoop MapReduce具有更高的成本效益,尤其是在处理PB级别的数据集时。 #### 五、结论 《Hadoop技术内幕:深入解析MapReduce架构设计与实现原理》这本书深入探讨了...

    深入探究Hadoop生态圈及其应用技术

    此外,本文还包括有关Hadoop / Yarn / MapReduce等内存配置的具体方案及Hue- Oozie Editor常见问题解决方案的探讨。 适合人群:有一定Hadoop使用经验或者想深入理解整个生态系统的研究人员和技术开发者。 使用场景及...

    03_Hadoop MapReduce与Hadoop YARN.zip

    总的来说,Hadoop MapReduce提供了强大的分布式计算能力,而YARN则优化了资源管理和调度,两者共同为大数据处理提供了高效、可扩展的解决方案。理解这两者的运作机制对于深入掌握Hadoop生态系统至关重要,也是开发和...

    Hadoop MapReduce Cookbook

    作者们在书中强调,Hadoop MapReduce不只是一个编程模型,更是一个能够应对大数据挑战的综合解决方案。读者通过本书可以学习如何将复杂的业务逻辑转换为MapReduce作业,如何优化Hadoop集群的性能,以及如何通过...

Global site tag (gtag.js) - Google Analytics