`
amazon10
  • 浏览: 29484 次
  • 性别: Icon_minigender_1
  • 来自: 西安
社区版块
存档分类
最新评论

spark shuffle的部分优化参数说明

阅读更多

以下是Shffule过程中的一些主要参数,这里详细讲解了各个参数的功能、默认值以及基于实践经验给出的调优建议。

spark.shuffle.file.buffer

  1、默认值:32k
  参数说明:该参数用于设置shuffle write task的BufferedOutputStream的buffer缓冲大小。将数据写到磁盘文件之前,会先写入buffer缓冲中,待缓冲写满之后,才会溢写到磁盘。
  调优建议:如果作业可用的内存资源较为充足的话,可以适当增加这个参数的大小(比如64k),从而减少shuffle write过程中溢写磁盘文件的次数,也就可以减少磁盘IO次数,进而提升性能。在实践中发现,合理调节该参数,性能会有1%~5%的提升。

spark.reducer.maxSizeInFlight

  默认值:48m
  参数说明:该参数用于设置shuffle read task的buffer缓冲大小,而这个buffer缓冲决定了每次能够拉取多少数据。
  调优建议:如果作业可用的内存资源较为充足的话,可以适当增加这个参数的大小(比如96m),从而减少拉取数据的次数,也就可以减少网络传输的次数,进而提升性能。在实践中发现,合理调节该参数,性能会有1%~5%的提升。

spark.shuffle.io.maxRetries

  默认值:3
  参数说明:shuffle read task从shuffle write task所在节点拉取属于自己的数据时,如果因为网络异常导致拉取失败,是会自动进行重试的。该参数就代表了可以重试的最大次数。如果在指定次数之内拉取还是没有成功,就可能会导致作业执行失败。
  调优建议:对于那些包含了特别耗时的shuffle操作的作业,建议增加重试最大次数(比如60次),以避免由于JVM的full gc或者网络不稳定等因素导致的数据拉取失败。在实践中发现,对于针对超大数据量(数十亿~上百亿)的shuffle过程,调节该参数可以大幅度提升稳定性。

spark.shuffle.io.retryWait

  默认值:5s
  参数说明:具体解释同上,该参数代表了每次重试拉取数据的等待间隔,默认是5s。
  调优建议:建议加大间隔时长(比如60s),以增加shuffle操作的稳定性。

spark.shuffle.memoryFraction

  默认值:0.2
  参数说明:该参数代表了Executor内存中,分配给shuffle read task进行聚合操作的内存比例,默认是20%。
  调优建议:在资源参数调优中讲解过这个参数。如果内存充足,而且很少使用持久化操作,建议调高这个比例,给shuffle read的聚合操作更多内存,以避免由于内存不足导致聚合过程中频繁读写磁盘。在实践中发现,合理调节该参数可以将性能提升10%左右。

spark.shuffle.manager

  默认值:sort
  参数说明:该参数用于设置ShuffleManager的类型。Spark 1.5以后,有三个可选项:hash、sort和tungsten-sort。HashShuffleManager是Spark 1.2以前的默认选项,但是Spark 1.2以及之后的版本默认都是SortShuffleManager了。tungsten-sort与sort类似,但是使用了tungsten计划中的堆外内存管理机制,内存使用效率更高。
  调优建议:由于SortShuffleManager默认会对数据进行排序,因此如果你的业务逻辑中需要该排序机制的话,则使用默认的SortShuffleManager就可以;而如果你的业务逻辑不需要对数据进行排序,那么建议参考后面的几个参数调优,通过bypass机制或优化的HashShuffleManager来避免排序操作,同时提供较好的磁盘读写性能。这里要注意的是,tungsten-sort要慎用,因为之前发现了一些相应的bug。

spark.shuffle.sort.bypassMergeThreshold

  默认值:200
  参数说明:当ShuffleManager为SortShuffleManager时,如果shuffle read task的数量小于这个阈值(默认是200),则shuffle write过程中不会进行排序操作,而是直接按照未经优化的HashShuffleManager的方式去写数据,但是最后会将每个task产生的所有临时磁盘文件都合并成一个文件,并会创建单独的索引文件。
  调优建议:当你使用SortShuffleManager时,如果的确不需要排序操作,那么建议将这个参数调大一些,大于shuffle read task的数量。那么此时就会自动启用bypass机制,map-side就不会进行排序了,减少了排序的性能开销。但是这种方式下,依然会产生大量的磁盘文件,因此shuffle write性能有待提高。

spark.shuffle.consolidateFiles

  默认值:false
  参数说明:如果使用HashShuffleManager,该参数有效。如果设置为true,那么就会开启consolidate机制,会大幅度合并shuffle write的输出文件,对于shuffle read task数量特别多的情况下,这种方法可以极大地减少磁盘IO开销,提升性能。
  调优建议:如果的确不需要SortShuffleManager的排序机制,那么除了使用bypass机制,还可以尝试将spark.shffle.manager参数手动指定为hash,使用HashShuffleManager,同时开启consolidate机制。在实践中尝试过,发现其性能比开启了bypass机制的SortShuffleManager要高出10%~30%。

 

以上内容摘自过往记忆网站(http://www.iteblog.com),在此对过往记忆网站表示感谢。

分享到:
评论

相关推荐

    Spark Shuffle优化-参数调优1

    Spark Shuffle 优化 - 参数调优 1 Spark 是一个基于内存的分布式计算框架,它的核心是shuffle操作。Shuffle 操作是 Spark 中最耗时的操作之一,而 shuffle 优化是Spark 优化的关键。 本文将对 Spark Shuffle 优化...

    sparkshuffle原理、shuffle操作问题解决和参数调优.doc

    Spark Shuffle 原理、Shuffle 操作问题解决和参数调优 Spark Shuffle 是一种高效的数据处理机制,它可以将数据从 Map 任务输出到 Reduce 任务输入的过程中进行优化。下面将对 Spark Shuffle 的原理、Shuffle 操作...

    源码 spark shuffle service在中通的优化实践.docx

    【Spark Shuffle Service在中通的优化实践】 Spark Shuffle Service是Apache Spark中用于处理Stage间数据交换的关键组件。在中通快递的业务场景中,随着业务量的快速增长,传统的基于Hive+MapReduce的离线计算方式...

    Spark-shuffle机制.pdf

    Shuffle操作涉及到大量的磁盘I/O和网络传输,因此理解和优化Shuffle机制对于提高Spark应用程序的性能至关重要。 #### 二、Spark Shuffle与Hadoop MapReduce Shuffle比较 1. **Hadoop MapReduce Shuffle流程** - ...

    spark shuffle原理

    理解Spark Shuffle的原理对于优化大数据应用的性能至关重要,开发者可以通过调整Shuffle相关的配置参数,如buffer size、shuffle partition数量等,来平衡内存使用、磁盘I/O和网络传输,以达到最佳的处理效果。

    spark性能调优参数总结

    为了更好地管理和优化Shuffle操作,Spark设计了一个可插拔的Shuffle管理器(ShuffleManager),允许开发者通过配置不同的参数来选择不同的ShuffleManager实现。 ShuffleManager主要有两种实现方式:...

    Spark性能优化指南——高级篇

    最后,需要说明的是,尽管本文提供了一些针对数据倾斜和Shuffle调优的方法和建议,但需要注意的是,Spark性能优化并不是一个通用的解决方案,而应该根据具体的场景和业务需求来定制。因此,除了掌握上述高级调优技巧...

    Spark生产优化总结

    Spark 生产优化是企业中 Spark 作业的调优的总结,涉及 Spark 任务的详细解释、调度、资源分配等多方面的内容。本文将从三个方向考虑 Spark 生产优化:磁盘存储、CPU cores 和内存。 磁盘存储优化 在 Spark 生产...

    Spark性能优化指南——基础篇 -.pdf

    - Spark性能优化指南将优化方案分为四个主要部分:开发调优、资源调优、数据倾斜调优和shuffle调优。 3. **开发调优**: - 开发调优关注在Spark作业开发过程中应遵循的一些基本原则。 - 开发调优的关键点包括RDD...

    Spark性能优化,防止数据倾斜

    Spark性能优化防止数据倾斜 Spark性能优化是大数据处理的关键一步,数据倾斜是Spark作业中一个常见的问题。数据倾斜是指在大数据计算中,少数task执行时间远远长于其他task,导致整个Spark作业的性能下降。Spark...

    Spark性能优化:shuffle调优

    但是也必须提醒大家的是,影响一个Spark作业性能的因素,主要还是代码开发、资源参数以及数据倾斜,shuffle调优只能在整个Spark的性能调优中占到一小部分而已。因此大家务必把握住调优的基本原则,千万不要舍本逐末...

    【Spark调优篇03】Spark之Shuffle调优1

    通过上述五个方面的调优,可以有效地优化Spark的Shuffle操作,减少磁盘IO,提高网络传输效率,增强容错性,并根据应用需求平衡内存和CPU资源的使用,从而提升整体作业性能。在实际应用中,应结合具体场景和资源限制...

    spark3.0优化总结

    3. 数据分块的优化:设置 spark.sql.files.maxPartitionBytes(最大的分区字节数)参数增大,减少分区数。 4. 设置 spark.files.openCostInBytes(打开一个文件的开销)参数接近小文件的大小。 资源配置的优化 ...

    spark 优化

    #### 四、Shuffle优化 Shuffle操作是Spark中最耗时的操作之一,优化方法包括: - **减少Shuffle操作**:尽可能减少Shuffle操作的数量。 - **合理设置Partitioner**:根据数据分布特性选择合适的Partitioner。 - **...

    Spark性能优化研究.pptx

    - **配置参数调整**:通过调整Spark的各种配置参数来优化性能。 - **集群资源分配**:合理分配集群资源,以提高整体利用率和处理效率。 - **内存管理**:优化内存使用,减少GC(Garbage Collection)开销,提高...

    Spark大数据处理 技术 应用与性能优化 完整版 pdf

    6. Shuffle优化:减少shuffle操作,使用broadcast join替代shuffle join,优化shuffle写入和读取。 7. 调优工具:使用Spark UI和Spark History Server监控作业运行情况,分析瓶颈并进行优化。 8. 参数调优:根据...

    Spark性能优化指南—高级篇

    3. **调整并行度**:合理设置`spark.sql.shuffle.partitions`参数,以适应数据集的大小。 4. **优化Shuffle操作**:尽量避免使用`groupByKey`,改用`reduceByKey`或`aggregateByKey`等操作来减少Shuffle的开销。 ##...

    Spark性能优化指南.pdf

    - **调整Shuffle参数**:合理设置与Shuffle相关的配置参数(如`spark.shuffle.partitions`),以优化数据传输效率。 - **优化数据序列化**:使用高效的序列化库(如Kryo)可以显著减少数据在网络传输中的开销。 综...

    spark配置默认值及其解释说明

    以上只是一部分重要的Spark配置,实际中还有许多其他参数可以调整,例如配置序列化方式、容错机制、GC策略等。在使用Spark时,了解这些默认值和它们的作用对于优化应用程序至关重要。通过阅读“spark配置详解_format...

Global site tag (gtag.js) - Google Analytics