`
frank1998819
  • 浏览: 758018 次
  • 性别: Icon_minigender_1
  • 来自: 南京
文章分类
社区版块
存档分类

浅谈Spark应用程序的性能调优(转)

 
阅读更多

Spark是基于内存的分布式计算引擎,以处理的高效和稳定著称。然而在实际的应用开发过程中,开发者还是会遇到种种问题,其中一大类就是和性能相关。在本文中,笔者将结合自身实践,谈谈如何尽可能地提高应用程序性能。

分布式计算引擎在调优方面有四个主要关注方向,分别是CPU、内存、网络开销和I/O,其具体调优目标如下:
1.提高CPU利用率。
2.避免OOM。
3.降低网络开销。
4.减少I/O操作。
第1章 数据倾斜
数据倾斜意味着某一个或某几个Partition中的数据量特别的大,这意味着完成针对这几个Partition的计算需要耗费相当长的时间。

如果大量数据集中到某一个Partition,那么这个Partition在计算的时候就会成为瓶颈。图1是Spark应用程序执行并发的示意 图,在Spark中,同一个应用程序的不同Stage是串行执行的,而同一Stage中的不同Task可以并发执行,Task数目由Partition数 来决定,如果某一个Partition的数据量特别大,则相应的task完成时间会特别长,由此导致接下来的Stage无法开始,整个Job完成的时间就 会非常长。

要避免数据倾斜的出现,一种方法就是选择合适的key,或者是自己定义相关的partitioner。在Spark中Block使用了 ByteBuffer来存储数据,而ByteBuffer能够存储的最大数据量不超过2GB。如果某一个key有大量的数据,那么在调用cache或 persist函数时就会碰到spark-1476这个异常。

下面列出的这些API会导致Shuffle操作,是数据倾斜可能发生的关键点所在
1. groupByKey
2. reduceByKey
3. aggregateByKey
4. sortByKey
5. join
6. cogroup
7. cartesian
8. coalesce
9. repartition
10. repartitionAndSortWithinPartitions


 

图1: Spark任务并发模型

 

Java代码
  1.  def rdd: RDD[T]  
  2. }  
  3.   
  4. // TODO View bounds are deprecated, should use context bounds  
  5. // Might need to change ClassManifest for ClassTag in spark 1.0.0  
  6. case class DemoPairRDD[K <% Ordered[K] : ClassManifest, V: ClassManifest](  
  7.   rdd: RDD[(K, V)]) extends RDDWrapper[(K, V)] {  
  8.   // Here we use a single Long to try to ensure the sort is balanced,   
  9.   // but for really large dataset, we may want to consider  
  10.   // using a tuple of many Longs or even a GUID  
  11.   def sortByKeyGrouped(numPartitions: Int): RDD[(K, V)] =  
  12.     rdd.map(kv => ((kv._1, Random.nextLong()), kv._2)).sortByKey()  
  13.     .grouped(numPartitions).map(t => (t._1._1, t._2))  
  14. }  
  15.   
  16. case class DemoRDD[T: ClassManifest](rdd: RDD[T]) extends RDDWrapper[T] {  
  17.   def grouped(size: Int): RDD[T] = {  
  18.     // TODO Version where withIndex is cached  
  19.     val withIndex = rdd.mapPartitions(_.zipWithIndex)  
  20.   
  21.     val startValues =  
  22.       withIndex.mapPartitionsWithIndex((i, iter) =>   
  23.         Iterator((i, iter.toIterable.last))).toArray().toList  
  24.       .sortBy(_._1).map(_._2._2.toLong).scan(-1L)(_ + _).map(_ + 1L)  
  25.   
  26.     withIndex.mapPartitionsWithIndex((i, iter) => iter.map {  
  27.       case (value, index) => (startValues(i) + index.toLong, value)  
  28.     })  
  29.     .partitionBy(new Partitioner {  
  30.       def numPartitions: Int = size  
  31.       def getPartition(key: Any): Int =   
  32.         (key.asInstanceOf[Long] * numPartitions.toLong / startValues.last).toInt  
  33.     })  
  34.     .map(_._2)  
  35.   }  
  36. }  


定义隐式的转换

Java代码
  1. implicit def toDemoRDD[T: ClassManifest](rdd: RDD[T]): DemoRDD[T] =   
  2.     new DemoRDD[T](rdd)  
  3.   implicit def toDemoPairRDD[K <% Ordered[K] : ClassManifest, V: ClassManifest](  
  4.     rdd: RDD[(K, V)]): DemoPairRDD[K, V] = DemoPairRDD(rdd)  
  5.   implicit def toRDD[T](rdd: RDDWrapper[T]): RDD[T] = rdd.rdd  
  6. }  


在spark-shell中就可以使用了

Java代码
  1. import RDDConversions._  
  2. yourRdd.grouped(5)  


第2章 减少网络通信开销
Spark的Shuffle过程非常消耗资源,Shuffle过程意味着在相应的计算节点,要先将计算结果存储到磁盘,后续的Stage需要将上 一个Stage的结果再次读入。数据的写入和读取意味着Disk I/O操作,与内存操作相比,Disk I/O操作是非常低效的。

使用iostat来查看disk i/o的使用情况,disk i/o操作频繁一般会伴随着cpu load很高。

如果数据和计算节点都在同一台机器上,那么可以避免网络开销,否则还要加上相应的网络开销。 使用iftop来查看网络带宽使用情况,看哪几个节点之间有大量的网络传输。
图2是Spark节点间数据传输的示意图,Spark Task的计算函数是通过Akka通道由Driver发送到Executor上,而Shuffle的数据则是通过Netty网络接口来实现。由于Akka 通道中参数spark.akka.framesize决定了能够传输消息的最大值,所以应该避免在Spark Task中引入超大的局部变量。


 

图2: Spark节点间的数据传输


第1节 选择合适的并发数
为了提高Spark应用程序的效率,尽可能的提升CPU的利用率。并发数应该是可用CPU物理核数的两倍。在这里,并发数过低,CPU得不到充分的利用,并发数过大,由于spark是每一个task都要分发到计算结点,所以任务启动的开销会上升。

并发数的修改,通过配置参数来改变spark.default.parallelism,如果是sql的话,可能通过修改spark.sql.shuffle.partitions来修改。

第1项 Repartition vs. Coalesce

repartition和coalesce都能实现数据分区的动态调整,但需要注意的是repartition会导致shuffle操作,而coalesce不会。

第2节 reduceByKey vs. groupBy

groupBy操作应该尽可能的避免,第一是有可能造成大量的网络开销,第二是可能导致OOM。以WordCount为例来演示reduceByKey和groupBy的差异。

Java代码
  1. reduceByKey  
  2.     sc.textFile(“README.md”).map(l=>l.split(“,”)).map(w=>(w,1)).reduceByKey(_ + _)  

 


 

图3:reduceByKey的Shuffle过程


Shuffle过程如图2所示

Java代码
  1. groupByKey  
  2.     sc.textFile(“README.md”).map(l=>l.split(“,”)).map(w=>(w,1)).groupByKey.map(r=>(r._1,r._2.sum))  

 


 

图4:groupByKey的Shuffle过程



建议: 尽可能使用reduceByKey, aggregateByKey, foldByKey和combineByKey
假设有一RDD如下所示,求每个key的均值

Java代码
  1. val data = sc.parallelize( List((02.), (04.), (10.), (110.), (120.)) )  


方法一:reduceByKey

Java代码
  1. data.map(r=>(r._1, (r.2,1))).reduceByKey((a,b)=>(a._1 + b._1, a._2 + b._2)).map(r=>(r._1,(r._2._1/r._2._2)).foreach(println)  


方法二:combineByKey

Java代码
  1. data.combineByKey(value=>(value,1),  
  2.     (x:(Double, Int), value:Double)=> (x._1+value, x._2 + 1),  
  3.     (x:(Double,Int), y:(Double, Int))=>(x._1 + y._1, x._2 + y._2))  


第3节 BroadcastHashJoin vs. ShuffleHashJoin

在Join过程中,经常会遇到大表和小表的join. 为了提高效率可以使用BroadcastHashJoin, 预先将小表的内容广播到各个Executor, 这样将避免针对小表的Shuffle过程,从而极大的提高运行效率。

其实BroadCastHashJoin核心就是利用了BroadCast函数,如果理解清楚broadcast的优点,就能比较好的明白BroadcastHashJoin的优势所在。

以下是一个简单使用broadcast的示例程序。

Java代码
  1. val lst = 1 to 100 toList  
  2. val exampleRDD = sc.makeRDD(1 to 20 toSeq, 2)  
  3. val broadcastLst = sc.broadcast(lst)  
  4. exampleRDD.filter(i=>broadcastLst.valuecontains(i)).collect.foreach(println)  


第4节 map vs. mapPartitions

有时需要将计算结果存储到外部数据库,势必会建立到外部数据库的连接。应该尽可能的让更多的元素共享同一个数据连接而不是每一个元素的处理时都去建立数据库连接。
在这种情况下,mapPartitions和foreachPartitons将比map操作高效的多。

第5节 数据就地读取

移动计算的开销远远低于移动数据的开销。

Spark中每个Task都需要相应的输入数据,因此输入数据的位置对于Task的性能变得很重要。按照数据获取的速度来区分,由快到慢分别是:

1.PROCESS_LOCAL
2.NODE_LOCAL
3.RACK_LOCAL

Spark在Task执行的时候会尽优先考虑最快的数据获取方式,如果想尽可能的在更多的机器上启动Task,那么可以通过调低spark.locality.wait的值来实现, 默认值是3s。

除了HDFS,Spark能够支持的数据源越来越多,如Cassandra, HBase,MongoDB等知名的NoSQL数据库,随着Elasticsearch的日渐兴起,spark和elasticsearch组合起来提供 高速的查询解决方案也成为一种有益的尝试。

上述提到的外部数据源面临的一个相同问题就是如何让spark快速读取其中的数据, 尽可能的将计算结点和数据结点部署在一起是达到该目标的基本方法,比如在部署Hadoop集群的时候,可以将HDFS的DataNode和Spark Worker共享一台机器。

以cassandra为例,如果Spark的部署和Cassandra的机器有部分重叠,那么在读取Cassandra中数据的时候,通过调低spark.locality.wait就可以在没有部署Cassandra的机器上启动Spark Task。

对于Cassandra, 可以在部署Cassandra的机器上部署Spark Worker,需要注意的是Cassandra的compaction操作会极大的消耗CPU,因此在为Spark Worker配置CPU核数时,需要将这些因素综合在一起进行考虑。

这一部分的代码逻辑可以参考源码TaskSetManager::addPendingTask

Java代码
  1. private def addPendingTask(index: Int, readding: Boolean = false) {  
  2.   // Utility method that adds `index` to a list only if readding=false or it's not already there  
  3.   def addTo(list: ArrayBuffer[Int]) {  
  4.     if (!readding || !list.contains(index)) {  
  5.       list += index  
  6.     }  
  7.   }  
  8.   
  9.   for (loc <- tasks(index).preferredLocations) {  
  10.     loc match {  
  11.       case e: ExecutorCacheTaskLocation =>  
  12.         addTo(pendingTasksForExecutor.getOrElseUpdate(e.executorId, new ArrayBuffer))  
  13.       case e: HDFSCacheTaskLocation => {  
  14.         val exe = sched.getExecutorsAliveOnHost(loc.host)  
  15.         exe match {  
  16.           case Some(set) => {  
  17.             for (e <- set) {  
  18.               addTo(pendingTasksForExecutor.getOrElseUpdate(e, new ArrayBuffer))  
  19.             }  
  20.             logInfo(s"Pending task $index has a cached location at ${e.host} " +  
  21.               ", where there are executors " + set.mkString(","))  
  22.           }  
  23.           case None => logDebug(s"Pending task $index has a cached location at ${e.host} " +  
  24.               ", but there are no executors alive there.")  
  25.         }  
  26.       }  
  27.       case _ => Unit  
  28.     }  
  29.     addTo(pendingTasksForHost.getOrElseUpdate(loc.host, new ArrayBuffer))  
  30.     for (rack <- sched.getRackForHost(loc.host)) {  
  31.       addTo(pendingTasksForRack.getOrElseUpdate(rack, new ArrayBuffer))  
  32.     }  
  33.   }  
  34.   
  35.   if (tasks(index).preferredLocations == Nil) {  
  36.     addTo(pendingTasksWithNoPrefs)  
  37.   }  
  38.   
  39.   if (!readding) {  
  40.     allPendingTasks += index  // No point scanning this whole list to find the old task there  
  41.   }  
  42. }  


如果准备让spark支持新的存储源,进而开发相应的RDD,与位置相关的部分就是自定义getPreferredLocations函数,以elasticsearch-hadoop中的EsRDD为例,其代码实现如下。

Java代码
  1. override def getPreferredLocations(split: Partition): Seq[String] = {  
  2.   val esSplit = split.asInstanceOf[EsPartition]  
  3.   val ip = esSplit.esPartition.nodeIp  
  4.   if (ip != null) Seq(ip) else Nil  
  5. }  


第6节 序列化

使用好的序列化算法能够提高运行速度,同时能够减少内存的使用。

Spark在Shuffle的时候要将数据先存储到磁盘中,存储的内容是经过序列化的。序列化的过程牵涉到两大基本考虑的因素,一是序列化的速度,二是序列化后内容所占用的大小。

kryoSerializer与默认的javaSerializer相比,在序列化速度和序列化结果的大小方面都具有极大的优势。所以建议在应用程序配置中使用KryoSerializer.

Java代码
  1. spark.serializer  org.apache.spark.serializer.KryoSerializer  


默认的cache没有对缓存的对象进行序列化,使用的StorageLevel是MEMORY_ONLY,这意味着要占用比较大的内存。可以通过指定persist中的参数来对缓存内容进行序列化。

Java代码
  1. exampleRDD.persist(MEMORY_ONLY_SER)  


需要特别指出的是persist函数是等到job执行的时候才会将数据缓存起来,属于延迟执行; 而unpersist函数则是立即执行,缓存会被立即清除。

分享到:
评论

相关推荐

    Apache Spark:Spark性能调优.docx

    Apache Spark:Spark性能调优.docx

    Spark调优 Spark应用程序性能优化

    写完了一个复杂的spark作业之后,进行性能调优的时候,首先第一步,就是要来调节最优的资源配置;在这个基础之上,如果说你的spark作业,能够分配的资源达到了你的能力范围的顶端之后,无法再分配更多的资源了,公司...

    一种基于历史任务分析的Apache Spark应用自动化调优方法.pdf

    基于历史任务分析的Apache Spark应用自动化调优方法 ...本文档提出了一种基于历史任务分析的Apache Spark应用自动化调优方法,该方法可以提高Spark应用的性能和效率,降低任务的执行时间和资源利用率。

    【Spark调优篇01】Spark之常规性能调优1

    《Spark之常规性能调优详解》 Spark作为一个强大的大数据处理框架,其性能调优是确保高效运行的关键。本文主要探讨Spark的常规性能调优策略,...同时,理解Spark的运行机制和优化原理,也是提升Spark应用效能的关键。

    Spark性能调优分享

    我们谈大数据性能调优,到底在谈什么,它的本质是什么,以及 Spark 在性能调优部份的要点,这两点让在进入性能调优之前都是一个至关重要的问题,它的本质限制了我们调优到底要达到一个什么样的目标或者说我们是从...

    大数据处理框架:Spark:Spark性能调优与故障排查.docx

    大数据处理框架:Spark:Spark性能调优与故障排查.docx

    spark性能调优参数总结

    Spark是一个强大的分布式计算系统,它的性能调优是大数据处理中非常关键的一个环节。在Spark中,性能调优的参数非常丰富,其中Shuffle操作是影响Spark性能的一个重要因素。Shuffle操作涉及到排序、磁盘IO、网络IO等...

    spark性能调优

    Spark性能调优是大数据处理领域中的一个重要话题,它涉及到如何最大化地利用计算资源,提高数据处理的速度和效率。以下是对Spark性能调优的一些关键知识点的详细解析: 1. **资源调度与分配**:Spark默认使用的是...

    Spark大数据商业实战三部曲:内核解密|商业案例|性能调优

    资源名称:Spark大数据商业实战三部曲:内核解密|商业案例|性能调优内容简介:《Spark大数据商业实战三部曲:内核解密|商业案例|性能调优》基于Spark 2.2.X,以Spark商业案例实战和Spark在生产环境下几乎所有类型的...

    Spark内核机制解析及性能调优

    本资料《Spark内核机制解析及性能调优》深入探讨了Spark的核心原理以及如何对其进行优化,以提升大数据处理的效率。 首先,Spark的核心组件包括Driver、Executor、RDD(弹性分布式数据集)和DAG Scheduler。Driver...

    Spark:内核机制解析及性能调优

    Spark:内核机制解析及性能调优

    spark性能调优文档

    Spark性能调优是提高大数据处理效率的关键步骤,尤其在处理大规模数据时,高效的资源配置和并行度设置至关重要。本文将详细解析如何通过分配更多资源和提高并行度来优化Spark作业的性能。 **1. 分配更多的资源** ...

    Spark内核剖析+调优全套教程 附课件、代码、资料

    Spark内核深度剖析 Spark调优 SparkSQL精讲 SparkStreaming精讲 Spark2新特性

    深度解密Spark性能优化之道课程-课程网盘链接提取码下载.txt

    学员将通过实际案例的演示和分析,掌握解决Spark应用性能问题的方法和技巧,从而提升数据处理效率,优化应用性能。无论您是初学者还是有一定经验的大数据工程师,本课程都将为您提供宝贵的实战经验和实用技能,助您...

    基于机器学习的Spark大数据平台自动调优机制研究--毕业设计.rar

    在实际应用中,这样的自动调优机制可以显著提升Spark平台的整体效率,减少资源浪费,同时减轻运维人员的工作压力。然而,需要注意的是,机器学习模型的泛化能力和实时性也是关键问题,需要不断更新和优化模型以适应...

    Spark大数据商业实战三部曲_内核解密_商业案例_性能调优 实例源码

    这份压缩包包含了丰富的实践案例和代码,旨在帮助读者深入理解Spark的核心机制,掌握大数据处理的实战技巧,并优化Spark应用的运行效率。 一、Spark核心原理揭秘 Spark作为分布式计算框架,其核心设计理念在于内存...

    Spark性能调优

    在运行Spark应用程序时,可以通过调整一系列配置参数来优化性能。以下是几个关键点: - **使用`--verbose`选项:** - 在使用`spark-submit`命令时添加`--verbose`选项可以帮助诊断运行时的问题,因为它会提供更...

    大数据各类性能调优

    - Spark Streaming的性能调优主要关注点在于: - 调整Batch Duration。 - 优化Checkpoint配置。 - 使用Window函数等。 ##### 12.9.4 Spark CBO调优 - Spark CBO的调优主要涉及: - 优化统计信息收集。 - 合理...

Global site tag (gtag.js) - Google Analytics