Tungsten项目将是Spark自诞生以来内核级别的最大改动,以大幅度提升Spark应用程序的内存和CPU利用率为目标,旨在最大程度上压榨新时代硬件性能。Project Tungsten包括了3个方面的努力:
Memory Management和Binary Processing:利用应用的语义(application semantics)来更明确地管理内存,同时消除JVM对象模型和垃圾回收开销。
Cache-aware computation(缓存友好的计算):使用算法和数据结构来实现内存分级结构(memory hierarchy)。
代码生成(Code generation):使用代码生成来利用新型编译器和CPU。
之所以大幅度聚焦内存和CPU的利用,其主要原因就在于:对比IO和网络通信,Spark在CPU和内存上遭遇的瓶颈日益增多。详细信息可以查看最新的大数据负载性能研究(Ousterhout ),而我们在为Databricks Cloud用户做优化调整时也得出了类似的结论。
为什么CPU会成为新的瓶颈?这里存在多个问题:首先,在硬件配置中,IO带宽提升的非常明显,比如10Gbps网络和SSD存储(或者做了条文化处理的HDD阵列)提供的高带宽;从软件的角度来看,通过Spark优化器基于业务对输入数据进行剪枝,当下许多类型的工作负载已经不会再需要使用大量的IO;在Spark Shuffle子系统中,对比底层硬件系统提供的原始吞吐量,序列化和哈希(CPU相关)成为主要瓶颈。从种种迹象来看,对比IO,Spark当下更受限于CPU效率和内存压力。
1. Memory Management和Binary Processing
在JVM上的应用程序通常依赖JVM的垃圾回收机制来管理内存。毫无疑问,JVM绝对是一个伟大的工程,为不同工作负载提供了一个通用的运行环境。然而,随着Spark应用程序性能的不断提升,JVM对象和GC开销产生的影响将非常致命。
一直以来,Java对象产生的开销都非常大。在UTF-8编码上,简单如“abcd”这样的字符串也需要4个字节进行储存。然而,到了JVM情况就更糟糕了。为了更加通用,它重新定制了自己的储存机制——使用UTF-16方式编码每个字符(2字节),与此同时,每个String对象还包含一个12字节的header,和一个8字节的哈希编码,我们可以从 Java Object Layout工具的输出上获得一个更清晰的理解:
java.lang.String object internals:
OFFSET SIZE TYPE DESCRIPTION VALUE
0 4 (object header) ...
4 4 (object header) ...
8 4 (object header) ...
12 4 char[] String.value []
16 4 int String.hash 0
20 4 int String.hash32 0
Instance size: 24 bytes (reported by Instrumentation API)
毫无疑问,在JVM对象模型中,一个4字节的字符串需要48字节的空间来存储!
VM对象带来的另一个问题是GC。从高等级上看,通常情况下GC会将对象划分成两种类型:第一种会有很高的allocation/deallocation(年轻代),另一种的状态非常稳定(年老代)。通过利用年轻代对象的瞬时特性,垃圾收集器可以更有效率地对其进行管理。在GC可以可靠地估算对象的生命周期时,这种机制可以良好运行,但是如果只是基于一个很短的时间,这个机制很显然会遭遇困境,比如对象忽然从年轻代进入到年老代。鉴于这种实现基于一个启发和估计的原理,性能可以通过GC调优的一些“黑魔法”来实现,因此你可能需要给JVM更多的参数让其弄清楚对象的生命周期。
然而,Spark追求的不仅仅是通用性。在计算上,Spark了解每个步骤的数据传输,以及每个作业和任务的范围。因此,对比JVM垃圾收集器,Spark知悉内存块生命周期的更多信息,从而在内存管理上拥有比JVM更具效率的可能。
为了扭转对象开销和无效率GC产生的影响,我们引入了一个显式的内存管理器让Spark操作可以直接针对二进制数据而不是Java对象。它基于sun.misc.Unsafe建立,由JVM提供,一个类似C的内存访问功能(比如explicit allocation、deallocation和pointer arithmetics)。此外,Unsafe方法是内置的,这意味着,每个方法都将由JIT编译成单一的机器指令。
在某些方面,Spark已经开始利用内存管理。2014年,Databricks引入了一个新的基于Netty的网络传输机制,它使用一个类jemalloc的内存管理器来管理所有网络缓冲。这个机制让Spark shuffle得到了非常大的改善,也帮助了Spark创造了新的世界纪录。
新内存管理的首次亮相将出现在Spark 1.4版本,它包含了一个由Spark管理,可以直接在内存中操作二进制数据的hashmap。对比标准的Java HashMap,该实现避免了很多中间环节开销,并且对垃圾收集器透明。
我们在3个不同的途径中对比了聚合计算的吞吐量——开发中的新模型、offheap模型、以及java.util.HashMap。新的hashmap可以支撑每秒超过100万的聚合操作,大约是java.util.HashMap的两倍。更重要的是,在没有太多参数调优的情况下,随着内存利用增加,这个模式基本上不存在性能的衰弱,而使用JVM默认模式最终已被GC压垮。
在Spark 1.4中,这个hashmap可以为DataFracmes和SQL的聚合处理使用,而在1.5中,我们将为其他操作提供一个让其利用这个特性的数据结构,比如sort和join。毫无疑问,它将应用到大量需要调优GC以获得高性能的场景。
2. Cache-aware computation(缓存友好的计算)
在解释Cache-aware computation之前,我们首先回顾一下“内存计算”,也是Spark广为业内知晓的优势。对于Spark来说,它可以更好地利用集群中的内存资源,提供了比基于磁盘解决方案更快的速度。然而,Spark同样可以处理超过内存大小的数据,自动地外溢到磁盘,并执行额外的操作,比如排序和哈希。
类似的情况,Cache-aware computation通过使用 L1/ L2/L3 CPU缓存来提升速度,同样也可以处理超过寄存器大小的数据。在给用户Spark应用程序做性能分析时,我们发现大量的CPU时间因为等待从内存中读取数据而浪费。在 Tungsten项目中,我们设计了更加缓存友好的算法和数据结构,从而让Spark应用程序可以花费更少的时间等待CPU从内存中读取数据,也给有用工作提供了更多的计算时间。
我们不妨看向对记录排序的例子。一个标准的排序步骤需要为记录储存一组的指针,并使用quicksort 来互换指针直到所有记录被排序。基于顺序扫描的特性,排序通常能获得一个不错的缓存命中率。然而,排序一组指针的缓存命中率却很低,因为每个比较运算都需要对两个指针解引用,而这两个指针对应的却是内存中两个随机位置的数据。
那么,我们该如何提高排序中的缓存本地性?其中一个方法就是通过指针顺序地储存每个记录的sort key。举个例子,如果sort key是一个64位的整型,那么我们需要在指针阵列中使用128位(64位指针,64位sort key)来储存每条记录。这个途径下,每个quicksort对比操作只需要线性的查找每对pointer-key,从而不会产生任何的随机扫描。希望上述解释可以让你对我们提高缓存本地性的方法有一定的了解。
这样一来,我们又如何将这些优化应用到Spark?大多数分布式数据处理都可以归结为多个操作组成的一个小列表,比如聚合、排序和join。因此,通过提升这些操作的效率,我们可以从整体上提升Spark。我们已经为排序操作建立了一个新的版本,它比老版本的速度快5倍。这个新的sort将会被应用到sort-based shuffle、high cardinality aggregations和sort-merge join operator。在2015年底,所有Spark上的低等级算法都将升级为cache-aware,从而让所有应用程序的效率都得到提高——从机器学习到SQL。
3. 代码生成
大约在1年前,Spark引入代码生成用于SQL和DataFrames里的表达式求值(expression evaluation)。表达式求值的过程是在特定的记录上计算一个表达式的值(比如age > 35 && age < 40)。当然,这里是在运行时,而不是在一个缓慢的解释器中为每个行做单步调试。对比解释器,代码生成去掉了原始数据类型的封装,更重要的是,避免了昂贵的多态函数调度。
在之前的博文中,我们阐述了代码生成可以加速(接近一个量级)多种TPC-DS查询。当下,我们正在努力让代码生成可以应用到所有的内置表达式上。此外,我们计划提升代码生成的等级,从每次一条记录表达式求值到向量化表达式求值,使用JIT来开发更好的作用于新型CPU的指令流水线,从而在同时处理多条记录。
在通过表达式求值优化内部组件的CPU效率之外,我们还期望将代码生成推到更广泛的地方,其中一个就是shuffle过程中将数据从内存二进制格式转换到wire-protocol。如之前所述,取代带宽,shuffle通常会因数据系列化出现瓶颈。通过代码生成,我们可以显著地提升序列化吞吐量,从而反过来作用到shuffle网络吞吐量的提升。
Tungsten和未来的工作
在未来的几个版本中,Tungsten将大幅度提升Spark的核心引擎。它首先将登陆Spark 1.4版本,包括了Dataframe API中聚合操作的内存管理,以及定制化序列化器。二进制内存管理的扩展和cache-aware数据结构将出现在Spark 1.5的部分项目(基于DataFrame模型)中。当然如果需要的话,这个提升也会应用到Spark RDD API。
对于Spark,Tungsten是一个长期的项目,因此也存在很多的可能性。值得关注的是,我们还将考察LLVM或者OpenCL,让Spark应用程序可以利用新型CPU所提供的SSE/SIMD指令,以及GPU更好的并行性来提升机器学习和图的计算。
Spark不变的目标就是提供一个单一的平台,让用户可以从中获得更好的分布式算法来匹配任何类型的数据处理任务。其中,性能一直是主要的目标之一,而Tungsten的目标就是让Spark应用程序达到硬件性能的极限。更多详情可以持续关注Databricks博客,以及6月旧金山的Spark Summit。
分享到:
相关推荐
Spark是Apache软件基金会下的一个开源大数据处理框架,它在大数据领域扮演着重要的角色,尤其在实时数据处理和批处理方面表现突出。Spark-3.1.2.tgz和Spark-3.1.2-bin-hadoop2.7.tgz是两个不同格式的Spark发行版,...
《 tungsten-replicator-5.0.1-138:一款高效的数据同步工具》 在IT领域,数据的实时同步与备份是至关重要的环节,尤其在大数据处理、分布式系统以及数据库集群中更是不可或缺。"tungsten-replicator-5.0.1-138.tar...
3. **性能提升**:Spark 3.0.0对Shuffle过程进行了优化,减少了数据传输和磁盘I/O,从而提高了整体性能。此外,还引入了Tungsten和Codegen技术,进一步加速了执行速度。 4. **PySpark改进**:Python API(PySpark)...
Spark 3.2.0是Spark的一个重要版本,它在前一版本的基础上进行了多方面的优化和改进,旨在提供更好的性能和更多的功能。这个压缩包"spark-3.2.0-bin-hadoop3.2.tgz"包含了Spark 3.2.0版本的二进制文件,以及针对...
6. **性能优化**: Spark提供了一系列性能优化手段,如Tungsten内存管理、Code Generation、Shuffle优化等。根据具体应用需求,可以通过调整配置参数,如`executor-memory`、`num-executors`和`driver-memory`来提高...
例如,新的Shuffle服务可以提高shuffle操作的性能,而Tungsten项目则通过代码生成优化了DataFrame/Dataset的执行效率。 8. **SQL改进**: Spark SQL在3.0.0版本中引入了对ansi SQL标准的支持,增强了对窗口函数的...
- **Tungsten**:Spark的底层执行引擎,采用代码生成技术提高性能,减少了Java反射的开销。 - **Shuffle优化**:改进了数据分区和重排序策略,降低了网络传输的成本。 4. **API和语言支持**: - Spark提供了丰富...
在2.3.0版本中,Spark通过Tungsten优化了内存管理,提高了内存利用率。 3. **多模式支持**:Spark支持多种工作模式,包括本地模式、Standalone集群模式、YARN模式(与Hadoop2.7集成)以及Mesos模式,适应不同的部署...
5. 支持新格式:Spark 3.0.0增加了对Parquet、ORC等列式存储格式的原生支持,这将提高读写效率,降低内存消耗。 二、Spark 3.0.0的关键特性 1. AQE(Adaptive Query Execution):这是一个全新的查询执行模型,它...
Spark 3.1.2 包含了许多性能优化,如 Tungsten 编译器、Shuffle Service 和动态资源调度,这些都与 Hadoop 3.2 的优化相辅相成,共同提升整个系统的效率。 8. **部署与运维** 使用 Hadoop 3.2 的 YARN 或 ...
7. **性能优化**:Spark提供了许多性能调优选项,包括缓存策略、并行度设置、内存管理、Tungsten执行引擎优化等。合理配置这些参数能显著提升Spark应用的性能。 8. **Spark Streaming**:Spark Streaming提供了一个...
6. **性能优化**:Spark支持动态资源调度、数据缓存以及Tungsten和Codegen技术,提高内存利用率和执行效率。此外,可以通过调整executor数量、内存分配、shuffle管理策略等参数来优化性能。 7. **Spark与Hadoop的...
- **性能调优**:Spark SQL提供了多种性能优化策略,如CBO(Cost-Based Optimizer)和Tungsten项目等。这些策略可以帮助用户更高效地运行SQL查询。 - **Catalyst**:Catalyst是Spark SQL中的查询优化器,它采用一种...
- Extractor:负责从主数据库中捕获事务日志或二进制日志,并将事务数据转换成Tungsten Replicator能够理解的格式。 - Appliers:将Extractor捕获的数据应用到从数据库中。 - Transaction History Log(THL):...
Spark利用内存计算来提升性能,通过Tungsten执行引擎实现代码生成,减少Java对象创建的开销。另外,可以通过调整executor数量、内存大小和并行度等参数进一步优化性能。 8. **Spark SQL与Hive集成**: Spark ...
7. **内存管理**:Spark通过Tungsten项目改进了内存管理,实现了列式存储和代码生成,显著提升了计算速度。在2.4.2中,内存优化策略更加成熟,减少了数据序列化和反序列化的开销。 8. **容错机制**:Spark 2.4.2...
这篇博客将深入探讨Tungsten Replicator的原理、特点以及如何在实际应用中部署和配置。 Tungsten Replicator是一款开源的、基于日志的MySQL数据复制解决方案。它的核心功能是解析和传输MySQL的二进制日志(Binary ...
11. **性能优化**:Spark利用内存计算,将中间结果存储在内存中,减少磁盘I/O,提高处理速度。另外,还有Tungsten执行引擎和Code Generation技术,进一步提升了性能。 12. **PySpark**和**SparkR**:PySpark为...
- Spark通过内存计算提升性能,将数据缓存到内存中,避免了Hadoop MapReduce频繁的磁盘I/O。 2. **Spark 2.4.3 特性**: - 在这个版本中,Spark引入了许多性能优化和新特性,如DataFrame/Dataset API的改进,提供...
8. **性能优化**:在2.2.0版本中,Spark引入了更多针对特定工作负载的性能优化,比如Tungsten项目的全内存编译,可以将查询计划转换为机器码,提高执行速度。 9. **Python和R支持**:对于Python和R的API也进行了...