`
m635674608
  • 浏览: 5044164 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

Spark中的编程模型

 
阅读更多

1. Spark中的基本概念

在Spark中,有下面的基本概念。
Application:基于Spark的用户程序,包含了一个driver program和集群中多个executor
Driver Program:运行Application的main()函数并创建SparkContext。通常SparkContext代表driver program
Executor:为某Application运行在worker node上的饿一个进程。该进程负责运行Task,并负责将数据存在内存或者磁盘上。每个Application都有自己独立的executors
Cluster Manager: 在集群上获得资源的外部服务(例如 Spark Standalon,Mesos、Yarn)
Worker Node: 集群中任何可运行Application代码的节点
Task:被送到executor上执行的工作单元。
Job:可以被拆分成Task并行计算的工作单元,一般由Spark Action触发的一次执行作业。
Stage:每个Job会被拆分成很多组Task,每组任务被称为stage,也可称TaskSet。该术语可以经常在日志中看打。
RDD :Spark的基本计算单元,通过Scala集合转化、读取数据集生成或者由其他RDD经过算子操作得到。

 

 

2. Spark应用框架

 

 

 

 

客户Spark程序(Driver Program)来操作Spark集群是通过SparkContext对象来进行,SparkContext作为一个操作和调度的总入口,在初始化过程中集群管理器会创建DAGScheduler作业调度和TaskScheduler任务调度。

DAGScheduler作业调度模块是基于Stage的高层调度模块(参考:Spark分析之DAGScheduler),DAG全称 Directed Acyclic Graph,有向无环图。简单的来说,就是一个由顶点和有方向性的边构成的图中,从任意一个顶点出发,没有任何一条路径会将其带回到出发的顶点。它为每个Spark Job计算具有依赖关系的多个Stage任务阶段(通常根据Shuffle来划分Stage,如groupByKey, reduceByKey等涉及到shuffle的transformation就会产生新的stage),然后将每个Stage划分为具体的一组任务,以TaskSets的形式提交给底层的任务调度模块来具体执行。其中,不同stage之前的RDD为宽依赖关系。 TaskScheduler任务调度模块负责具体启动任务,监控和汇报任务运行情况。

创建SparkContext一般要经过下面几个步骤:

a). 导入Spark的类和隐式转换

 

[java] view plaincopy
  1. import org.apache.spark.{SparkContext, SparkConf}  
  2. import org.apache.spark.SparkContext._  

b). 构建Spark应用程序的应用信息对象SparkConf

 

 

[java] view plaincopy
  1. val conf = new SparkConf().setAppName(appName).setMaster(master_url)  

c). 利用SparkConf对象来初始化SparkContext

 

 

[java] view plaincopy
  1. val sc = new SparkContext(conf)  

d). 创建RDD、并执行相应的Transformation和action并得到最终结果。
e). 关闭Context

 

在完成应用的设计和编写后,使用spark-submit来提交应用的jar包。spark-submit的命令行参考如下:

Submitting Applications

 

[javascript] view plaincopy
  1. ./bin/spark-submit   
  2.   --class <main-class>  
  3.   --master <master-url>   
  4.   --deploy-mode <deploy-mode>   
  5.   ... # other options  
  6.   <application-jar>   
  7.   [application-arguments]  


Spark的运行模式取决于传递给SparkContext的MASTER环境变量的值。master URL可以是以下任一种形式:
Master URL 含义
local 使用一个Worker线程本地化运行SPARK(完全不并行)
local[*]使用逻辑CPU个数数量的线程来本地化运行Spark
local[K]使用K个Worker线程本地化运行Spark(理想情况下,K应该根据运行机器的CPU核数设定)
spark://HOST:PORT连接到指定的Spark standalone master。默认端口是7077.
yarn-client以客户端模式连接YARN集群。集群的位置可以在HADOOP_CONF_DIR 环境变量中找到。
yarn-cluster 以集群模式连接YARN集群。集群的位置可以在HADOOP_CONF_DIR 环境变量中找到。
mesos://HOST:PORT 连接到指定的Mesos集群。默认接口是5050.

 

而spark-shell会在启动的时候自动构建SparkContext,名称为sc。

 

3. RDD的创造

Spark所有的操作都围绕弹性分布式数据集(RDD)进行,这是一个有容错机制并可以被并行操作的元素集合,具有只读、分区、容错、高效、无需物化、可以缓存、RDD依赖等特征。

 

目前有两种类型的基础RDD:

并行集合(Parallelized Collections):接收一个已经存在的Scala集合,然后进行各种并行计算。

Hadoop数据集(Hadoop Datasets) :在一个文件的每条记录上运行函数。只要文件系统是HDFS,或者hadoop支持的任意存储系统即可。 

这两种类型的RDD都可以通过相同的方式进行操作,从而获得子RDD等一系列拓展,形成lineage血统关系图。

 

(1). 并行化集合
并行化集合是通过调用SparkContext的parallelize方法,在一个已经存在的Scala集合上创建的(一个Seq对象)。集合的对象将会被拷贝,创建出一个可以被并行操作的分布式数据集。例如,下面的解释器输出,演示了如何从一个数组创建一个并行集合。
例如:

val rdd = sc.parallelize(Array(1 to 10)) 根据能启动的executor的数量来进行切分多个slice,每一个slice启动一个Task来进行处理。

val rdd = sc.parallelize(Array(1 to 10), 5) 指定了partition的数量

 

(2). Hadoop数据集

Spark可以将任何Hadoop所支持的存储资源转化成RDD,如本地文件(需要网络文件系统,所有的节点都必须能访问到)、HDFS、Cassandra、HBase、Amazon S3等,Spark支持文本文件、SequenceFiles和任何Hadoop InputFormat格式。
a). 使用textFile()方法可以将本地文件或HDFS文件转换成RDD
支持整个文件目录读取,文件可以是文本或者压缩文件(如gzip等,自动执行解压缩并加载数据)。如textFile(”file:///dfs/data”)
支持通配符读取,例如:

 

[java] view plaincopy
  1. val rdd1 = sc.textFile("file:///root/access_log/access_log*.filter");  
  2. val rdd2=rdd1.map(_.split("t")).filter(_.length==6)  
  3. rdd2.count()  
  4. ......  
  5. 14/08/20 14:44:48 INFO HadoopRDD: Input split: file:/root/access_log/access_log.20080611.decode.filter:134217728+20705903  
  6. ......  


textFile()可选第二个参数slice,默认情况下为每一个block分配一个slice。用户也可以通过slice指定更多的分片,但不能使用少于HDFS block的分片数。

 

b). 使用wholeTextFiles()读取目录里面的小文件,返回(用户名、内容)对
c). 使用sequenceFile[K,V]()方法可以将SequenceFile转换成RDD。SequenceFile文件是Hadoop用来存储二进制形式的key-value对而设计的一种平面文件(Flat File)。
d). 使用SparkContext.hadoopRDD方法可以将其他任何Hadoop输入类型转化成RDD使用方法。一般来说,HadoopRDD中每一个HDFS block都成为一个RDD分区。
此外,通过Transformation可以将HadoopRDD等转换成FilterRDD(依赖一个父RDD产生)和JoinedRDD(依赖所有父RDD)等。

 

 

4. RDD操作

 

 

RDD支持两类操作:
转换(transformation)现有的RDD通关转换生成一个新的RDD,转换是延时执行(lazy)的。
动作(actions)在RDD上运行计算后,返回结果给驱动程序或写入文件系统。

例如,map就是一种transformation,它将数据集每一个元素都传递给函数,并返回一个新的分布数据集表示结果。

reduce则是一种action,通过一些函数将所有的元素叠加起来,并将最终结果返回给Driver程序。

 

 

Transformations

(1). map(func)

Return a new distributed dataset formed by passing each element of the source through a function func.
返回一个新分布式数据集,由每一个输入元素经过func函数转换后组成

2). filter(func)

Return a new dataset formed by selecting those elements of the source on which func returns true.
返回一个新数据集,由经过func函数计算后返回值为true的输入元素组成

[java] view plaincopy
  1. val num=sc.parallelize(1 to 100)  
  2. val num2 = num.map(_*2)  
  3. val num3 = num2.filter(_ % 3 == 0)  
  4. ......  
  5. num3.collect  
  6. //res: Array[Int] = Array(6, 12, 18, 24, 30, 36, 42, 48, 54, 60, 66, 72, 78, 84, 90, 96, 102, 108, 114, 120, 126, 132, 138, 144, 150, 156, 162, 168, 174, 180, 186, 192, 198)  
  7. num3.toDebugString  
  8. //res5: String =  
  9. //FilteredRDD[20] at filter at <console>:16 (48 partitions)  
  10. //  MappedRDD[19] at map at <console>:14 (48 partitions)  
  11. //    ParallelCollectionRDD[18] at parallelize at <console>:12 (48 partitions)  

(3). flatMap(func)

Similar to map, but each input item can be mapped to 0 or more output items (so func should return a Seq rather than a single item).
类似于map,但是每一个输入元素可以被映射为0或多个输出元素(因此func应该返回一个序列,而不是单一元素

 

[java] view plaincopy
  1. val kv=sc.parallelize(List(List(1,2),List(3,4),List(3,6,8)))  
  2. kv.flatMap(x=>x.map(_+1)).collect  
  3. //res0: Array[Int] = Array(2, 3, 4, 5, 4, 7, 9)  
  4.   
  5. //Word Count  
  6. sc.textFile('hdfs://hdp01:9000/home/debugo/*.txt').flatMap(_.split(' ')).map((_,1)).reduceByKey(_+_)  

(4). mapPartitions(func)

mapPartitions(func):和map很像,但是map是每个element,而mapPartitions是每个partition

Similar to map, but runs separately on each partition (block) of the RDD, so func must be of type Iterator<T> => Iterator<U> when running on an RDD of type T.
类似于map,但独立地在RDD的每一个分块上运行,因此在类型为T的RDD上运行时,func的函数类型必须是Iterator[T] => Iterator[U]。mapPartitions将会被每一个数据集分区调用一次。各个数据集分区的全部内容将作为顺序的数据流传入函数func的参数中,func必须返回另一个Iterator[T]。被合并的结果自动转换成为新的RDD。下面的测试中,元组(3,4)和(6,7)将由于我们选择的分区策略和方法而消失。
The combined result iterators are automatically converted into a new RDD. Please note, that the tuples (3,4) and (6,7) are missing from the following result due to the partitioning we chose

 

[java] view plaincopy
  1. val nums = sc . parallelize (1 to 9 , 3)  
  2. def myfunc[T] ( iter : Iterator [T] ) : Iterator [( T , T ) ] = {  
  3.     var res = List [(T , T) ]()  
  4.     var pre = iter.next  
  5.     while ( iter.hasNext )  
  6.     {  
  7.         val cur = iter . next ;  
  8.         res .::= ( pre , cur )  
  9.         pre = cur ;  
  10.     }  
  11.     res . iterator  
  12. }  
  13. //myfunc: [T](iter: Iterator[T])Iterator[(T, T)]  
  14. nums.mapPartitions(myfunc).collect  
  15. //res12: Array[(Int, Int)] = Array((2,3), (1,2), (5,6), (4,5), (8,9), (7,8))  


(5). mapPartitionsWithIndex(func)

Similar to mapPartitions, but also provides func with an integer value representing the index of the partition, so func must be of type (Int, Iterator<T=>) ==> Iterator<U=> when running on an RDD of type T.
类似于mapPartitions, 其函数原型是:
def mapPartitionsWithIndex [ U : ClassTag ]( f : ( Int , Iterator [ T ]) => Iterator [ U ] , preservesPartitioning : Boolean = false ) : RDD [ U ],
mapPartitionsWithIndex的func接受两个参数,第一个参数是分区的索引,第二个是一个数据集分区的迭代器。而输出的是一个包含经过该函数转换的迭代器。下面测试中,将分区索引和分区数据一起输出。

[java] view plaincopy
  1. val x = sc . parallelize ( List (1 ,2 ,3 ,4 ,5 ,6 ,7 ,8 ,9 ,10) , 3)  
  2. def myfunc ( index : Int , iter : Iterator [ Int ]) : Iterator [ String ] = {  
  3. iter . toList . map ( x => index + "-" + x ) . iterator  
  4. }  
  5. //myfunc: (index: Int, iter: Iterator[Int])Iterator[String]  
  6. x . mapPartitionsWithIndex ( myfunc ) . collect()  
  7. res: Array[String] = Array(0-10-20-31-41-51-62-72-82-92-10)  

(6). sample(withReplacement,fraction, seed)

Sample a fraction fraction of the data, with or without replacement, using a given random number generator seed.
根据fraction指定的比例,对数据进行采样,可以选择是否用随机数进行替换,seed用于指定随机数生成器种子。

[java] view plaincopy
  1. val a = sc . parallelize (1 to 10000 , 3)  
  2. a . sample ( false , 0.1 , 0) . count  
  3. res0 : Long = 960  
  4. a . sample ( true , 0.7 , scala.util.Random.nextInt(10000)) . count  
  5. res1: Long = 7073  

(7). union(otherDataset)

Return a new dataset that contains the union of the elements in the source dataset and the argument.
返回一个新的数据集,新数据集是由源数据集和参数数据集联合而成。
 

(8). intersection(otherDataset)

 

Return a new RDD that contains the intersection of elements in the source dataset and the argument.

(9). distinct([numTasks]))

Return a new dataset that contains the distinct elements of the source dataset.
返回一个包含源数据集中所有不重复元素的新数据集

[java] view plaincopy
  1. val kv1=sc.parallelize(List(("A",1),("B",2),("C",3),("A",4),("B",5)))  
  2. val kv2=sc.parallelize(List(("A",4),("A"2),("C",3),("A",4),("B",5)))  
  3. kv2.distinct.collect  
  4. res0: Array[(String, Int)] = Array((A,4), (C,3), (B,5), (A,2))  
  5. kv1.union(kv2).collect  
  6. res1: Array[(String, Int)] = Array((A,1), (B,2), (C,3), (A,4), (B,5), (A,4), (A,2), (C,3), (A,4), (B,5))  
  7. kv1.union(kv2).collect.distinct  
  8. res2: Array[(String, Int)] = Array((A,1), (B,2), (C,3), (A,4), (B,5), (A,2))  
  9. kv1.intersection(kv2).collect  
  10. res43: Array[(String, Int)] = Array((A,4), (C,3), (B,5))  

 

(10.)groupByKey([numTasks])

When called on a dataset of (K, V) pairs, returns a dataset of (K, Iterable) pairs.
Note: If you are grouping in order to perform an aggregation (such as a sum or average) over each key, using reduceByKey or combineByKey will yield much better performance.
Note: By default, the level of parallelism in the output depends on the number of partitions of the parent RDD. You can pass an optional numTasks argument to set a different number of tasks.

在一个(K,V)对的数据集上调用,返回一个(K,Seq[V])对的数据集
注意:默认情况下,只有8个并行任务来做操作,但是你可以传入一个可选的numTasks参数来改变它。如果分组是用来计算聚合操作(如sum或average),那么应该使用reduceByKey 或combineByKey 来提供更好的性能。
groupByKey, reduceByKey等transformation操作涉及到了shuffle操作,所以这里引出两个概念宽依赖和窄依赖。


 

 

窄依赖(narrow dependencies)
子RDD的每个分区依赖于常数个父分区(与数据规模无关)
输入输出一对一的算子,且结果RDD的分区结构不变。主要是map/flatmap
输入输出一对一的算子,但结果RDD的分区结构发生了变化,如union/coalesce
从输入中选择部分元素的算子,如filter、distinct、substract、sample


宽依赖(wide dependencies)
子RDD的每个分区依赖于所有的父RDD分区
对单个RDD基于key进行重组和reduce,如groupByKey,reduceByKey
对两个RDD基于key进行join和重组,如join
经过大量shuffle生成的RDD,建议进行缓存。这样避免失败后重新计算带来的开销。
注意:reduce是一个action,和reduceByKey完全不同。

 

 

(11).reduceByKey(func, [numTasks])

When called on a dataset of (K, V) pairs, returns a dataset of (K, V) pairs where the values for each key are aggregated using the given reduce function func, which must be of type (V,V) => V. Like ingroupByKey, the number of reduce tasks is configurable through an optional second argument.
在一个(K,V)对的数据集上调用时,返回一个(K,V)对的数据集,使用指定的reduce函数,将相同key的值聚合到一起。类似groupByKey,reduce任务个数是可以通过第二个可选参数来配置的

 

 

 

(12).sortByKey([ascending], [numTasks])

When called on a dataset of (K, V) pairs where K implements Ordered, returns a dataset of (K, V) pairs sorted by keys in ascending or descending order, as specified in the boolean ascending argument.
在一个(K,V)对的数据集上调用,K必须实现Ordered接口,返回一个按照Key进行排序的(K,V)对数据集。升序或降序由ascending布尔参数决定

 

[java] view plaincopy
  1. val kv1=sc.parallelize(List(("A",1),("B",2),("C",3),("A",4),("B",5)))  
  2. res0: Array[(String, Int)] = Array((A,1), (A,4), (B,2), (B,5), (C,3))  
  3. kv1.sortByKey().collect //注意sortByKey的小括号不能省  
  4. res1: Array[(String, Int)] = Array((A,1), (A,4), (B,2), (B,5), (C,3))  
  5. kv1.groupByKey().collect  
  6. res1: Array[(String, Iterable[Int])] = Array((A,ArrayBuffer(14)), (B,ArrayBuffer(25)), (C,ArrayBuffer(3)))  
  7. kv1.reduceByKey(_+_).collect  
  8. res2: Array[(String, Int)] = Array((A,5), (B,7), (C,3))  

 

 

(13). join(otherDataset, [numTasks])

When called on datasets of type (K, V) and (K, W), returns a dataset of (K, (V, W)) pairs with all pairs of elements for each key. Outer joins are also supported through leftOuterJoin and rightOuterJoin.
在类型为(K,V)和(K,W)类型的数据集上调用时,返回一个相同key对应的所有元素对在一起的(K, (V, W))数据集

 

 

(14).cogroup(otherDataset, [numTasks])

 

When called on datasets of type (K, V) and (K, W), returns a dataset of (K, Iterable, Iterable) tuples. This operation is also called groupWith.
在类型为(K,V)和(K,W)的数据集上调用,返回一个 (K, Seq[V], Seq[W])元组的数据集。这个操作也可以称之为groupwith

[java] view plaincopy
  1. val kv1=sc.parallelize(List(("A",1),("B",2),("C",3),("A",4),("B",5)))  
  2. val kv3=sc.parallelize(List(("A",10),("B",20),("D",30)))  
  3. kv1.join(kv3).collect  
  4. res16: Array[(String, (Int, Int))] = Array((A,(1,10)), (A,(4,10)), (B,(2,20)), (B,(5,20)))  
  5. kv1.cogroup(kv3).collect  
  6. res0: Array[(String, (Iterable[Int], Iterable[Int]))] = Array((A,(ArrayBuffer(14),ArrayBuffer(10))), (B,(ArrayBuffer(25),ArrayBuffer(20))), (C,(ArrayBuffer(3),ArrayBuffer())), (D,(ArrayBuffer(),ArrayBuffer(30))))  

 

(15).cartesian(otherDataset)

When called on datasets of types T and U, returns a dataset of (T, U) pairs (all pairs of elements).
笛卡尔积,在类型为 T 和 U 类型的数据集上调用时,返回一个 (T, U)对数据集(两两的元素对)

(16). pipe(command, [envVars])

Pipe each partition of the RDD through a shell command, e.g. a Perl or bash script. RDD elements are written to the process’s stdin and lines output to its stdout are returned as an RDD of strings.
通过POSIX 管道来将每个RDD分区的数据传入一个shell命令(例如Perl或bash脚本)。RDD元素会写入到进程的标准输入,其标准输出会作为RDD字符串返回。

(17).coalesce(numPartitions)

Decrease the number of partitions in the RDD to numPartitions. Useful for running operations more efficiently after filtering down a large dataset.
将RDD分区的数量降低为numPartitions,对于经过过滤后的大数据集的在线处理更加有效。

(18).repartition(numPartitions)

Reshuffle the data in the RDD randomly to create either more or fewer partitions and balance it across them. This always shuffles all data over the network.
随机重新shuffle RDD中的数据,并创建numPartitions个分区。这个操作总会通过网络来shuffle全部数据。

 

 

 

Actions

(19). reduce(func)

 

Aggregate the elements of the dataset using a function func (which takes two arguments and returns one). The function should be commutative and associative so that it can be computed correctly in parallel.
通过函数func(接受两个参数,返回一个参数)聚集数据集中的所有元素。这个功能必须可交换且可关联的,从而可以正确的被并行执行。

(20). collect()

Return all the elements of the dataset as an array at the driver program. This is usually useful after a filter or other operation that returns a sufficiently small subset of the data.
在驱动程序中,以数组的形式,返回数据集的所有元素。这通常会在使用filter或者其它操作并返回一个足够小的数据子集后再使用会比较有用。

(21). count()

Return the number of elements in the dataset.
返回数据集的元素的个数。

(22). first()

Return the first element of the dataset (similar to take(1)).
返回数据集的第一个元素(类似于take(1))

(23). take(n)

Return an array with the first n elements of the dataset. Note that this is currently not executed in parallel. Instead, the driver program computes all the elements.
返回一个由数据集的前n个元素组成的数组。注意,这个操作目前并非并行执行,而是由驱动程序计算所有的元素

(24). countByKey()

Only available on RDDs of type (K, V). Returns a hashmap of (K, Int) pairs with the count of each key.
对(K,V)类型的RDD有效,返回一个(K,Int)对的Map,表示每一个key对应的元素个数

(25). foreach(func)

Run a function func on each element of the dataset. This is usually done for side effects such as updating an accumulator variable (see below) or interacting with external storage systems.
在数据集的每一个元素上,运行函数func进行更新。这通常用于边缘效果,例如更新一个累加器,或者和外部存储系统进行交互,例如HBase.

[java] view plaincopy
  1. val num=sc.parallelize(1 to 10)  
  2. num.reduce (_ + _)  
  3. res1: Int = 55  
  4. num.take(5)  
  5. res2: Array[Int] = Array(12345)  
  6. num.first  
  7. res3: Int = 1  
  8. num.count  
  9. res4: Long = 10  
  10. num.take(5).foreach(println)  
  11. 1  
  12. 2  
  13. 3  
  14. 4  
  15. 5  
  16. val kv1=sc.parallelize(List(("A",1),("B",2),("C",3),("A",4),("B",5),("A",7),("B",7)))  
  17. val kv1_count=kv1.countByKey()  
  18. kv1_count: scala.collection.Map[String,Long] = Map(A -> 3, C -> 1, B -> 3)  



 

(26). takeSample(withReplacement,num, seed)

 

Return an array with a random sample of num elements of the dataset, with or without replacement, using the given random number generator seed.
返回一个数组,在数据集中随机采样num个元素组成,可以选择是否用随机数替换不足的部分,Seed用于指定的随机数生成器种子

(27). takeOrdered(n, [ordering])

Return the first n elements of the RDD using either their natural order or a custom comparator.
返回一个由数据集的前n个元素组成的有序数组,使用自然序或自定义的比较器。

(28). saveAsTextFile(path)

Write the elements of the dataset as a text file (or set of text files) in a given directory in the local filesystem, HDFS or any other Hadoop-supported file system. Spark will call toString on each element to convert it to a line of text in the file.
将数据集的元素,以textfile的形式,保存到本地文件系统,HDFS或者任何其它hadoop支持的文件系统。对于每个元素,Spark将会调用toString方法,将它转换为文件中的文本行

(29). saveAsSequenceFile(path)

Write the elements of the dataset as a Hadoop SequenceFile in a given path in the local filesystem, HDFS or any other Hadoop-supported file system. This is available on RDDs of key-value pairs that either implement Hadoop’s Writable interface. In Scala, it is also available on types that are implicitly convertible to Writable (Spark includes conversions for basic types like Int, Double, String, etc).
将数据集的元素,以Hadoop sequencefile的格式,保存到指定的目录下,本地系统,HDFS或者任何其它hadoop支持的文件系统。这个只限于由key-value对组成,并实现了Hadoop的Writable接口,或者隐式的可以转换为Writable的RDD。(Spark包括了基本类型的转换,例如Int,Double,String,等等)

(30). saveAsObjectFile(path)

Write the elements of the dataset in a simple format using Java serialization, which can then be loaded usingSparkContext.objectFile().
将数据集元素写入Java序列化的可以被SparkContext.objectFile()加载的简单格式中。
当然,transformation和action的操作远远不止这些。其他请参考API文档:
RDD API

 

 

5. RDD缓存

 
Spark可以使用 persist 和 cache 方法将任意 RDD 缓存到内存、磁盘文件系统中。缓存是容错的,如果一个 RDD 分片丢失,可以通过构建它的 transformation自动重构。被缓存的 RDD 被使用的时,存取速度会被大大加速。一般的executor内存60%做 cache, 剩下的40%做task。
 
Spark中,RDD类可以使用cache() 和 persist() 方法来缓存。cache()是persist()的特例,将该RDD缓存到内存中。而persist可以指定一个StorageLevel。StorageLevel的列表可以在StorageLevel 伴生单例对象中找到:
 
[java] view plaincopy
  1. object StorageLevel {  
  2.   val NONE = new StorageLevel(falsefalsefalsefalse)  
  3.   val DISK_ONLY = new StorageLevel(truefalsefalsefalse)  
  4.   val DISK_ONLY_2 = new StorageLevel(truefalsefalsefalse2)  
  5.   val MEMORY_ONLY = new StorageLevel(falsetruefalsetrue)  
  6.   val MEMORY_ONLY_2 = new StorageLevel(falsetruefalsetrue2)  
  7.   val MEMORY_ONLY_SER = new StorageLevel(falsetruefalsefalse)  
  8.   val MEMORY_ONLY_SER_2 = new StorageLevel(falsetruefalsefalse2)  
  9.   val MEMORY_AND_DISK = new StorageLevel(truetruefalsetrue)  
  10.   val MEMORY_AND_DISK_2 = new StorageLevel(truetruefalsetrue2)  
  11.   val MEMORY_AND_DISK_SER = new StorageLevel(truetruefalsefalse)  
  12.   val MEMORY_AND_DISK_SER_2 = new StorageLevel(truetruefalsefalse2)  
  13.   val OFF_HEAP = new StorageLevel(falsefalsetruefalse// Tachyon  
  14. }  
  15. class StorageLevel private(    
  16.      private var useDisk_      :    Boolean,    
  17.      private var useMemory_   :  Boolean,    
  18.      private var useOffHeap_   : Boolean,    
  19.      private var deserialized_ : Boolean,    
  20.      private var replication_  : Int = 1  
  21. )  


 
Spark的不同StorageLevel ,目的满足内存使用和CPU效率权衡上的不同需求。我们建议通过以下的步骤来进行选择:
·如果你的RDDs可以很好的与默认的存储级别(MEMORY_ONLY)契合,就不需要做任何修改了。这已经是CPU使用效率最高的选项,它使得RDDs的操作尽可能的快。
·如果不行,试着使用MEMORY_ONLY_SER并且选择一个快速序列化的库使得对象在有比较高的空间使用率的情况下,依然可以较快被访问。
·尽可能不要存储到硬盘上,除非计算数据集的函数,计算量特别大,或者它们过滤了大量的数据。否则,重新计算一个分区的速度,和与从硬盘中读取基本差不多快。
·如果你想有快速故障恢复能力,使用复制存储级别(例如:用Spark来响应web应用的请求)。所有的存储级别都有通过重新计算丢失数据恢复错误的容错机制,但是复制存储级别可以让你在RDD上持续的运行任务,而不需要等待丢失的分区被重新计算。
·如果你想要定义你自己的存储级别(比如复制因子为3而不是2),可以使用StorageLevel 单例对象的apply()方法。
在不会使用cached RDD的时候,及时使用unpersist方法来释放它。
 
 

6. RDD的共享变量

在应用开发中,一个函数被传递给Spark操作(例如map和reduce),在一个远程集群上运行,它实际上操作的是这个函数用到的所有变量的独立拷贝。这些变量会被拷贝到每一台机器。通常看来,在任务之间中,读写共享变量显然不够高效。然而,Spark还是为两种常见的使用模式,提供了两种有限的共享变量:广播变量和累加器。
 
(1). 广播变量(Broadcast Variables)
– 广播变量缓存到各个节点的内存中,而不是每个 Task
– 广播变量被创建后,能在集群中运行的任何函数调用
– 广播变量是只读的,不能在被广播后修改
– 对于大数据集的广播, Spark 尝试使用高效的广播算法来降低通信成本
使用方法:
 
[java] view plaincopy
  1. val broadcastVar = sc.broadcast(Array(123))  


(2). 累加器
累加器只支持加法操作,可以高效地并行,用于实现计数器和变量求和。Spark 原生支持数值类型和标准可变集合的计数器,但用户可以添加新的类型。只有驱动程序才能获取累加器的值
使用方法:

 

 

[java] view plaincopy
  1. val accum = sc.accumulator(0)  
  2. sc.parallelize(Array(1234)).foreach(x => accum  + = x)  
  3. accum.value  

http://blog.csdn.net/liuwenbo0920/article/details/45243775

分享到:
评论

相关推荐

    02Spark编程模型和解析

    ### Spark编程模型与解析 #### 一、Spark编程模型概览 Spark作为一种高效的大数据处理框架,其核心组件Spark Core提供了强大的分布式计算能力。在深入探讨Spark编程模型之前,我们首先来回顾一下Spark的核心概念:...

    3.Spark编程模型(下)--IDEA搭建及实战.pdf

    3.Spark编程模型(上)--概念及SparkShell实战.pdf 3.Spark编程模型(下)--IDEA搭建及实战.pdf 4.Spark运行架构.pdf 5.Hive(上)--Hive介绍及部署.pdf 5.Hive(下)--Hive实战.pdf 6.SparkSQL(上)--SparkSQL简介...

    3.Spark编程模型(上)--概念及SparkShell实战.pdf

    3.Spark编程模型(上)--概念及SparkShell实战.pdf 3.Spark编程模型(下)--IDEA搭建及实战.pdf 4.Spark运行架构.pdf 5.Hive(上)--Hive介绍及部署.pdf 5.Hive(下)--Hive实战.pdf 6.SparkSQL(上)--SparkSQL简介...

    Spark编程模型和解析.pdf

    在分布式计算模型中,Spark采取的是“分而治之”的策略,将数据拆分为不同分区(Partition),以便在多个节点上进行并行计算。Spark还采用了移动计算而非移动数据的理念,即计算任务会被送到包含数据的节点,而不是...

    Spark Streaming编程模型

    本节将介绍 Spark Streaming 的编程模型,包括 DStream 的操作流程和使用方法。 DStream 的操作流程 DStream 作为 Spark Streaming 的基础抽象,它代表持续性的数据流。这些数据流既可以通过外部输入源来获取,也...

    通过案例实战掌握Spark编程模型内幕.pptx

    【Spark编程模型内幕】 Spark是Apache软件基金会管理的一个开源大数据处理框架,以其高效、易用和可扩展性受到广泛欢迎。Spark的核心编程模型基于弹性分布式数据集(Resilient Distributed Datasets, RDDs),它...

    Spark实战高手之路-第6章Spark SQL编程动手实战(1)

    - **Spark** 是一种高性能的大数据处理框架,相较于传统的Hadoop MapReduce有着显著的优势,如内存计算、统一的数据处理模型等,因此在大数据领域得到了广泛的应用和发展。 - 随着大数据技术的发展和成熟,Spark以其...

    Spark编程基础(Python版).rar

    Spark编程基础(Python版)是大数据处理领域的重要学习资源,主要针对使用Python语言进行Spark开发的初学者。Spark作为一个快速、通用且可扩展的大数据处理框架,尤其在处理大规模数据时,其性能表现优秀,因此在业界...

    《Spark编程基础及项目实践》课后习题及答案4.pdf

    《Spark编程基础及项目实践》课后习题与答案涵盖了Spark的核心概念,主要涉及RDD(弹性分布式数据集)的操作和编程模型。以下是基于题目内容展开的详细知识点解析: 1. **RDD(Resilient Distributed Dataset)**:...

    《Spark 编程基础》 教材讲义 厦门大学 林子雨

    《Spark编程基础》是厦门大学计算机科学系林子雨教授编写的一份教材讲义,主要针对2018年1月的课程版本。这本教材深入浅出地介绍了大数据处理框架Spark的核心概念、设计原理以及实际应用。通过涵盖多个章节的内容,...

    大数据--Apache Spark编程详解

    本文将深入探讨Apache Spark的核心概念、编程模型及其在实际应用中的实现方式。 #### 二、Apache Spark简介 Apache Spark是一个统一的数据分析引擎,它提供了快速通用的数据处理能力。与传统的Hadoop MapReduce...

    《Spark编程基础及项目实践》课后习题及答案3.pdf

    《Spark编程基础及项目实践》课程的课后习题涵盖了Spark的核心概念和关键特性,旨在帮助学生深入理解和应用Spark框架。以下是对习题内容的详细解释: 1. Spark的运行架构: - Driver Program:是应用程序的主要...

    《Spark编程基础及项目实践》课后答案.zip

    《Spark编程基础及项目实践》课程的课后答案涵盖了Spark的核心概念、主要功能以及在实际项目中的应用。这个压缩包包含的资源旨在帮助学生深入理解并掌握Spark编程的关键知识点。 一、Spark概述 Spark是大数据处理...

    spark高手之路-spark架构设计与编程模型

    此阶段掌握基于Spark上的核心...spark作为云计算大数据时代的集大成者,在实时流处理,图技术,机器学习,NoSQL查询等方面具有显著的优势,我们使用spark的时候大部分时间都是在使用其框架如:spark,spark Steaming等

    22:Spark2.3.x编程模型.zip

    在Spark 2.3.x版本中,编程模型的更新与改进是其主要亮点之一,它提供了更高效、灵活的数据处理方式。本章将深入探讨Spark的编程模型,包括RDD(弹性分布式数据集)、DataFrame和DataSet,以及它们在Spark SQL、...

    Spark & SparkSql编程学习资料

    第1章 Spark编程模型 第2章 构建Spark分布式集群 第3章 Spark开发环境及其测试 第4章 Spark RDD与编程API实战 第5章 Spark运行模式深入解析 第6章 Spark内核解析 第7章 GraphX大规模图计算与图挖掘实战 第8章 Spark ...

    《Spark编程基础及项目实践》试卷及答案2套.pdf

    【Spark编程基础及项目实践】试卷涉及的知识点涵盖了Spark的核心概念、大数据处理、Scala语言基础以及Spark的部署和运行模式。...以上就是试卷中涉及的Spark编程和大数据处理相关知识点的详细解析。

    Spark实战高手之路 - Spark亚太研究院.part4.rar

    【Spark亚太研究院系列丛书】Spark实战高手之路-第3章Spark架构设计与编程模型(1) 【Spark亚太研究院系列丛书】Spark实战高手之路-第3章Spark架构设计与编程模型(2) 【Spark亚太研究院系列丛书】Spark实战高手之...

Global site tag (gtag.js) - Google Analytics