`
m635674608
  • 浏览: 5027977 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

spark RDD的理解

 
阅读更多

RDD是什么东西?在Spark中有什么作用?如何使用?

 

 1、RDD是什么

 

(1)为什么会产生RDD?

 

传统的MapReduce虽然具有自动容错、平衡负载和可拓展性的优点,但是其最大缺点是采用非循环式的数据流模型,使得在迭代计算时要进行大量的磁盘IO操作。RDD正是解决这一缺点的抽象方法 

 

(2)RDD的具体描述

 

RDD(弹性数据集)是Spark提供的最重要的抽象的概念,它是一种有容错机制的特殊集合,可以分布在集群的节点上,以函数式编操作集合的方式,进行各种并行操作。可以将RDD理解为一个具有容错机制的特殊集合,它提供了一种只读、只能有已存在的RDD变换而来的共享内存,然后将所有数据都加载到内存中,方便进行多次重用。

 

a.他是分布式的,可以分布在多台机器上,进行计算。

 

b.他是弹性的,计算过程中内存不够时它会和磁盘进行数据交换。

 

c.这些限制可以极大的降低自动容错开销。

 

d.实质是一种更为通用的迭代并行计算框架,用户可以显示的控制计算的中间结果,然后将其自由运用于之后的计算。 

 

(3)RDD的容错机制

 

实现分布式数据集容错方法有两种:数据检查点和记录更新

 

RDD采用记录更新的方式:记录所有更新点的成本很高。所以,RDD只支持粗颗粒变换,即只记录单个块上执行的单个操作,然后创建某个RDD的变换序列(血统)存储下来;变换序列指,每个RDD都包含了他是如何由其他RDD变换过来的以及如何重建某一块数据的信息。因此RDD的容错机制又称“血统”容错。 要实现这种“血统”容错机制,最大的难题就是如何表达父RDD和子RDD之间的依赖关系。

 

实际上依赖关系可以分两种,窄依赖和宽依赖:窄依赖:子RDD中的每个数据块只依赖于父RDD中对应的有限个固定的数据块;宽依赖:子RDD中的一个数据块可以依赖于父RDD中的所有数据块。例如:map变换,子RDD中的数据块只依赖于父RDD中对应的一个数据块;groupByKey变换,子RDD中的数据块会依赖于多个父RDD中的数据块,因为一个key可能存在于父RDD的任何一个数据块中 

 

将依赖关系分类的两个特性:第一,窄依赖可以在某个计算节点上直接通过计算父RDD的某块数据计算得到子RDD对应的某块数据;宽依赖则要等到父RDD所有数据都计算完成之后,并且父RDD的计算结果进行hash并传到对应节点上之后才能计算子RDD。第二,数据丢失时,对于窄依赖只需要重新计算丢失的那一块数据来恢复;对于宽依赖则要将祖先RDD中的所有数据块全部重新计算来恢复。

 

所以在长“血统”链特别是有宽依赖的时候,需要在适当的时机设置数据检查点。也是这两个特性要求对于不同依赖关系要采取不同的任务调度机制和容错恢复机制。 

 

(4)RDD内部的设计每个RDD都需要包含以下四个部分:

 

a.源数据分割后的数据块,源代码中的splits变量

 

b.关于“血统”的信息,源码中的dependencies变量

 

c.一个计算函数(该RDD如何通过父RDD计算得到),源码中的iterator(split)和compute函数

 

d.一些关于如何分块和数据存放位置的元信息,如源码中的partitioner和preferredLocations

 

例如:

 

1> 一个从分布式文件系统中的文件得到的RDD具有的数据块是通过切分各个文件得到的,它是没有父RDD的,它的计算函数只是读取文件的每一行并作为一个元素返回给RDD;

 

2> 对与一个通过map函数得到的RDD,它会具有和父RDD相同的数据块,它的计算函数式对每个父RDD中的元素所执行的一个函数。 

 

2、RDD在Spark中的地位及作用

 

(1)为什么会有Spark?

 

因为传统的并行计算模型无法有效的解决迭代计算(iterative)和交互式计算(interactive);而Spark的使命便是解决这两个问题,这也是他存在的价值和理由。 

 

(2)Spark如何解决迭代计算?

 

其主要实现思想就是RDD,把所有计算的数据保存在分布式的内存中。迭代计算通常情况下都是对同一个数据集做反复的迭代计算,数据在内存中将大大提升IO操作。这也是Spark涉及的核心:内存计算。 

 

(3)Spark如何实现交互式计算?

 

因为Spark是用scala语言实现的,Spark和scala能够紧密的集成,所以Spark可以完美的运用scala的解释器,使得其中的scala可以向操作本地集合对象一样轻松操作分布式数据集。 

 

(4)Spark和RDD的关系?

 

可以理解为:RDD是一种具有容错性基于内存的集群计算抽象方法,Spark则是这个抽象方法的实现。 

 

3、如何操作RDD?

 

(1)如何获取RDD

 

a.从共享的文件系统获取,(如:HDFS)

 

b.通过已存在的RDD转换

 

c.将已存在scala集合(只要是Seq对象)并行化 ,通过调用SparkContext的parallelize方法实现

 

d.改变现有RDD的持久性;RDD是lazy,短暂的。(RDD的固化:cache缓存至内存;save保存到分布式文件系统) 

 

(2)操作RDD的两个动作

 

a.Actions:对数据集计算后返回一个数值value给驱动程序;例如:Reduce将数据集的所有元素用某个函数聚合后,将最终结果返回给程序。

 

b.Transformation:根据数据集创建一个新的数据集,计算后返回一个新RDD;例如:Map将数据的每个元素经过某个函数计算后,返回一个姓的分布式数据集。

 

(3)Actions具体内容:

 

reduce(func)

 

通过函数func聚集数据集中的所有元素。Func函数接受2个参数,返回一个值。这个函数必须是关联性的,确保可以被正确的并发执行

 

collect()

 

在Driver的程序中,以数组的形式,返回数据集的所有元素。这通常会在使用filter或者其它操作后,返回一个足够小的数据子集再使用,直接将整个RDD集Collect返回,很可能会让Driver程序OOM

 

count()

 

返回数据集的元素个数

 

take(n)

 

返回一个数组,由数据集的前n个元素组成。注意,这个操作目前并非在多个节点上,并行执行,而是Driver程序所在机器,单机计算所有的元素

 

(Gateway的内存压力会增大,需要谨慎使用)

 

first()

 

返回数据集的第一个元素(类似于take(1))

 

saveAsTextFile(path)

 

将数据集的元素,以textfile的形式,保存到本地文件系统,hdfs或者任何其它hadoop支持的文件系统。Spark将会调用每个元素的toString方法,并将它转换为文件中的一行文本

 

saveAsSequenceFile(path)

 

将数据集的元素,以sequencefile的格式,保存到指定的目录下,本地系统,hdfs或者任何其它hadoop支持的文件系统。RDD的元素必须由key-value对组成,并都实现了Hadoop的Writable接口,或隐式可以转换为Writable(Spark包括了基本类型的转换,例如Int,Double,String等等)

 

foreach(func)

 

在数据集的每一个元素上,运行函数func。这通常用于更新一个累加器变量,或者和外部存储系统做交互

 

 

 

(4)Transformation具体内容

 

map(func)

 

 

 

返回一个新的分布式数据集,由每个原元素经过func函数转换后组成

 

filter(func)

 

 

 

返回一个新的数据集,由经过func函数后返回值为true的原元素组成

 

flatMap(func)

 

类似于map,但是每一个输入元素,会被映射为0到多个输出元素(因此,func函数的返回值是一个Seq,而不是单一元素)

 

sample(withReplacement, frac, seed)

 

 

 

根据给定的随机种子seed,随机抽样出数量为frac的数据

 

union(otherDataset)

 

 

 

返回一个新的数据集,由原数据集和参数联合而成

 

groupByKey([numTasks])

 

 

 

在一个由(K,V)对组成的数据集上调用,返回一个(K,Seq[V])对的数据集。注意:默认情况下,使用8个并行任务进行分组,你可以传入numTask可选参数,根据数据量设置不同数目的Task

 

(groupByKey和filter结合,可以实现类似Hadoop中的Reduce功能)

 

reduceByKey(func, [numTasks])

 

在一个(K,V)对的数据集上使用,返回一个(K,V)对的数据集,key相同的值,都被使用指定的reduce函数聚合到一起。和groupbykey类似,任务的个数是可以通过第二个可选参数来配置的。

 

join(otherDataset, [numTasks])

 

在类型为(K,V)和(K,W)类型的数据集上调用,返回一个(K,(V,W))对,每个key中的所有元素都在一起的数据集

 

groupWith(otherDataset, [numTasks])

 

在类型为(K,V)和(K,W)类型的数据集上调用,返回一个数据集,组成元素为(K, Seq[V], Seq[W]) Tuples。这个操作在其它框架,称为CoGroup

 

cartesian(otherDataset)

 

笛卡尔积。但在数据集T和U上调用时,返回一个(T,U)对的数据集,所有元素交互进行笛卡尔积。

 

sortByKey([ascendingOrder])

 

在类型为( K, V )的数据集上调用,返回以K为

 

http://m.blog.csdn.net/blog/shark_wen_2010/29367485#

分享到:
评论

相关推荐

    spark rdd 论文翻译_中文_spark老汤

    Spark RDD(弹性分布式数据集)是Apache Spark框架中的核心组件,它是Spark处理大规模数据的核心抽象。...而《spark rdd 论文翻译_中文_spark老汤》和原版英文论文为深入学习和理解这些概念提供了宝贵的资源。

    spark rdd api dataframe 以及dataframe rdd dataset 相互转换 spark sql

    在大数据处理框架Apache Spark中,RDD(弹性分布式数据集)是基础的数据处理抽象,它提供了容错、分布式数据操作的能力。而DataFrame和Dataset是Spark ...这些操作的知识点对理解和使用Spark进行大数据处理至关重要。

    spark rdd 实战 ,基本语法

    RDD 是一个只读、分区记录的集合,可以被理解为一个存储数据的数据结构。RDD 可以从以下几种方式创建: * 集合转换 * 从文件系统输入 * 从父 RDD 转换 RDD 的计算类型 RDD 的计算类型有两种: * Transformation...

    Spark RDD以及其特性.rar_RDD_Spark!_parallelbwz_spark_特性

    在理解RDD及其特性之前,我们需要先了解Spark的基本工作原理。Spark是一种基于内存计算的大数据处理框架,它的设计目标是提高大数据处理的性能和易用性。 RDD的主要特性包括以下几个方面: 1. **弹性**:RDD具有...

    sparkrdd的讲解

    在探讨Spark的弹性分布式数据集(RDD)之前,我们首先需要理解Spark的基本计算模型。Spark是一种基于内存的分布式计算框架,其核心设计思想在于通过缓存中间结果来提高迭代式算法的性能。其中,RDD作为Spark中最基本...

    spark-rdd-APi

    这将会帮助已经熟悉Spark RDD概念的用户更好地理解其API的用法和功能。 标签:“Spark RDD”是本篇内容的关键词,指明了文档的重点是Spark中的RDD相关知识。 RDD API详细知识点: 1. Transformations:RDD的...

    Spark视频第5课_深入理解Spark RDD&Dataframe;

    机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识...

    Spark RDD Instrocution

    println("There are " + sparkRDD.count() + " contains Spark lines") println("Here are 3 examples:") sparkRDD.take(3).foreach(println) ``` #### 五、Word Count 示例 Word Count 是 Spark 最经典的示例之一...

    Spark RDD弹性分布式数据集

    RDD(Resilient Distributed Datasets弹性分布式数据集)是一个容错的、并行的数据结构,可以简单的把RDD理解成一个提供了许多操作接口的数据集合,和一般数据集不同的是,其实际数据分布存储于一批机器中(内存或...

    spark实验5 rdd编程2.doc

    本实验旨在通过具体的数据处理任务,深入理解Apache Spark中Resilient Distributed Datasets (RDD) 的使用方法及其在解决实际问题中的作用。实验选取了一所大学计算机系的成绩数据作为分析对象,通过对这些数据的...

    hbase-rdd:Spark RDD从HBase读取,写入和删除

    首先,我们需要理解 Spark RDD。RDD 是 Spark 的基本数据抽象,它是不可变的、分区的数据集合,可以在集群中并行操作。RDD 支持两种主要的操作:转换(Transformations)和动作(Actions)。转换创建新的 RDD,而...

    Python数据科学速查表 - Spark RDD 基础1

    在Python数据科学中,PySpark是Apache Spark的Python接口,它允许用户利用Spark的强大功能进行分布式数据处理。PySpark的核心组件之一是Resilient Distributed ...理解并熟练运用这些概念和操作是掌握PySpark的关键。

    Spark RDD 基础

    Apache Spark是一种快速的分布式计算系统,它为大...本文档提供了Spark RDD的基础知识点,为数据分析人员在使用PySpark进行数据处理时提供了基础操作的速查表,帮助他们快速理解和使用PySpark进行大规模数据分析任务。

    Spark RDD是什么?

    Spark 的核心是建立在统一的抽象弹性分布式数据集(Resiliennt ...通俗点来讲,可以将 RDD 理解为一个分布式对象集合,本质上是一个只读的分区记录集合。每个 RDD 可以分成多个分区,每个分区就是一个数据集片

    spark: RDD与DataFrame之间的相互转换方法

    总之,RDD与DataFrame在Spark中的转换是常见的数据处理手段,通过理解它们之间的转换方法,可以在实际的数据处理任务中灵活应用。无论是从性能考虑,还是对操作便捷性的追求,正确选择和转换数据结构,是有效利用...

    spark API RDD

    本文将详细介绍Spark中的RDD API,这些知识点对初学者理解Spark基础和进行实际操作将十分有帮助。 RDD是Spark中用于进行分布式数据处理的基本数据结构。它是一个不可变的分布式对象集合,具有容错性,并且在数据...

    大数据实验报告Windows环境下安装Spark及RDD编程和Spark编程实现wordcount.doc

    本实验主要围绕Windows环境下Spark的安装、RDD编程以及WordCount的实现展开,旨在提升学生对大数据处理工具的理解与应用能力。 一、Spark安装与配置 在Windows 11环境下安装Spark,首先需要准备JDK 1.8、Spark ...

Global site tag (gtag.js) - Google Analytics