mapPartitions/mapPartitionsWithIndex
这 两个transform中:mapPartitions与map的区别是map中是对每个partition中的iterator执行map操作,对 map过程中的每一条record进行传入的function的处理,而mapPartitions是把partition中整个iterator传给 function进行处理.如果是map操作,你并不能知道这个iterator什么时候结束,但mapPartitions时给你的是一个 iterator,所以你的函数中知道这个iterator什么时候会结束.而mapPartitionsWithIndex的函数是在 mapPartitions的基础上,多了一个传入参数,这个传入参数就是对应的partition的index.
mapPartitions的函数定义:
def mapPartitions[U: ClassTag](
这个函数的定义部分为一个参数,是对应partition的数据的iterator,
f: Iterator[T] => Iterator[U],
这个参数false表示在生成的MapPartitionsRDD中不包含partitioner算子.
preservesPartitioning: Boolean = false): RDD[U] = withScope {
val cleanedF = sc.clean(f)
直接生成一个MapPartitionsRDD,在生成这个rdd时,通过传入的function,这个function与map对应的function不同的是,function直接拿到一个iterator进行操作.
new MapPartitionsRDD(
this,
(context: TaskContext, index: Int, iter: Iterator[T]) => cleanedF(iter),
preservesPartitioning)
}
mapPartitionsWithIndex的函数定义:
这个函数的处理方法可以看到与mapPartitions基本上相同,不同的地方是f(function)的定义部分,此部分多出一个int类型的参数,这个参数是对应的iterator所在的partition的index.
def mapPartitionsWithIndex[U: ClassTag](
f: (Int, Iterator[T]) => Iterator[U],
preservesPartitioning: Boolean = false): RDD[U] = withScope {
val cleanedF = sc.clean(f)
new MapPartitionsRDD(
this,
(context: TaskContext, index: Int, iter: Iterator[T]) => cleanedF(index, iter),
preservesPartitioning)
}
相关推荐
spark-sql_2.11-2.4.0-cdh6.1.1.jar
### Spark升级后遇到`java.lang.NoClassDefFoundError: org/apache/spark/Logging`问题解决方案 #### 一、问题背景及现象 在升级Spark至2.1版本之后,在使用streaming-kafka进行测试时,遇到了`java.lang....
spark-core_2.11-1.6.0.jar spark-core_2.11-1.6.0.jar
spark-core_2.11-2.0.0.jar比spark-core_2.11-1.5.2.jar少了org.apache.spark.Logging.class,故此把缺少的class放到spark-core_2.11-1.5.2.logging.jar里面
mongodb-spark官方连接器,运行spark-submit --packages org.mongodb.spark:mongo-spark-connector_2.11:1.1.0可以自动下载,国内网络不容易下载成功,解压后保存到~/.ivy2目录下即可。
比maven仓库下载快很多
spark_2_7_7
spark-hive_2.11-2.3.0 spark-hive-thriftserver_2.11-2.3.0.jar log4j-2.15.0.jar slf4j-api-1.7.7.jar slf4j-log4j12-1.7.25.jar curator-client-2.4.0.jar curator-framework-2.4.0.jar curator-recipes-2.4.0....
spark-streaming_2.11-2.1.3-SNAPSHOT.jar
mongo-spark-connector_2.11-2.1.2.jar 使用于 java7!
标题中的"SalahEddine_HebaBaze_Spark_CLOUDHPC_spark_spark_python_"暗示了这个压缩包内容可能围绕一个由SalahEddine和HebaBaze共同探讨的Spark项目,重点关注在云计算环境(可能是CLOUDHPC)下的Python编程。...
星火应用商店
spark_2_5_8_online 内网聊天工具 可以是内网供作的人们方便的进行沟通
mongodb spark连接器,适用版本spark2.1.X ,Scala2.11.X, java 6 or later,mongodb 2.6 or later,请根据上面的版本选择,不然会报各种错误
spark-tags_2.11-2.1.3-SNAPSHOT.jar
spark-sql_2.11-2.1.3-SNAPSHOT_bak.jar
spark 读取excel 的jar 包
spark-streaming_2.12-2.4.0.jar包,可以使用
SPARK2_ON_YARN-2.4.0 jar包下载
博客https://blog.csdn.net/lsshlsw/article/details/82670508 spark_prometheus_metrics.json