Sample是对rdd中的数据集进行采样,并生成一个新的RDD,这个新的RDD只有原来RDD的部分数据,这个保留的数据集大小由fraction来进行控制,这个分析中,不分析sample的两个算法的具体实现,如果后期有必要时,可以分析这两个算法的具体的实现.
首先,先看看sample的实现代码:
def sample(
withReplacement: Boolean,
fraction: Double,
seed: Long = Utils.random.nextLong): RDD[T] = withScope {
require(fraction >= 0.0, "Negative fraction value: " + fraction)
if (withReplacement) {
new PartitionwiseSampledRDD[T, T](this, new PoissonSampler[T](fraction), true,
seed)
} else {
new PartitionwiseSampledRDD[T, T](this, new BernoulliSampler[T](fraction),
true, seed)
}
}
代码中的参数说明:
withReplacement=>,这个值如果是true时,采用PoissonSampler取样器(Poisson分布),
否则使用BernoulliSampler的取样器.
Fraction=>,一个大于0,小于或等于1的小数值,用于控制要读取的数据所占整个数据集的概率.
Seed=>,这个值如果没有传入,默认值是一个0~Long.maxvalue之间的整数.
流程说明:
在执行simple的transform时,会直接生成一个PartitionwiseSampledRDD的RDD实例,
生成PartitionwiseSampledRDD实例时,传入的第三个参数true表示Partitioner(partition的分区算子)使用上层依赖RDD的实例.
这个实例中的compute函数,针对RDD的上层依赖的iterator执行迭代时,会通过传入的sampler的实例,对数据进行取样操作,并返回取样的数据.
override def compute(splitIn: Partition, context: TaskContext): Iterator[U] = {
val split = splitIn.asInstanceOf[PartitionwiseSampledRDDPartition]
val thisSampler = sampler.clone
这里的seed根据传入的seed,每一个partition取出一个0~seed之间的一个随机的整数值(每个partition的seed的值有可能是不一样的,很大程度上,可能是不一样的.).
thisSampler.setSeed(split.seed)
通过PoissonSampler或者BernoulliSampler的实例中的sample函数得到要返回的数据.
这里相当于是对上一个RDD中再嵌套了一层函数.
thisSampler.sample(firstParent[T].iterator(split.prev, context))
}
针对每一个partition随机生成的seed的值的部分代码:
override def getPartitions: Array[Partition] = {
val random = new Random(seed)
firstParent[T].partitions.map(x => new PartitionwiseSampledRDDPartition(x,
random.nextLong()))
}
相关推荐
spark-sql_2.11-2.4.0-cdh6.1.1.jar
### Spark升级后遇到`java.lang.NoClassDefFoundError: org/apache/spark/Logging`问题解决方案 #### 一、问题背景及现象 在升级Spark至2.1版本之后,在使用streaming-kafka进行测试时,遇到了`java.lang....
spark-core_2.11-1.6.0.jar spark-core_2.11-1.6.0.jar
spark-core_2.11-2.0.0.jar比spark-core_2.11-1.5.2.jar少了org.apache.spark.Logging.class,故此把缺少的class放到spark-core_2.11-1.5.2.logging.jar里面
spark_2_7_7
mongodb-spark官方连接器,运行spark-submit --packages org.mongodb.spark:mongo-spark-connector_2.11:1.1.0可以自动下载,国内网络不容易下载成功,解压后保存到~/.ivy2目录下即可。
比maven仓库下载快很多
spark-streaming_2.11-2.1.3-SNAPSHOT.jar
spark-hive_2.11-2.3.0 spark-hive-thriftserver_2.11-2.3.0.jar log4j-2.15.0.jar slf4j-api-1.7.7.jar slf4j-log4j12-1.7.25.jar curator-client-2.4.0.jar curator-framework-2.4.0.jar curator-recipes-2.4.0....
mongo-spark-connector_2.11-2.1.2.jar 使用于 java7!
标题中的"SalahEddine_HebaBaze_Spark_CLOUDHPC_spark_spark_python_"暗示了这个压缩包内容可能围绕一个由SalahEddine和HebaBaze共同探讨的Spark项目,重点关注在云计算环境(可能是CLOUDHPC)下的Python编程。...
spark_2_5_8_online 内网聊天工具 可以是内网供作的人们方便的进行沟通
spark-tags_2.11-2.1.3-SNAPSHOT.jar
mongodb spark连接器,适用版本spark2.1.X ,Scala2.11.X, java 6 or later,mongodb 2.6 or later,请根据上面的版本选择,不然会报各种错误
spark-sql_2.11-2.1.3-SNAPSHOT_bak.jar
spark 读取excel 的jar 包
spark-streaming_2.12-2.4.0.jar包,可以使用
博客https://blog.csdn.net/lsshlsw/article/details/82670508 spark_prometheus_metrics.json
SPARK2_ON_YARN-2.4.0 jar包下载
pyspark访问hbase2报错的解决方案,下载spark2.4.3的源码重新打包。