`
eksliang
  • 浏览: 598871 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

spark transformation算子

阅读更多

转载请出自出处:http://eksliang.iteye.com/blog/2309311

一、什么是RDD算子

答:所谓RDD算子,就是RDD中定义的函数,可以对RDD中的元素进行转换和操作。

 

二.算子的分类

算子分为两类:转换算子(Transformation)和行动算子(Action)。

  1. 转换算子(Transformation):操作时延迟计算的,也就是一个RDD转换为另外一个RDD不是马上执行的,需要等到行动算子(Action)执行的时候,才会真正触发。
  2. 行动算子(Action):Action算子的执行会触发Spark提交作业。

三.导包

本地导入目前spark最新版本,spark1.6进行测试

 

		<dependency>
			<groupId>org.apache.spark</groupId>
			<artifactId>spark-core_2.10</artifactId>
			<version>1.6.0</version>
		</dependency>
		<dependency>
			<groupId>org.apache.spark</groupId>
			<artifactId>spark-sql_2.10</artifactId>
			<version>1.6.0</version>
		</dependency>
		<dependency>
			<groupId>org.apache.hadoop</groupId>
			<artifactId>hadoop-client</artifactId>
			<version>2.5.2</version>
		</dependency>

 

 

 

四.转换算子(Transformation)

温馨提示:这里演示使用javaAPI来使用算子,在javaAPI中目前没有处理key-value的算子,只有处理value数据类型的算子,也就是说如下API没有提供

  • mapValues()
  • combineByKey()
  • reduceByKey()
  • partitionBy()
  • Cogroup()
  • Join()

4.1.输入分区与输出分区一对一型

4.1.1.map()

将原来RDD的每个数据项通过map中的用户自定义函数f映射转变为一个新的元素。源码中的map算子相当于初始化一个RDD,新RDD叫作MappedRDD(this, sc.clean(f))。

图(4-1-1)中的每个方框表示一个RDD分区,左侧的分区经过用户自定义函数f:T->U映射为右侧的新的RDD分区。但是实际只有等到Action算子触发后,这个f函数才会和其他函数在一个Stage中对数据进行运算。V1输入f转换输出V’1。



图(4-1-1) 

演示代码如下:

 

/**
 * 通过Map算子,将RDD中json字符串对象转换为java对象
 * 
 * @author Ickes
 *
 */
public class MapDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("map").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<String> data = Arrays.asList(
				"{'id':1,'name':'xl1','pwd':'xl123','sex':2}",
				"{'id':2,'name':'xl2','pwd':'xl123','sex':1}",
				"{'id':3,'name':'xl3','pwd':'xl123','sex':2}");
		JavaRDD<String> rddData = sc.parallelize(data);
		rddData.map(new Function<String, User>() {
			@Override
			public User call(String v) throws Exception {
				Gson gson = new Gson();
				return gson.fromJson(v, User.class);
			}
		}).foreach(System.out::println);
	}
}

 

 打印结果如下:

 

 

User [id=1, name=xl1, pwd=xl123, sex=2]
User [id=2, name=xl2, pwd=xl123, sex=1]
User [id=3, name=xl3, pwd=xl123, sex=2]

 

 

 

4.1.2.flatMap()

将原来RDD中的每个元素通过函数f转换为新的集合,并将生成的RDD的每个集合中的元素合并为一个集合。内部创建 FlatMappedRDD(this, sc.clean(f))。

如下图(4-1-2)中所示:



图(4-1-2)

演示代码如下:

 

/**
 * 将rdd中的元素,通过逗号分隔;
 * 原始RDD中仅有三个元素,通过flatMap后,新的RDD中有9个元素
 * @author Ickes
 *
 */
public class FlatMapDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("flatMap").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<String> data = Arrays.asList(
				"aa,bb,cc",
				"cxf,spring,struts2",
				"java,C++,javaScript");
		JavaRDD<String> rddData = sc.parallelize(data);
		rddData.flatMap(new FlatMapFunction<String,String>() {
			@Override
			public Iterable<String> call(String t) throws Exception {
				List<String> list= Arrays.asList(t.split(","));
				return list;
			}
		}).foreach(System.out::println);
	}
}

 返回结果如下:

 

 

aa
bb
cc
cxf
spring
struts2
java
C++
javaScript

 

 

4.1.3.mapPartitions()

mapPartitions函数获取到每个分区的迭代器,在函数中通过这个分区整体的迭代器对整个分区的元素进行操作。内部实现是生成MapPartitionsRDD。图(4-1-3)中的方框代表一个RDD分区。

 

图(4-1-3)中,用户通过函数f (iter )=>iter.filter(_>=3)对分区中的所有数据进行过滤,>=3的数据保留。一个方块代表一个RDD分区,含有1、2、3的分区过滤只剩下元素3。



图(4-1-3)

演示代码如下:

 

/**
 * MapPartitions 算子
 * @author Ickes
 */
public class MapPartitionsDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("MapPartitions").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data = Arrays.asList(1,2,3,4,5,6,7,8);
		JavaRDD<Integer> rddData = sc.parallelize(data);
		rddData.mapPartitions(new FlatMapFunction<Iterator<Integer>,Integer>() {
			/**
			 * 其实他跟map的作用一样,区别在于他的输入是RDD中分区的迭代器。
			 */
			@Override
			public Iterable<Integer> call(Iterator<Integer> t) throws Exception {
				List<Integer> list = new ArrayList<Integer>();
				while(t.hasNext()){
					int num = t.next();
					if(num > 3){
						list.add(num);
					}
				}
				return list;
			}
		 }).foreach(System.out::println);
	}
}

 返回结果:

 

 

4
5
6
7
8

 

 

4.2.输入分区与输出分区多对一型 

4.2.1.union()

使用union函数时需要保证两个RDD元素的数据类型相同,返回的RDD数据类型和被合并的RDD元素数据类型相同,并不进行去重操作,保存所有元素。如果想去重,可以使用distinct()。

 

图(4-2-1)中左侧的大方框代表两个RDD,大方框内的小方框代表RDD的分区。右侧大方框代表合并后的RDD,大方框内的小方框代表分区。含有V1,V2…U4的RDD和含有V1,V8…U8的RDD合并所有元素形成一个RDD。V1、V1、V2、V8形成一个分区,其他元素同理进行合并。



 图(4-2-1)

演示代码如下:

 

/**
 * Union算子,合并算子
 * @author Ickes
 */
public class UnionDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("Union").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data1 = Arrays.asList(1,2,3,4,5);
		List<Integer> data2 = Arrays.asList(4,5,6,7,8);
		JavaRDD<Integer> rddData1 = sc.parallelize(data1);
		JavaRDD<Integer> rddData2 = sc.parallelize(data2);
		
		rddData1.union(rddData2).foreach(System.out::println);
	}
}

 返回结果如下:

 

 

1
2
3
4
5

4
5
6
7
8

 

 

4.2.2.cartesian()

对两个RDD内的所有元素进行笛卡尔积操作。操作后,内部实现返回CartesianRDD。图(4-2-2)中左侧的大方框代表两个RDD,大方框内的小方框代表RDD的分区。右侧大方框代表合并后的RDD,大方框内的小方框代表分区。

图(4-2-2)中的大方框代表RDD,大方框中的小方框代表RDD分区。例如,V1和另一个RDD中的W1、W2、Q5进行笛卡尔积运算形成(V1,W1)、(V1,W2)、(V1,Q5)。



 图(4-2-2)

演示代码如下:

 

/**
 * Cartesian 算子,或者笛卡尔积算子
 * @author Ickes
 */
public class CartesianDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("Cartesian").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data1 = Arrays.asList(1,2,3);
		List<String> data2 = Arrays.asList("aa","bb","cc");
		JavaRDD<Integer> rddData1 = sc.parallelize(data1);
		JavaRDD<String> rddData2 = sc.parallelize(data2);
		
		rddData1.cartesian(rddData2).foreach(System.out::println);
	}
}

 返回结果如下:

 

 

(1,aa)
(1,bb)
(1,cc)
(2,aa)
(2,bb)
(2,cc)
(3,aa)
(3,bb)
(3,cc)

 

 

4.3.输入分区与输出分区多对多型

4.3.1.groupBy()

将元素通过函数生成相应的Key,数据就转化为Key-Value 格式,之后将Key相同的元素分为一组。

图(4-3-1)中的方框代表一个RDD分区,相同key的元素合并到一个组。例如,V1,V2合并为一个Key-Value对,其中key为“V”,Value为“V1,V2”,形成V,Seq(V1,V2)。



 

图(4-3-1)

演示代码如下所示:

 

/**
 * GroupBy算子:分组算子
 * @author Ickes
 *
 */
public class GroupByDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("GroupBy").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data1 = Arrays.asList(1,2,3,1,2,1);
		JavaRDD<Integer> rddData = sc.parallelize(data1);
		//jdk1.7
		rddData.groupBy(new Function<Integer,String>() {
			@Override
			public String call(Integer v) throws Exception {
				String s = "key"+v;
				return s;
			}
		}).foreach(System.out::println);
		//jdk1.8
		rddData.groupBy(e -> {return "key"+e;}).foreach(System.out::println);
	}
}

 返回结果如下所示:

 

 

(key2,[2, 2])
(key3,[3])
(key1,[1, 1, 1])

 

 

 

4.4.输出分区为输入分区子集型

4.4.1.filter()

filter的功能是对元素进行过滤,对每个元素应用f函数,返回值为true的元素在RDD中保留,返回为false的将过滤掉。内部实现相当于生成FilteredRDD(this,sc.clean(f))。

 

图4-4-1中的每个方框代表一个RDD分区。T可以是任意的类型。通过用户自定义的过滤函数f,对每个数据项进行操作,将满足条件,返回结果为true的数据项保留。例如,过滤掉V2、V3保留了V1,将区分命名为V1'。



 图(4-4-1)

 

演示代码如下:

 

/**
 * Filter算子,过滤算子
 * 
 * @author Ickes
 *
 */
public class FilterDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("GroupBy").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data = Arrays.asList(1, 2, 3, 7, 4, 5, 8);
		JavaRDD<Integer> rddData = sc.parallelize(data);
		// 将RDD中小于3的元素进行过滤
		// jdk1.8以下
		rddData.filter(new Function<Integer, Boolean>() {
			@Override
			public Boolean call(Integer v) throws Exception {
				if (v >= 3) {
					return true;
				}
				return false;
			}
		}).foreach(System.out::println);
		// jdk1.8
		rddData.filter(e -> e >= 3).foreach(System.out::println);
	}
}

 返回结果如下所示:

 

 

3
7
4
5
8

 

 

4.4.2.distinct()

distinct将RDD中的元素进行去重操作。图(4-4-2)中的方框代表RDD分区。

图(4-4-2)中的每个方框代表一个分区,通过distinct函数,将数据去重。例如,重复数据V1、V1去重后只保留一份V1。



 

 图(4-4-2)

演示代码如下所示:

 

/**
 * distinct算子,去重操作
 * @author Ickes
 *
 */
public class DistinctDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("Distinct").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data = Arrays.asList(1,2,3,1,2,1);
		JavaRDD<Integer> rddData = sc.parallelize(data);
		rddData.distinct().foreach(System.out::println);
	}
}

 返回结果如所示:

 

 

1
3
2

 

 

4.4.3.subtract()

subtract相当于进行集合的差操作,RDD 1去除RDD 1和RDD 2交集中的所有元素。

图(4-4-3)中左侧的大方框代表两个RDD,大方框内的小方框代表RDD的分区。右侧大方框代表合并后的RDD,大方框内的小方框代表分区。V1在两个RDD中均有,根据差集运算规则,新RDD不保留,V2在第一个RDD有,第二个RDD没有,则在新RDD元素中包含V2。



 图(4-4-3)

演示代码如下所示:

 

/**
 * Subtract算子,用于求两个集合的差集,要求两个集合中的元素类型保持一致
 * @author Ickes
 *
 */
public class SubtractDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("Subtract").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data1 = Arrays.asList(1,2,3,4,5);
		List<Integer> data2 = Arrays.asList(4,5,6,7,8);
		JavaRDD<Integer> rddData1 = sc.parallelize(data1);
		JavaRDD<Integer> rddData2 = sc.parallelize(data2);
		
		rddData1.subtract(rddData2).foreach(System.out::println);
	}
}

 返回结果如下所示:

 

 

1
2
3

 

 

4.4.4.sample()

sample将RDD这个集合内的元素进行采样,获取所有元素的子集。用户可以设定是否有放回的抽样、百分比、随机种子,进而决定采样方式。

* @第一个参数:withReplacement

* true:表示有放回的抽样;false:表示无放回的抽样;

* @第二个参数:fraction

* 抽取的百分比,例如0.5就是抽取的50%的数据;

* @第三个参数:seed

* 随机种子;

图(4-4-4)中的每个方框是一个RDD分区。通过sample函数,采样50%的数据。V1、V2、U1、U2、U3、U4采样出数据V1和U1、U2,形成新的RDD。



 图(4-4-4)

演示代码如下所示:

 

/**
 * Sample算子,抽取样本的算子
 * @author Ickes
 * 
 */
public class SampleDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("Sample").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data = Arrays.asList(1,2,3,4,5,6);
		JavaRDD<Integer> rddData = sc.parallelize(data);
		/*
		 * @第一个参数:withReplacement
		 * true:表示有放回的抽样;false:表示无放回的抽样;
		 * @第二个参数:fraction
		 * 抽取的百分比,例如下面的0.5就是抽取的50%的数据;
		 * @第三个参数:seed
		 * 随机种子;
		 */
		rddData.sample(true,0.5,9).foreach(System.out::println);
	}
}

 返回结果如下所示:

 

 

1
1
3
5

 

 

4.4.5.takeSample()

takeSample()函数和上面的sample函数是一个原理,但是不使用相对比例采样,而是按设定的采样个数进行采样,同时返回结果不再是RDD,而是相当于对采样后的数据进行Collect(),返回结果的集合为单机的数组。

图(4-4-5) 中左侧的方框代表分布式的各个节点上的分区,右侧方框代表单机上返回的结果数组。通过takeSample对数据采样,设置为采样一份数据,返回结果为V1。



 图(4-4-5)

演示代码如下所示:

 

/**
 * TakeSample算子
 * @author Ickes
 */
public class TakeSampleDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("TakeSample").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data = Arrays.asList(1,2,3,4,5,6);
		JavaRDD<Integer> rddData = sc.parallelize(data);
		/*
		 * @第一个参数:withReplacement
		 * true:表示有放回的抽样;false:表示无放回的抽样;
		 * @第二个参数:num
		 * 抽取样本的个数
		 */
		rddData.takeSample(true,2).forEach(System.out::println);
	}
}

 返回结果如下所示:

 

 

6
1

 

 

4.5.Cache型

4.5.1.cache()

cache将RDD元素从磁盘缓存到内存,相当于persist(MEMORY_ONLY)函数的功能。

 

4.5.2.persist()

persist函数对RDD进行缓存操作。数据缓存在哪里由StorageLevel枚举类型确定。有以下几种类型的组合,如图(4-5-2),DISK代表磁盘,MEMORY代表内存,SER代表数据是否进行序列化存储。

 图(4-5-2)

例如,MEMORY_AND_DISK_SER代表数据可以存储在内存和磁盘,并且以序列化的方式存储。其他同理。

图(4-5-3)中的方框代表RDD分区。disk代表存储在磁盘,mem代表存储在内存。数据最初全部存储在磁盘,通过persist(MEMORY_AND_DISK)将数据缓存到内存,但是有的分区无法容纳在内存,例如:图(4-5-3)中将含有V1,V2,V3的RDD存储到磁盘,将含有U1,U2的RDD仍旧存储在内存

图(4-5-3)


缓存的演示代码如下所示:

/**
 * Cache算子,缓存算子
 * @author Ickes
 *
 */
public class CacheDemo {
	public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("Cache").setMaster(
				"local");
		JavaSparkContext sc = new JavaSparkContext(sparkConf);
		List<Integer> data = Arrays.asList(1,2,3,4,5,6);
		JavaRDD<Integer> rddData1 = sc.parallelize(data);
		JavaRDD<Integer> rddData2 = sc.parallelize(data);
		//cache缓存
		rddData1.cache().foreach(System.out::println);
		//persist缓存
		rddData2.persist(StorageLevel.MEMORY_AND_DISK()).foreach(System.out::println);
	}
}

  

  • 大小: 6.7 KB
  • 大小: 7.1 KB
  • 大小: 6.8 KB
  • 大小: 15.8 KB
  • 大小: 21.8 KB
  • 大小: 26.4 KB
  • 大小: 9.6 KB
  • 大小: 12.7 KB
  • 大小: 15 KB
  • 大小: 7.9 KB
  • 大小: 18.7 KB
  • 大小: 32.1 KB
  • 大小: 12.5 KB
分享到:
评论

相关推荐

    Spark常用的算子以及Scala函数总结.pdf

    Spark 算子大致分为两类:Transformation 算子和 Action 算子。Transformation 算子用于对 RDD 进行变换操作,例如 map、filter 等,这些操作是延迟计算的,只有在触发 Action 算子时才真正执行。Action 算子会触发 ...

    Spark算子的详细使用方法

    Spark 算子可以分为两类:Transformation 变换/转换算子和 Action 行动算子。 Transformation 变换/转换算子并不触发提交作业,完成作业中间过程处理。Action 行动算子会触发 SparkContext 提交 Job 作业。 ...

    25个经典Spark算子的JAVA实现

    这些算子主要分为两大类:转换算子(Transformation)和行动算子(Action)。转换算子用于创建新的RDD,而行动算子则用于触发计算并将结果返回给驱动程序或存储到外部系统中。 ### 转换算子详解 #### 1. Map ...

    Spark Transformation和Action算子速查表.pdf

    **Transformation算子**:这些算子用于创建一个新的RDD。它们的操作是惰性的,意味着它们不会立即执行,而是在后续的Action算子被调用时才真正执行。以下是一些常用的Transformation算子及其功能说明: 1. **map...

    spark算子基础讲义1

    1. 转换算子(Transformation):将一个RDD 转换为另一个RDD,例如 map、filter、flatmap 等。 2. 动作算子(Action):将RDD 转换为非RDD 的结果,例如 count、collect、foreach 等。 3. 聚合算子(Aggregation):...

    SparkTransformation和Action算子速查表.zip

    Transformation算子是延迟执行的,它们不立即执行任何操作,而是创建一个新的DAG(有向无环图)来表示数据流。这些算子主要包括: 1. **map()**:对数据集中的每个元素应用一个函数,生成新的数据集。 2. **flatMap...

    Spark-Transformation和Action算子.md

    ### Spark Transformation和Action算子详解 #### 一、Transformation **Transformation** 在 Spark 中是指对 RDD(弹性分布式数据集)进行的各种转换操作。这些操作并不会立即执行,而是延迟执行,直到遇到 Action...

    如何在 Spark 中使用算子来处理数据

    **Spark 算子**是 Spark 处理大规模数据的核心接口之一,主要分为两大类:转换算子(Transformation)和行动算子(Action)。这两类算子协同工作,帮助用户高效地处理大规模数据集。 ### 转换算子(Transformation...

    transformation、action算子代码示例

    Transformation算子用于创建新的RDD,但并不会立即执行任何计算。这些操作包括`map()`、`filter()`、`flatMap()`、`groupByKey()`、`reduceByKey()`等。例如,`map()`函数可以将每个元素应用一个函数进行转换,`...

    java-spark中各种常用算子的写法示例

    Spark 中的算子可以分为两大类:Transformation 变换/转换算子和 Action 行动算子。Transformation 算子并不触发提交作业,完成作业中间过程处理,而 Action 算子会触发 SparkContext 提交 Job 作业。 在 Java 中...

    spark官方文档.docx

    例如,读取`README.md`文件后,你可以执行action算子如`count()`获取行数,或使用transformation算子如`filter()`筛选出包含特定字符串的行。在本例中,`filter(line =&gt; line.contains("Spark"))`返回一个新Dataset...

    storm与spark简介

    - **Key-Value 型 Transformation 算子** 包括 `mapValues`, `combineByKey`, `reduceByKey`, `partitionBy`, `cogroup`, `join`, `leftOuterJoin`, 和 `rightOuterJoin`。 - **Action 算子** 如 `foreach`, `...

    Apache Spark常见面试题

    例如,`map`、`filter`、`reduceByKey`等都是典型的Transformation算子,它们不会立即执行,而是在触发Action操作时才会被执行。 - **其他代码**:除了Transformation算子之外,大部分代码(如变量定义、函数声明等...

    Spark大数据处理:技术、应用与性能优化(全)(更多IT教程 微信dtygxmb).docx

    Transformation算子创建新的RDD,而Action算子触发实际的计算并可能返回结果给驱动程序。 Spark的工作机制包括应用执行、调度与任务分配、I/O、通信以及容错等方面。其中,调度系统使用Stage和TaskSetManager来管理...

    Spark应用程序WebUI详解.docx

    - **Stage 划分**:当使用 repartition 算子时会导致 shuffle,从而将 Stage 一分为二。例如,在 Spark shell 中运行以下代码: ```scala textFile.repartition(4).count() ``` - **Task 组成**:在 Web UI 中...

    spark-scala-api

    1. **Spark编程模型**:Spark基于DAG(有向无环图)的任务调度机制,使得数据处理任务可以被分解为多个阶段,每个阶段由一系列的算子(如map、filter、reduce等)组成。这种模型提高了任务执行的效率,因为重复计算...

    Spark大数据分析平台

    - **RDD (Resilient Distributed Dataset)**: 弹性分布式数据集,是 Spark 最核心的数据抽象,可以通过数据集转换生成或者由其他 RDD 经过算子操作得到。 #### 三、Spark 应用程序的构建 1. **初始化 SparkContext...

    Spark核心技术原理透视一Spark运行原理.pdf

    6. RDD:弹性分布式数据集,Spark的基本计算单元,可以通过一系列算子进行操作(主要有Transformation和Action操作)。 7. 窄依赖:父RDD每一个分区最多被一个子RDD的分区所用;表现为一个父RDD的分区对应于一个子...

    Spark-内核源码解析.docx

    RDD(Resilient Distributed Dataset)是 Spark 的基本计算单元,可以通过一系列算子进行操作(主要有 Transformation 和 Action 操作)。RDD 是 Spark 中的核心概念,可以被分区并行处理,提高了数据处理的速度和...

    合肥工业大学分布式程序设计实验报告

    Spark的算子分为转换(Transformation)和动作(Action)两大类。转换不立即触发计算,而是创建一个新的数据集,而动作则会启动实际的计算并可能返回结果。 1. 任务描述1: 学生被要求理解并应用基本的转换算子,...

Global site tag (gtag.js) - Google Analytics