本来调研Akka这个并发框架,不知不觉迷上了Scala编程已有一段时间。期间拜读Scala各种书籍,发现在国内实在太小众,Scala融合了面向对象及函数式的特点,有着强大的类型系统。外在来看Scala代码非常简洁并且有不输于动态语言的强大表现力,本文下面通过一个例子谈一谈。
要实现这么一个小功能:
将任意int型转换为如下LED形式的字符串(三行)
' _ _ _ _ _ _ _ _ ' |_||_| ||_ |_ |_| _| _| || | ' _||_| ||_| _| | _||_ ||_|
先来一段中规中矩的Java代码,用二维数组存储0-9的三行写法。
public class ScalaExample { public static void main(String[] args){ System.out.println(num2led(1234)); } private static Map<String, String[]> nums; static { nums = new HashMap<>(); String[][] arrays = {{" _ ", "| |", "|_|"}, {" ", " |", " |"}, {" _ ", " _|", "|_ "}, {" _ ", " _|", " _|"}, {" ", "|_|", " |"}, {" _ ", "|_ ", " _|"}, {" _ ", "|_ ", "|_|"}, {" _ ", " |", " |"}, {" _ ", "|_|", "|_|"}, {" _ ", "|_|", " _|"}}; for(int i = 0;i<arrays.length;i++){ nums.put(String.valueOf(i), arrays[i]); } } public static String num2led(int num ){ ArrayList<String[]> result = new ArrayList<String[]>(); for (char c : String.valueOf(num).toCharArray()){ result.add(nums.get(String.valueOf(c))); } StringBuffer sb = new StringBuffer(); for(int i=0; i<3; i++ ){ for(int j=0; j<result.size(); j++){ sb.append(result.get(j)[i]); } sb.append("\n"); } return sb.substring(0, sb.length()-1).toString(); } }
Scala代码(为简便在终端窗口中运行)
val nums = Map('0' -> List(" _ ", "| |", "|_|"), '1' -> List(" ", " |", " |"), '2' -> List(" _ ", " _|", "|_ "), '3' -> List(" _ ", " _|", " _|"), '4' -> List(" ", "|_|", " |"), '5' -> List(" _ ", "|_ ", " _|"), '6' -> List(" _ ", "|_ ", "|_|"), '7' -> List(" _ ", " |", " |"), '8' -> List(" _ ", "|_|", "|_|"), '9' -> List(" _ ", "|_|", " _|")) def num2led(num: Int) = num.toString().map(nums).transpose.map(_.mkString).mkString("\n") println(num2led(123)
scala构建数据内容相同,执行代码只有一行。考虑到很多朋友不熟悉Scala,分析一下这唯一一句代码。
def num2led(num: Int) = num.toString().map(nums).transpose.map(_.mkString).mkString("\n")
1)num.toString().map(nums)
toString()顾名思义将输入变为字符串,下面是该程序中最神奇的地方,Scala中字符串默认为字符的序列,而通过强大的隐式转换(后面还会讲),自动将字符串拆分成字符,并匹配nums 这个Map对象。
map是函数式语言中的高阶方法,本身具有构建序列的能力,于是得到下面的结果。
------------------------------------------------------------------------------------
Vector(List( , |, |), List( _ , _|, |_ ), List( _ , _|, _|))
------------------------------------------------------------------------------------
2)num.toString().map(nums).transpose
transpose这个方法有翻转矩阵的能力,也就是说将原来的行变成列,以便后面使用。
翻转后的样子:注意List 变成了Vector,这个是自动类型推断出来的。
------------------------------------------------------------------------------------
Vector(Vector( , _ , _ ), Vector( |, _|, _|), Vector( |, |_ , _|))
------------------------------------------------------------------------------------
3)num.toString().map(nums).transpose.map(_.mkString)
又是一个map方法,这个相对来说比较常见,传入一个函数,map负责迭代内部序列并构建新序列。
------------------------------------------------------------------------------------
Vector( _ _ , | _| _|, ||_ _|)
------------------------------------------------------------------------------------
5)num.toString().map(nums).transpose.map(_.mkString).mkString("\n")
最后mkString是序列自带的方法,将内部元素用“”拼接起来。
_ _
| _| _|
||_ _|
非常简练是不是,下面我们用 javap 命令看下这些代码的背后都是如何实现的。
1)num.toString().map(nums)
Scala编译器会将代码做很多加工,这里面 Predef类的fallbackStringCanBuildFrom()方法,和
scala包 对象Predef(改对象与 会在每个Scala程序中自动import,类似于java的java.lang)
implicit def fallbackStringCanBuildFrom[T]: CanBuildFrom[String, T, immutable.IndexedSeq[T]] = new CanBuildFrom[String, T, immutable.IndexedSeq[T]] { def apply(from: String) = immutable.IndexedSeq.newBuilder[T] def apply() = immutable.IndexedSeq.newBuilder[T] }
这个map的参数是一个Map对象,而后面那个map方法参数为 mkString 方法,感觉似乎两个map 的参数完全不同,但是调用的代码却都是上面这段代码!奥秘就在于参数实际类型是CanBuildFrom对象,Scala中方法实际也是对象的一种!
scala.collection包中特质TraversableLike 的通用方法
相关推荐
标题和描述中提到的"flink-1.19.0-bin-scala-2.12.tgz"和"flink-1.16.3-bin-scala-2.12.tgz"是Apache Flink的两个不同版本的二进制发行版。Flink是一个开源的流处理和批处理框架,它提供了低延迟、高吞吐量的数据...
flink-1.9.1-bin-scala_2.11.tgz flink-1.9.1-bin-scala_2.11.tgz flink-1.9.1-bin-scala_2.11.tgz flink-1.9.1-bin-scala_2.11.tgz
flink-1.15.1-bin-scala_2.12.tgz
flink-sql-connector-mysql-cdc-2.2.1.jar flink-connector-elasticsearch7-1.15.0.jar flink-1.15.0-bin-scala_2.12.tgz
适用于CDH5.2 - CDH6.3.2 的 flink版本,FLINK-1.14.3-BIN-SCALA_2.12.tar
- **API 设计**:Scala 版本的 Flink API 具有强大的类型安全性和函数式编程特性,使得代码更简洁、易读。 - **交互式 Shell**:提供了 `flink-sql-cli`,可以直接在命令行界面运行 SQL 查询,方便测试和调试。 4...
Scala 是一种多范式编程语言,广泛用于构建分布式系统,特别是大数据处理框架。它与 Flink 的结合,使得开发者可以利用 Scala 的强大功能编写简洁、高效的流处理作业。 描述中同样提到了“flink-1.14.0-bin-scala_...
Apache Flink(flink-1.14.4-bin-scala_2.12.tgz)是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行...
Scala是一种多范式编程语言,常用于构建大规模数据处理系统,与Flink的结合使得开发者能够利用其强大的函数式编程特性。 标签"flink-1.7.1"进一步确认了这个压缩包属于Flink 1.7.1,这是一个重要的版本里程碑,包含...
flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-...
Scala是一种多范式的编程语言,与Java API相比,它的语法更加简洁,且更适合函数式编程。 8. **部署与运行**:Flink可以本地运行,也可以在分布式环境中如YARN、Kubernetes或独立集群部署。"bin"目录下通常包含启动...
文件名: flink-1.17.1-bin-scala_2.12.tgz 这是 Apache Flink 1.17.1 版本的二进制文件,专为 Scala 2.12 设计。Flink 是一种开源流处理框架,用于大规模数据处理和分析。这个版本包含了最新的功能和修复,提供了更...
4. **Scala API**:`scala_2.12` 表明该版本的 Flink 集成了 Scala 2.12 编程语言。Scala API 提供了丰富的函数式编程接口,使得编写流处理应用更加简洁和直观。 5. **状态后端**:Flink 支持多种状态后端,如内存...
flink集群搭建 包括: 1.flink-1.13.1-bin-scala-2.11 2.hadoop连接器jar包flink-shaded-hadoop-2-uber-2.7.5-10.0 3.kafka连接器jar包flink-connector-kafka_2.11-1.13.1
Scala版本的Flink库使得开发人员能够利用Scala的函数式编程特性,编写简洁、可读性强的代码。 此外,Flink支持多种连接器,如Kafka、HDFS、Cassandra等,可以方便地接入各种数据源和数据接收器。对于实时数据处理,...
Apache Flink(flink-1.15.0-bin-scala_2.12.tgz)是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行...
3. Table & SQL API:提供了一种声明式的方式处理数据,使得开发者可以用 SQL 查询数据流,简化了编程模型。 4. Stateful Processing:Flink 支持状态化处理,允许在处理过程中存储和更新中间结果,为实现复杂的...
fink安装包 下载地址https://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.13.1/flink-1.13.1-bin-scala_2.12.tgz
Apache Flink(flink-1.14.4-bin-scala_2.11.tgz)是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行...
Flink是一个对有界和无界数据流进行状态计算的分布式处理引擎和框架。通俗地讲,Flink就是一个流计算框架,...Flink既可以处理有界的批量数据集,也可以处理无界的实时流数据,为批处理和流处理提供了统一编程模型。