`
duanhengbin
  • 浏览: 384823 次
  • 性别: Icon_minigender_1
  • 来自: 成都
社区版块
存档分类
最新评论

重剑无锋--小谈Scala编程

 
阅读更多

本来调研Akka这个并发框架,不知不觉迷上了Scala编程已有一段时间。期间拜读Scala各种书籍,发现在国内实在太小众,Scala融合了面向对象及函数式的特点,有着强大的类型系统。外在来看Scala代码非常简洁并且有不输于动态语言的强大表现力,本文下面通过一个例子谈一谈。

要实现这么一个小功能:
    将任意int型转换为如下LED形式的字符串(三行)

  '     _  _  _  _  _     _  _     _
  '    |_||_|  ||_ |_ |_| _| _|  || |
  '     _||_|  ||_| _|  | _||_   ||_|
 
先来一段中规中矩的Java代码,用二维数组存储0-9的三行写法。

 

public class ScalaExample {

    public static void main(String[] args){
        System.out.println(num2led(1234));
    }
   
    private static Map<String, String[]> nums;
    static {
        nums = new HashMap<>();
        String[][] arrays = {{" _ ", "| |", "|_|"},
                {"   ", "  |", "  |"},
                {" _ ", " _|", "|_ "},
                {" _ ", " _|", " _|"},
                {"   ", "|_|", "  |"},
                {" _ ", "|_ ", " _|"},
                {" _ ", "|_ ", "|_|"},
                {" _ ", "  |", "  |"},
                {" _ ", "|_|", "|_|"},
                {" _ ", "|_|", " _|"}};
        for(int i = 0;i<arrays.length;i++){
            nums.put(String.valueOf(i), arrays[i]);
        }
    }
   
    public static String num2led(int num ){
        ArrayList<String[]> result = new ArrayList<String[]>();
        for (char c : String.valueOf(num).toCharArray()){
            result.add(nums.get(String.valueOf(c)));
        }
        StringBuffer sb = new StringBuffer();
        for(int i=0; i<3; i++ ){
            for(int j=0; j<result.size(); j++){
                sb.append(result.get(j)[i]);
            }
            sb.append("\n");
        }
        return sb.substring(0, sb.length()-1).toString();
    }
}

 
Scala代码(为简便在终端窗口中运行)

 

val nums = Map('0' -> List(" _ ", "| |", "|_|"),
  '1' -> List("   ", "  |", "  |"),
  '2' -> List(" _ ", " _|", "|_ "),
  '3' -> List(" _ ", " _|", " _|"),
  '4' -> List("   ", "|_|", "  |"),
  '5' -> List(" _ ", "|_ ", " _|"),
  '6' -> List(" _ ", "|_ ", "|_|"),
  '7' -> List(" _ ", "  |", "  |"),
  '8' -> List(" _ ", "|_|", "|_|"),
  '9' -> List(" _ ", "|_|", " _|"))

def num2led(num: Int) = num.toString().map(nums).transpose.map(_.mkString).mkString("\n")

println(num2led(123)
 

 

scala构建数据内容相同,执行代码只有一行。考虑到很多朋友不熟悉Scala,分析一下这唯一一句代码。

def num2led(num: Int) = num.toString().map(nums).transpose.map(_.mkString).mkString("\n")


1)num.toString().map(nums)
 toString()顾名思义将输入变为字符串,下面是该程序中最神奇的地方,Scala中字符串默认为字符的序列,而通过强大的隐式转换(后面还会讲),自动将字符串拆分成字符,并匹配nums 这个Map对象。
 map是函数式语言中的高阶方法,本身具有构建序列的能力,于是得到下面的结果。

------------------------------------------------------------------------------------

Vector(List(   ,   |,   |), List( _ ,  _|, |_ ), List( _ ,  _|,  _|))

------------------------------------------------------------------------------------

2)num.toString().map(nums).transpose

transpose这个方法有翻转矩阵的能力,也就是说将原来的行变成列,以便后面使用。
翻转后的样子:注意List 变成了Vector,这个是自动类型推断出来的。

------------------------------------------------------------------------------------
Vector(Vector(   ,  _ ,  _ ), Vector(  |,  _|,  _|), Vector(  |, |_ ,  _|))

------------------------------------------------------------------------------------
3)num.toString().map(nums).transpose.map(_.mkString)
又是一个map方法,这个相对来说比较常见,传入一个函数,map负责迭代内部序列并构建新序列。
------------------------------------------------------------------------------------
Vector(    _  _ ,   | _| _|,   ||_  _|)

------------------------------------------------------------------------------------

5)num.toString().map(nums).transpose.map(_.mkString).mkString("\n")
最后mkString是序列自带的方法,将内部元素用“”拼接起来。
    _  _
  | _| _|
  ||_  _|

非常简练是不是,下面我们用 javap 命令看下这些代码的背后都是如何实现的。

 
1)num.toString().map(nums)
Scala编译器会将代码做很多加工,这里面 Predef类的fallbackStringCanBuildFrom()方法,和
scala包 对象Predef(改对象与 会在每个Scala程序中自动import,类似于java的java.lang)

 

  implicit def fallbackStringCanBuildFrom[T]: CanBuildFrom[String, T, immutable.IndexedSeq[T]] =
    new CanBuildFrom[String, T, immutable.IndexedSeq[T]] {
      def apply(from: String) = immutable.IndexedSeq.newBuilder[T]
      def apply() = immutable.IndexedSeq.newBuilder[T]
    }
 
这个map的参数是一个Map对象,而后面那个map方法参数为 mkString 方法,感觉似乎两个map 的参数完全不同,但是调用的代码却都是上面这段代码!奥秘就在于参数实际类型是CanBuildFrom对象,Scala中方法实际也是对象的一种!

scala.collection包中特质TraversableLike 的通用方法
def map[B, That](f: A => B)(implicit bf: CanBuildFrom[Repr, B, That]): That = {
    def builder = { // extracted to keep method size under 35 bytes, so that it can be JIT-inlined
      val b = bf(repr)
      b.sizeHint(this)
      b
    }
    val b = builder
    for (x <- this) b += f(x)
    b.result
  }

2)num.toString().map(nums).transpose
位于scala/collection/generic/GenericTraversableTemplate包中:

 

 @migration("`transpose` throws an `IllegalArgumentException` if collections are not uniformly sized.", "2.9.0")
  def transpose[B](implicit asTraversable: A => /*<:<!!!*/ GenTraversableOnce[B]): CC[CC[B] @uncheckedVariance] = {
    if (isEmpty)
      return genericBuilder[CC[B]].result()

    def fail = throw new IllegalArgumentException("transpose requires all collections have the same size")

    val headSize = asTraversable(head).size
    val bs: IndexedSeq[Builder[B, CC[B]]] = IndexedSeq.fill(headSize)(genericBuilder[B])
    for (xs <- sequential) {
      var i = 0
      for (x <- asTraversable(xs).seq) {
        if (i >= headSize) fail
        bs(i) += x
        i += 1
      }
      if (i != headSize)
        fail
    }
    val bb = genericBuilder[CC[B]]
    for (b <- bs) bb += b.result
    bb.result()
  }

def genericBuilder[B]: Builder[B, CC[B]] = companion.newBuilder[B]

 

 GenericXXX类是Scala集合框架中的共通部件,同时提供给 一般集合和并行集合。代码较为抽象,不做太深入的解读,大家可以看到使用了很多 Builder,Builder构建器是Scala标准库中非常常见的,因为函数式的方法几乎全都具有生成新的序列或其他对象的能力。

3)num.toString().map(nums).transpose.map(_.mkString)
4)num.toString().map(nums).transpose.map(_.mkString).mkString("\n")
这两步都调用了 mkString方法,前者不带参数且本身作为map的参数(函数是头等对象),后者有作为分割符的参数。

scala/collection包 TraversableOnce对象 

  def addString(b: StringBuilder, start: String, sep: String, end: String): StringBuilder = {
    var first = true

    b append start
    for (x <- self) {
      if (first) {
        b append x
        first = false
      }
      else {
        b append sep
        b append x
      }
    }
    b append end

    b
  }

  def mkString(start: String, sep: String, end: String): String =
    addString(new StringBuilder(), start, sep, end).toString

  def mkString(sep: String): String = mkString("", sep, "")

  def mkString: String = mkString("")

 

 mkString是非常高频使用的代码。

总结一下,Scala代码简洁而强大有两个根本原因 一是编译器的类型推导非常强大,而是无处不在的隐式转换极大的简化了不必要的代码。

 

另,所谓“重剑”有两层含义一是指威力巨大,实现同样功能的Scala代码一般只有Java代码的1/2到1/10,另一层由于Scala倾向于使用不变量,开销上要大一些(有很多优化策略,这个我们后面有时间在说吧)。

  • 大小: 179.3 KB
分享到:
评论

相关推荐

    flink-1.19.0-bin-scala-2.12.tgz flink-1.16.3-bin-scala-2.12.tgz

    标题和描述中提到的"flink-1.19.0-bin-scala-2.12.tgz"和"flink-1.16.3-bin-scala-2.12.tgz"是Apache Flink的两个不同版本的二进制发行版。Flink是一个开源的流处理和批处理框架,它提供了低延迟、高吞吐量的数据...

    flink-1.9.1-bin-scala_2.11.tgz

    flink-1.9.1-bin-scala_2.11.tgz flink-1.9.1-bin-scala_2.11.tgz flink-1.9.1-bin-scala_2.11.tgz flink-1.9.1-bin-scala_2.11.tgz

    flink-1.15.1-bin-scala_2.12.tgz

    flink-1.15.1-bin-scala_2.12.tgz

    Flink 资源包 flink-1.15.0-bin-scala_2.12.tgz flink-connector-elasti

    flink-sql-connector-mysql-cdc-2.2.1.jar flink-connector-elasticsearch7-1.15.0.jar flink-1.15.0-bin-scala_2.12.tgz

    Apache Flink(flink-1.14.4-bin-scala_2.12.tgz)

    Apache Flink(flink-1.14.4-bin-scala_2.12.tgz)是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行...

    FLINK-1.14.3-BIN-SCALA_2.12.tar

    适用于CDH5.2 - CDH6.3.2 的 flink版本,FLINK-1.14.3-BIN-SCALA_2.12.tar

    flink-1.12.7-bin-scala_2.12.tgz

    - **API 设计**:Scala 版本的 Flink API 具有强大的类型安全性和函数式编程特性,使得代码更简洁、易读。 - **交互式 Shell**:提供了 `flink-sql-cli`,可以直接在命令行界面运行 SQL 查询,方便测试和调试。 4...

    flink-1.14.0-bin-scala_2.11.tgz

    Scala 是一种多范式编程语言,广泛用于构建分布式系统,特别是大数据处理框架。它与 Flink 的结合,使得开发者可以利用 Scala 的强大功能编写简洁、高效的流处理作业。 描述中同样提到了“flink-1.14.0-bin-scala_...

    flink-1.18.1-bin-scala-2.12 免费下载

    flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-scala-2.12 免费下载flink-1.18.1-bin-...

    flink-1.7.1-bin-scala_2.12.tgz

    Scala是一种多范式编程语言,常用于构建大规模数据处理系统,与Flink的结合使得开发者能够利用其强大的函数式编程特性。 标签"flink-1.7.1"进一步确认了这个压缩包属于Flink 1.7.1,这是一个重要的版本里程碑,包含...

    flink-1.13.6-bin-scala_2.12.tgz资源下载

    4. **Scala API**:`scala_2.12` 表明该版本的 Flink 集成了 Scala 2.12 编程语言。Scala API 提供了丰富的函数式编程接口,使得编写流处理应用更加简洁和直观。 5. **状态后端**:Flink 支持多种状态后端,如内存...

    flink-1.12.0-bin-scala_2.11.tgz

    Scala是一种多范式的编程语言,与Java API相比,它的语法更加简洁,且更适合函数式编程。 8. **部署与运行**:Flink可以本地运行,也可以在分布式环境中如YARN、Kubernetes或独立集群部署。"bin"目录下通常包含启动...

    flink-1.17.1-bin-scala-2.12.tgz - Flink 1.17.1 版本

    文件名: flink-1.17.1-bin-scala_2.12.tgz 这是 Apache Flink 1.17.1 版本的二进制文件,专为 Scala 2.12 设计。Flink 是一种开源流处理框架,用于大规模数据处理和分析。这个版本包含了最新的功能和修复,提供了更...

    flink-1.13.1-bin-scala-2.11以及hadoop连接器、kafka连接器

    flink集群搭建 包括: 1.flink-1.13.1-bin-scala-2.11 2.hadoop连接器jar包flink-shaded-hadoop-2-uber-2.7.5-10.0 3.kafka连接器jar包flink-connector-kafka_2.11-1.13.1

    flink-1.10.1-bin-scala_2.12.tgz.zip

    Scala版本的Flink库使得开发人员能够利用Scala的函数式编程特性,编写简洁、可读性强的代码。 此外,Flink支持多种连接器,如Kafka、HDFS、Cassandra等,可以方便地接入各种数据源和数据接收器。对于实时数据处理,...

    Apache Flink(flink-1.15.0-bin-scala_2.12.tgz)

    Apache Flink(flink-1.15.0-bin-scala_2.12.tgz)是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行...

    flink-1.13.6-bin-scala_2.11.tgz

    3. Table & SQL API:提供了一种声明式的方式处理数据,使得开发者可以用 SQL 查询数据流,简化了编程模型。 4. Stateful Processing:Flink 支持状态化处理,允许在处理过程中存储和更新中间结果,为实现复杂的...

    flink-1.13.1-bin-scala_2.12.tgz

    fink安装包 下载地址https://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.13.1/flink-1.13.1-bin-scala_2.12.tgz

    Apache Flink(flink-1.14.4-bin-scala_2.11.tgz)

    Apache Flink(flink-1.14.4-bin-scala_2.11.tgz)是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行...

    flink-1.14.2-bin-scala_2.12.tgz

    "scala_2.12"表示此版本的Flink支持Scala 2.12版本的编程语言。Scala是开发Flink应用的常用语言之一,它的函数式编程特性使得编写复杂的数据处理逻辑更为简洁。 4. **DataStream API与DataSet API** DataStream ...

Global site tag (gtag.js) - Google Analytics