`

scala jdbc例子

 
阅读更多
import java.sql.{DriverManager, Connection, ResultSet}
 import java.sql.DriverManager
import java.sql.Connection
object TestDb {

  def main(args: Array[String]): Unit = {
  // connect to the database named "mysql" on the localhost
    val driver = "com.mysql.jdbc.Driver"
    val url = "jdbc:mysql://localhost:3306/easyui"
    val username = "root"
    val password = ""
 
    // there's probably a better way to do this
    var connection:Connection = null
 
    try {
      // make the connection
      Class.forName(driver)
      connection = DriverManager.getConnection(url, username, password)
 
      // create the statement, and run the select query
      val statement = connection.createStatement()
      val resultSet = statement.executeQuery("SELECT id, name FROM easyui_tree")
      while ( resultSet.next() ) {
        val id = resultSet.getString("id")
        val name = resultSet.getString("name")
        println("id, name = " + id + ", " + name)
      }
    } catch {
      case e => e.printStackTrace
    }
    connection.close()
  }
 
}

 

分享到:
评论

相关推荐

    scala连接mysql

    当需要在Scala项目中操作MySQL数据库时,我们可以利用Java Database Connectivity (JDBC) API,这是一个Java标准,用于与各种数据库进行交互。 首先,要使用Scala连接MySQL,你需要确保已经安装了MySQL服务器并创建...

    scalikejdbc:面向Scala开发人员的基于SQL的整洁数据库访问库。 该库自然包装了JDBC API,并为您提供易于使用的API

    这个库的核心目标是简化与数据库的交互,通过将Java的JDBC(Java Database Connectivity)API优雅地封装在Scala语法中,使得开发者能够更高效、更舒适地处理数据操作。 首先,让我们深入了解ScalikeJDBC如何实现这...

    dhall-scala:dhall-scala是一个Scala库,用于使用Scala编程语言中的dhall配置文件

    在这个例子中,`fs.readFileSync` 读取 Dhall 文件,`auto[Map[String, Int]]` 将解析的结果转换为 `Map[String, Int]` 类型的 Scala 对象。 ### 示例应用 假设有一个 Dhall 文件 `appConfig.dhall`,定义了一个...

    relate:Scala中的高性能数据库访问

    Relate是Scala的轻量级,快速的数据库访问层,它抽象了JDBC的特性,同时保持了对SQL的完全控制。 安装 libraryDependencies + = " com.lucidchart " %% " relate " % " <version> " 例子 val ids = Seq ( 1 , 2 , 3...

    reactive-streams-jdbc:在制品

    WIP:使用 JDBC 的React式流 这是一个简单的例子,展示了如何以方式使用 RDBMS。 当前状态仍在进行中。 此实现尚未通过验证。 例子 如何运行示例 git clone https://github.com/seratch/reactive-streams-jdbc.git...

    笔试:Scala的编译时语言集成查询

    Quill 支持多种数据库系统,包括 MySQL、PostgreSQL、Cassandra 和 JDBC 兼容的数据源,因此它可以应用于广泛的数据库应用场景。在 Spark 数据处理中,Quill 也可以与 SparkSQL 结合,提供对大数据集的高效查询能力...

    akka-persistence-jdbc-play:使用 akka-persistence-jdbc 的示例播放项目

    #akka-persistence-jdbc-play 一个小例子,如何使用和 (Typesafe Play)[ ]。 请安装以下内容: (酿造)[ ] 在控制台上键入以下内容: ruby -e "$(curl -fsSL ...

    play-scala-slick-example:使用play 2.4.2 + scala 2.11.6 + slick 3.0构建的小型基本Web应用程序

    **Play Framework + Scala + Slick 实战:构建小型Web应用** 在现代Web开发中,选择一个强大、灵活且高效的框架至关重要。...这个例子为更复杂的Web应用开发打下了坚实的基础,同时也展现了Scala和Play的强大之处。

    GeoSparkDemo.rar

    8. **环境配置**: 在运行GeoSpark示例之前,需要确保已经安装了Spark、GeoSpark、Scala库,以及相应的JDBC驱动,以便连接RDB。 这个"GeoSparkDemo"示例提供了学习和实践GeoSpark的宝贵机会,对于理解和掌握大数据...

    slick-migration-api:用于Slick的模式操作方言和DSL

    import slick.jdbc.MySQLProfile.api._ import com.github.tototoshi.slick.MySQLJdbcType class MyMigration extends Migration { def up = DBIO.seq( // 添加新的表 sqlu"CREATE TABLE users (id INT AUTO_...

    DStream输出操作

    在给定的部分内容中,我们看到了一个基于`NetworkWordCountStateful.scala`的例子。这个例子展示了如何通过`DStream`处理网络输入流,并计算每个单词出现的频率。 ```scala import org.apache.spark._ import org....

    spark rdd转dataframe 写入mysql的实例讲解

    在这个例子中,首先定义了一个case类`memberbase`来表示数据结构,然后将处理后的RDD(`log`)转换为DataFrame(`dftemp`),代码如下: ```scala import sqc.implicits._ val dftemp = log.toDF() ``` 2. **显式...

    essential-slick-3

    这通常包括导入 `import slick.jdbc.MySQLProfile.api._` 或者针对其他数据库的相应导入语句。 #### 1.4.3 定义模式 定义数据库模式是使用 Slick-3 的关键步骤之一。这可以通过创建代表数据库表的 Scala 类来实现...

    Spark数据库百度云02.txt

    Spark提供了对Java、Scala、Python等多种语言的支持,使得开发者能够灵活地选择最适合项目的编程语言。 ### Spark的核心特性 1. **内存计算**:Spark将数据存储在内存中进行处理,这大大提高了数据处理的速度。...

    spark-stream-example:使用 0MQ、PostgreSQL 和 Elasticsearch 演示 Apache Spark 流应用程序

    Spark 可以通过 JDBC 驱动与 PostgreSQL 进行交互,读取数据,执行实时分析,然后将处理后的数据写回数据库或其它存储。 Elasticsearch 是一个流行的搜索引擎和数据分析工具,特别适合实时数据分析和全文搜索。在这...

    playframework部分介绍及部分功能简介,小实例一个

    7. **数据访问:** Play 集成了Anorm和Slick两个库,分别用于JDBC和类型安全的数据库操作。它们提供了一种简洁、直观的方式来处理数据库交互。 8. **RESTful风格:** Play鼓励遵循RESTful原则来设计API,这样可以...

    Spark学习之路【SparkSQL入门解析】

    Spark SQL可以使用SQL或熟悉的DataFrame API在Spark程序中查询结构化数据,可在Java,Scala,Python和R中使用 【2.2】统一的数据访问方式 DataFrame和SQL提供了一种访问各种数据源的通用方法,包括Hive,Avro,...

    Spark 基础.docx

    - 易用:Spark 提供了Scala、Java、Python和R等多种API,使得开发更加便捷,同时提供了交互式的Spark Shell。 - 通用:Spark 支持多种工作负载,不仅限于批处理,还包括交互式查询和实时处理。 - 兼容性:Spark ...

    play-framework:修改 Play 框架和 Postgres

    db.default.url="jdbc:postgresql://localhost/mydatabase" db.default.driver=org.postgresql.Driver db.default.user=myuser db.default.password=mypassword ``` 接下来,你可以使用 Anorm 或 Slick 这样的库来...

    关于Flink DataSource数据接入

    以下是一个从JDBC数据库读取数据的例子: ```scala env.createInput(JDBCInputFormat.buildJDBCInputFormat() .setDrivername("com.mysql.jdbc.Driver") .setDBUtil("jdbc:mysql://localhost:3306/test") .set...

Global site tag (gtag.js) - Google Analytics