`
waveeee
  • 浏览: 52767 次
  • 来自: 上海
社区版块
存档分类
最新评论

start scala in ubuntu

阅读更多
1. install jdk5.0
2. set env
vi .bashrc
export PATH=the path/scala-2.8.0.final/bin:$PATH

3. test
You may test the distribution by running the following commands:

$  sbaz install scala-devel-docs
$  scalac your path/doc/scala-devel-docs/examples/sort.scala
$  scala examples.sort
[6,2,8,5,1]
[1,2,5,6,8]
$  scala
scala> examples.sort.main(null)
[6,2,8,5,1]
[1,2,5,6,8]
scala>:quit

it's ok now
分享到:
评论

相关推荐

    Spark&Scala安装教程.docx

    ### Spark与Scala安装教程知识点详解 ...以上步骤详细介绍了如何在Ubuntu环境下安装和配置Spark以及Scala的基本流程,适合初学者入门学习。通过这些步骤,读者可以顺利地搭建起一个简单的Spark与Scala开发环境。

    Spark本地版安装教程(Ubuntu).docx

    7. 启动Hadoop服务:`start-dfs.sh` 和 `start-yarn.sh` 四、Spark的安装配置 1. 下载Spark的tar.gz文件,解压至合适位置,如 `/usr/local/spark`。 2. 同样编辑`~/.bashrc`,添加Spark的环境变量。 3. 配置Spark,...

    kafka-scala-template

    Kafka Scala模板这是使用scala与kafka一起工作的模板。 使用自动生成的avro代码,一切都被docker化,所有消息均以avro格式发送。 该模板针对使用Linux / Ubuntu / Mac和Intellij的人群。目录该程序做什么该程序在...

    spark的单机和集群安装与配置

    - **启动集群服务**:在Master机上执行`./sbin/start-all.sh`命令启动Spark集群。 - **验证集群状态**:通过命令`jps`查看是否能看到`Master`、`Worker`以及`JobHistoryServer`等进程的存在,确认集群启动成功。 ...

    spark安装

    - **操作系统**:推荐使用Ubuntu(也可使用Windows,但本指南以Ubuntu为例)。 - **运行环境**: - **JDK**:版本为1.8.0_25。 - **Scala**:版本为2.10.4。 - **Spark**:版本为1.3.1,附带Hadoop 2.6。 - **...

    CrowSoft-Cairo:使用Play Framework 2.0+和Postgresql用JavaScala编写的ERP应用程序

    使用Play Framework 2.0 +,jQuery,Backbone.js,Marionette.js和Postgresql用Java / Scala编写的ERP应用程序 开发人员虚拟机 您可以下载此zip文件,其中包含安装并配置了Ubuntu 16.04,PostgreSQL,PlayFramework...

    Spark环境搭建和使用方法

    3. **启动Hadoop服务**:确保Hadoop服务已启动,可以通过`start-dfs.sh`和`start-yarn.sh`脚本启动。 4. **配置Spark**:编辑`conf/spark-env.sh`文件,设置HADOOP_CONF_DIR环境变量: ```bash export HADOOP_CONF...

    spark 集群环境开发部署(hadoop,yarn,zookeeper,alluxio,idea开发环境)

    - 启动SSH服务:`/etc/init.d/ssh start`。 - 配置允许root用户登录:编辑`/etc/ssh/sshd_config`文件,将`PermitRootLogin`设为`yes`。 - 重启SSH服务:`/etc/init.d/ssh restart`。 - **配置SSH免密码登录**: ...

    安装hadoop spark

    - 使用`start-dfs.sh`和`start-yarn.sh`脚本来启动HDFS和YARN服务。 #### 构建Spark集群 1. **软件准备**: - 下载Spark的二进制包,并解压至指定目录。 - 确保已经安装了Scala环境,因为Spark是基于Scala编写...

    Spark集群模式安装.zip

    2. **操作系统**:通常选择Linux系统,如Ubuntu、CentOS等,因为Spark在Linux环境下运行更稳定。 3. **网络环境**:所有节点间需要有良好的网络连接,以确保数据传输的效率和可靠性。 4. **软件依赖**:安装Java...

    spark入门教程

    Spark支持多种编程语言(如Scala、Java、Python等),并且能够与Hadoop生态系统的其他组件无缝集成。 #### 二、Spark入门学习目标 本教程旨在帮助初学者快速掌握Spark的基本概念和操作方法,并通过实践项目加深...

    Hadoop和Apache Spark环境配置.docx

    ```scala val textFile = sc.textFile("/tmp/test.txt") val counts = textFile.flatMap(line => line.split(" ")) ``` #### 四、总结 本文详细介绍了如何在 Ubuntu 系统上配置 Hadoop 和 Apache Spark 环境。首先...

    kafka-的安装包!

    - **操作系统**:Kafka 支持主流的 Linux 发行版,如 Ubuntu、CentOS、Red Hat,同时也支持 Windows 和 macOS。 - **Java 运行环境**:Kafka 需要 Java Development Kit (JDK) 8 或以上版本。确保已正确安装并配置...

    linux下kafka

    在这个场景中,我们使用的版本是`kafka_2.11-2.0.1.tgz`,这是Kafka的一个稳定版本,支持Scala 2.11。 **安装Java运行环境** 首先,由于Kafka是用Java编写的,因此需要确保系统上已经安装了Java运行环境(JRE)和...

    juicer:Juicer是一个Web API,用于从HTML“文章”类型的页面中提取文本,元数据和命名实体

    有关更多信息,请访问: : 安装在Debian / Ubuntu上从我们的PPA安装 sudo add-apt-repository ppa:juicer-server/juicersudo apt-get updatesudo apt-get install juicer这将启动榨汁机作为服务在端口9000上运行,...

    spark+hadoop环境搭建

    - Scala 12.10.4。 - Spark 1.6.1。 - **硬件环境**:至少配备三台虚拟机,其中一台作为 Master 节点,另外两台作为 Slave 节点。 - **Master 节点 IP**:192.168.133.130。 - **Slave01 节点 IP**:192.168.133...

    Test-Hadoop:在Linux中设置hadoop进行大数据分析

    这些操作可以通过`start-dfs.sh`、`start-yarn.sh`和相应的`stop-`命令完成。 9. **Hadoop多节点集群**:在UbuntuShell下,你将学习如何配置多节点集群,包括主节点(NameNode和ResourceManager)和工作节点...

    Hadoop&Spark安装、环境配置、使用教程.pdf

    - **操作系统要求**:Hadoop和Spark推荐在Linux环境下运行,如Ubuntu或CentOS等发行版。 ##### 2. 安装Hadoop **步骤1: 下载Hadoop** - 访问Apache官网下载Hadoop最新稳定版,例如`...

Global site tag (gtag.js) - Google Analytics