在本机(Windows 8)上安装spark玩一玩,Spark的Quick Start上没有指明具体步骤,自己Build好了之后把步骤记录一下。
-
首先,到Spark的官网上下载Spark的压缩包,然后解压缩到本地文件夹。我下的是Spark 1.1.0,目前最新的release,链接spark-1.1.0.tgz。
-
按照文档上运行bin/spark-shell,会提示找不到所需的jar包,需要重新build生成这个jar包。
-
首先确认本机是否已安装Scala和SBT,scala需要2.10.x版本,sbt我用的是0.13,如果没有安装的就从网上下载安装。将sbt的bin添加到windows path环境变量下,确保可以运行。
-
到Spark的root目录下,运行sbt package,这会将spark所有依赖的lib下载到本地的ivy repository(sbt默认使用ivy repository)
-
第四步成功完成之后,spark依赖的库已经具备,运行sbt assembly,这会将spark依赖的库和spark本身assemble成一个很大的jar包。这步完成后,你会在assembly\target\scala-2.10下找到spark-assembly-1.1.0-hadoop1.0.4.jar, spark-assembly_2.10-1.1.0.jar这两个jar包
上述步骤完成之后,就可以在bin下运行spark-shell,可以成功进入shell,进行操作。
相关推荐
在Windows环境下,开发和运行Apache Spark程序通常需要与Hadoop生态系统进行交互,因为Spark是构建在Hadoop之上的分布式计算框架。在这个场景中,`hadoop2.7.3-on-windows_X64-master.zip`是一个专门为Windows用户...
在SBT项目中,需要在`build.sbt`中添加如下依赖: ```scala libraryDependencies += "org.apache.spark" %% "spark-streaming-kafka" % "1.3.0" ``` 如果是Maven项目,应在`pom.xml`中添加: ```xml <groupId>org....
2. **配置用户自定义库**:在项目上右键选择 `Properties` -> `Java Build Path` -> `Libraries` -> `Add Library` -> `User Library`,创建一个新的库(如 `sparkJars`)并将 Spark 的 JAR 文件(除了 examples 包...
- 添加构建文件:在Ant视图中选择`Add Buildfiles`,展开`spark` -> `build`文件夹,选择`build.xml`文件。 - 构建项目:右键点击Ant视图中的`spark`,选择`Build`,等待构建成功提示。 - 配置运行:右键项目 -> ...
在类 Unix 系统(如 Mac 或 Linux)中,您需要打开 Terminal(终端),而在 Windows 上则需要打开命令提示符(cmd)。之后,我们统一称这些为命令行界面(CLI)。打开 CLI 后,输入以下命令: java -version 如果...
- 在`build.sbt`文件中,添加Spark的相关依赖。例如,对于Spark 1.6.2,可添加如下依赖: ``` libraryDependencies ++= Seq( "org.apache.spark" %% "spark-core" % "1.6.2", "org.apache.spark" %% "spark-sql...
您可以在找到它们安装适用于 Windows 的 Spark Core USB 驱动程序安装 Node.js 安装 Spark-CLI 创建一个 Spark Build 帐户领取您的 Spark Core 配置 Spark Core 的 WiFi 确定您的 Spark 核心将代码部署到 Spark ...
- 在 `src` 目录上右键选择 `New -> Scala Class`。 - 输入类名为 `HelloScala`,选择 `Kind` 为 `Object`。 3. **编写 Scala 代码:** - 在编辑区域输入如下代码: ```scala object HelloScala { def main...
* Spark Context:负责 Spark 应用程序的上下文。 * JVM:Java 虚拟机,用于执行 Spark 应用程序。 Mobius 可以与任何现有的 Spark 集群集成,无论是 Standalone 模式还是 YARN 模式,都是可以的。它也支持 Windows...
Spark在Windows上运行也需要配置环境变量,但通常还需要安装Hadoop的本地版本,因为Spark是建立在Hadoop文件系统之上的。你可以通过下载Hadoop的Windows版本,并同样将其添加到系统环境变量中,以便Spark可以访问...
windows64版本在此分享~ 今天发布的3124, Release Date: 22 September 2016 See also the Blog Post Settings now open in a new window, with the default and user settings side-by-side Hovering over a ...
安装Scala SDK是为了能够在Windows系统上运行Scala代码。 1. **下载Scala SDK** 从Scala官网下载适合Windows系统的Scala SDK安装程序。文档中提到的是`scala.msi`文件,版本号为2.10.6。 2. **安装Scala SDK** ...
It shows you how to build scripts and utilities to automate system tasks or create powerful system management tools to handle the day-to-day tasks that drive a Windows administrator's life....
7. **大数据关联**:在大数据领域,sbt常被用于构建Apache Spark、Akka等基于Scala的框架和库,这些框架广泛应用于数据处理、流计算以及分布式系统中。 8. **依赖管理**:sbt使用 Ivy 作为其默认的依赖管理系统,...
该集群用作Rock JVM在线课程和Apache Spark上的实时培训课程的教学工具:加上以上的企业培训课程为Spark 3.0.0设置了集群。如何安装作为前提条件,您需要为您的OS安装Docker。 该存储库已经在Linux和macOS上进行了...
在Windows上运行Spark时,由于其默认是为Linux环境设计的,因此需要依赖Hadoop的一些工具,如`winutils.exe`,它是Hadoop在Windows上的一个实用工具,用于执行一些系统级别的操作,如设置文件权限。 `winutils.exe`...
总结来说,本教程涵盖了在Windows虚拟机内安装和配置Linux,以及在Linux上编译和运行Hadoop的基本步骤。通过这个过程,你可以在本地环境中测试和开发大数据处理算法,为后续的大规模集群部署打下坚实基础。
【标签】"Scala Spark" 暗示了sbt在这个环境中用于构建与Spark相关的项目。Apache Spark是一个流行的开源大数据处理框架,主要用Scala编写。sbt作为Scala的构建工具,对于Spark开发者来说尤其重要,因为它可以帮助...
在Windows和Linux上配置Scala开发环境,通常需要集成开发环境(IDE)如IntelliJ IDEA或Eclipse,以及Scala插件。这些IDE可以帮助编写、调试和管理Scala项目。此外,构建工具如SBT(Simple Build Tool)是Scala项目的...
你可以在 build.sbt 文件中指定 Spark 版本,并且 SBT 会自动处理与其他库的兼容性问题。同时,SBT 还支持 Spark 的提交命令,让你能够直接从本地构建的 JAR 文件提交到集群上运行。 在实际使用中,你可以找到针对...