spark1.4 Windows local调试环境搭建总结
1.scala版本
scala-2.10.4 官方推荐
scala-2.11.7【不推荐,非sbt项目、需要后加载】
2.spark版本
spark-1.4.0-bin-hadoop2.6.tgz
3.hadoop
3.1版本
hadoop-2.6.0.tar.gz
3.2环境变量
HADOOP_HOME=E:/ysg.tools/spark/hadoop-2.6.0
或
System.setProperty(“hadoop.home.dir”, “E:\ysg.tools\spark\hadoop-2.6.0”);
3.3winutils.exe
winutils.exe拷贝至spark/hadoop-2.6.0/bin
文件下载地址
http://files.cnblogs.com/files/yjmyzz/hadoop2.6%28x64%29V0.2.zip
4.idea
新建 NO-SBT项目
libraties 增加 scala sdk
spark-1.4.0-bin-hadoop2.6\lib\spark-assembly-1.4.0-hadoop2.6.0.jar
spark.test.iml
先加载 spark-assembly-1.4.0-hadoop2.6.0
再加载 scala-sdk-2.11.7
<?xml version="1.0" encoding="UTF-8"?>
<module type="JAVA_MODULE" version="4">
<component name="NewModuleRootManager" inherit-compiler-output="true">
<exclude-output />
<content url="file://$MODULE_DIR$">
<sourceFolder url="file://$MODULE_DIR$/src" isTestSource="false" />
</content>
<orderEntry type="inheritedJdk" />
<orderEntry type="sourceFolder" forTests="false" />
<orderEntry type="library" name="spark-assembly-1.4.0-hadoop2.6.0" level="project" />
<orderEntry type="library" name="scala-sdk-2.11.7" level="project" />
</component>
</module>
相关推荐
spark1.4 Windows local调试环境搭建总结 http://my.oschina.net/itnms/blog/473273
### Spark 1.4 更新与新特性概述 #### 核心功能增强 1. **序列化Shuffle Map输出**:为了提升性能,Spark 1.4 引入了对序列化Shuffle Map输出的支持。这一改进有助于减少内存使用并提高处理速度。 2. **Python 3 ...
这个"spark1.4的本地模式编程练习(2)附加代码"提供了进一步深入理解Spark核心概念的机会,尤其是针对那些想要在单机环境中快速测试和调试Spark应用的开发者。 Spark是一个分布式计算框架,它为大规模数据处理提供了...
Spark 环境搭建 - Windows 本文将指导您在 Windows 平台上搭建 Spark 环境,包括 JDK、Scala、Hadoop、Python 和 Spark 的安装和配置。 Python 的安装与配置 Python 是 Spark 的依赖项之一,需要安装 Python ...
在Windows环境下搭建Spark的环境是一项涉及多个软件安装和配置的过程。首先需要准备JDK(Java Development Kit),接着安装Scala,之后下载Spark本身,并设置好系统变量,最后为了更好地运行Spark环境,还需要配置...
在Windows 10环境下搭建Apache Spark 2.3.0的本地开发环境,可以遵循以下步骤,无需使用Cygwin或虚拟机。本教程将基于指定的组件版本,包括Win10家庭版(64位),JDK 1.8.0_171,Hadoop 2.7.6,Spark 2.3.0,Scala ...
### Spark集群及开发环境搭建(完整版) #### 一、软件及下载 本文档提供了详细的步骤来指导初学者搭建Spark集群及其开发环境。首先需要准备的软件包括: - **VirtualBox-5.1**:虚拟机软件,用于安装CentOS操作...
总结来说,搭建Spark+Hadoop的IDE环境需要完成Hadoop的安装、配置,以及Spark的安装、配置,并确保两者之间的兼容性。在IDE中,我们可以通过编写Spark应用并调用Hadoop API,实现对HDFS上数据的高效处理。这个过程中...
本文档主要介绍如何在Windows环境下搭建Spark及相关的大数据处理环境,包括Java、Scala、Maven、IntelliJ IDEA、Hadoop、Spark以及Python等组件的安装与配置。通过本指南,用户能够了解各个组件的基本配置流程,以及...
"Spark完全分布式环境搭建" 本文档主要讲述了如何在 Linux 环境下搭建 Spark 完全分布式环境,包括环境变量的设置、Spark 配置文件的修改、 Slave 节点的配置以及集群的启动过程。 一、环境变量设置 在搭建 Spark...
Spark 环境搭建 - Linux 本资源summary是关于在 Linux 上搭建 Spark 环境的详细教程。该教程从准备环境开始,到安装 JDK、Scala 和 Spark,最后设置 SSH 免密码登录,旨在帮助用户快速搭建 Spark 环境。 一、环境...
Spark 环境搭建 Spark 环境搭建是指在本地机器上安装和配置 Spark 相关组件,以便进行 Spark 的学习和开发。本文将指导读者从头开始搭建 Spark 环境,包括 JDK 安装、Spark 下载、Scala 安装、Hadoop 安装和 Spark ...
### Spark平台搭建最详细最完美详解 随着大数据技术的发展,Apache Spark因其强大的处理能力和灵活性而成为业界广泛采用的大数据处理框架之一。对于初次接触Spark的人来说,如何从零开始搭建一个完整的Spark集群...
四、 基础环境搭建(hadoop用户下) 7 1. 机器名HostName 7 2. 关闭防火墙 7 3. 系统更新及常用工具安装 8 4. IP配置 8 5. JDK安装 9 五、 Hadoop安装及配置 10 1. 安装 10 2. 配置 10 六、 机器集群搭建 ...
### Spark开发及本地环境搭建指南 #### 构建本机上的Spark开发环境 在构建Spark开发环境时,首先需要确保你的计算机上安装了必要的软件,包括但不限于Linux操作系统、Java Development Kit (JDK)、Scala、Maven...
安装和使用Spark 1.4.0时,用户需要配置环境变量,如SPARK_HOME和PATH,以便在命令行中调用Spark命令。此外,还需要配置Hadoop相关的设置,如HADOOP_CONF_DIR,以指向Hadoop的配置目录。 在实际应用中,Spark可以...
Spark Local模式是Spark的一种运行模式,它允许开发者在单机环境中快速进行开发和测试,而无需搭建复杂的分布式集群。在本项目中,我们将使用IntelliJ IDEA(IDEA)作为集成开发环境,通过Maven来管理依赖,以实现对...