`

搭建一键开发spark应用的IDE工具

阅读更多

网上有很多配置Spark开发的文章,配置过程非常麻烦,配置通了之后其实也不是很复杂,但是对于初学者确实还是有些难度,我决定打包所有  jdk,scalaide,hadoop,spark 的包,做成一个一键开发Spark的IDE工具。并且上传一些例子,让开发者直接就可以学习如何开发spark应用。

 

现在我们发布了  windows 64 位系统下sparkide版本(并且自带wordcount例子,可以直接运行)。
,在使用sparkide有任何为题,请告诉我们,我们抓紧需改。

 

我们目的只有一个:搭建一键开发spark应用的IDE工具

 

下载地址: http://pan.baidu.com/s/1kUvqeEF(百度云盘)


sparkide网站地址 http://121.42.15.150/

sparkide 0.1.1版本是windows 64位版本,包含组件如下:

 

Java Development Kit 1.8(64)
Hadoop-2.6.0 windows(64)
Spark-1.6.0-bin-hadoop2.6
Scala-SDK-4.3.0-vfinal-2.11-win32.win32.x86_64

备注: 有任何问题,请联系 daofeng.he@gmail.com

QQ讨论群:336267114

 

 

  • 大小: 14.7 KB
分享到:
评论

相关推荐

    Intellij IDEA 搭建Spark开发环境说明

    在进行详细知识点说明之前,需要明确本文档是一篇关于如何在Windows 7环境下使用IntelliJ IDEA来搭建Apache Spark开发环境的指南。Apache Spark是一个快速、通用的分布式计算系统,它提供了一个高层次的API,支持...

    spark开发环境搭建(eclipse)

    * 提高开发效率:搭建好 Spark 开发环境后,开发者可以快速开发和测试 Spark 应用程序。 * 提高开发质量:搭建好 Spark 开发环境后,开发者可以更好地 debug 和优化 Spark 应用程序。 * 提高团队协作:搭建好 Spark ...

    Spark+Hadoop+IDE环境搭建

    在大数据处理领域,Spark和Hadoop是两个至关重要的框架。Spark以其高效的内存计算和易用性,成为数据处理的新宠,而Hadoop作为分布式存储和计算的...通过不断的实践和调试,你将能熟练掌握这个环境的搭建和应用开发。

    基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优

    ### 基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优 #### 概述 随着大数据技术的发展,Hadoop生态系统不断成熟与完善,其中Apache Hive作为数据仓库工具,支持通过SQL语句进行查询、分析存储在Hadoop文件系统...

    基于Scala的Spark开发IDE模板项目设计源码

    本Spark开发IDE模板项目基于Scala开发,包含22个文件,包括XML配置文件、GIT忽略文件、IDE模板文件、Scala源代码、LICENSE文件、MF文件、JAR文件、Properties配置文件。系统提供了Spark开发的IDEA模板项目,界面友好...

    eclipse搭建的Spark开发环境

    Eclipse搭建的spark开发环境,微云可下!Eclipse搭建的spark开发环境,微云可下!

    Spark集群及开发环境搭建(完整版)

    ### Spark集群及开发环境搭建(完整版) #### 一、软件及下载 本文档提供了详细的步骤来指导初学者搭建Spark集群及其开发环境。首先需要准备的软件包括: - **VirtualBox-5.1**:虚拟机软件,用于安装CentOS操作...

    使用docker快速搭建Spark集群的方法教程

    通过使用 Docker,可以快速的在本地搭建一套 Spark 环境,方便大家开发 Spark 应用,或者扩展到生产环境。下面这篇文章主要给大家介绍了使用docker快速搭建Spark集群的方法教程,需要的朋友可以参考借鉴,下面来一起...

    spark 分布式集群搭建

    以上步骤涵盖了 Spark Standalone 分布式集群的基本搭建方法及其核心概念,对于理解和应用 Spark 在分布式环境中至关重要。通过这些步骤,开发者可以快速搭建起一个可扩展且高效的 Spark 集群。

    spark开发环境搭建

    在正式开始搭建Spark开发环境之前,我们需要先准备以下几个必要的软件和工具: 1. **JDK (Java Development Kit):** Spark要求安装JDK7或JDK8。JDK是Java语言的核心组件之一,提供了编译、调试和运行Java程序所需...

    spark (2)spark开发环境搭建

    在提供的部分内容中,大量提到了IntelliJ IDEA的快捷键和功能,这表明文章在介绍Spark开发环境搭建的过程中,会以IntelliJ IDEA这一开发工具作为主要的开发环境,介绍相关的配置和使用方法。这可以包括但不限于代码...

    Spark应用程序WebUI详解.docx

    ### Spark Web UI 详解 ...Spark Web UI 是一款强大的工具,对于理解和优化 Spark 应用程序至关重要。通过对 Spark Web UI 的深入学习,可以帮助开发者更好地掌握 Spark 的运行机制,并有效地提升应用程序的性能。

    大数据环境搭建——>Spark安装配置

    这里使用的是rsync命令,它是Linux下一款快速高效且易于使用的文件传输工具,通过该工具可以将Spark目录同步到其他节点,以便整个集群都能使用Spark进行计算。 在分布式安装完成之后,可以通过启动集群进行测试,...

    Apache Spark开发环境搭建

    通过以上步骤,您已经成功地搭建了一个基于Apache Spark的开发环境,并且可以开始使用Scala进行Spark应用开发了。接下来,您可以进一步探索Spark的各种功能,如RDD、DataFrame、SQL等高级特性,并尝试解决实际的数据...

    Spark开发及本地环境搭建指南

    在构建Spark开发环境时,首先需要确保你的计算机上安装了必要的软件,包括但不限于Linux操作系统、Java Development Kit (JDK)、Scala、Maven以及Git等工具。 **环境准备** - **操作系统:** 推荐使用CentOS、Red ...

    sparkweb 聊天工具WEB端 开源

    Sparkweb 是一款开源的即时通讯(IM)聊天工具,专为Web端设计,提供便捷的在线交流体验。这款工具允许用户在网页上实现快速、稳定且安全的消息传递,支持多种功能,如一对一私聊、群组聊天、文件传输等,为用户提供...

    windows10下spark2.3.0本地开发环境搭建-亲测

    通过以上步骤,你将在Windows 10环境下成功搭建Spark 2.3.0的本地开发环境,可以开始进行Spark应用的开发和测试。在遇到问题时,可以参考相关博客或文档,例如链接中提到的博客文章,以便解决可能遇到的错误和异常。

    Spark集群及开发环境搭建

    初学者手册 一、 软件及下载 2 二、 集群环境信息 2 ...八、 Scala开发环境搭建 21 1、系统安装 21 2、安装jdk8 21 3、安装scala2.11 21 4、安装scala for eclipse 21 5、创建scala工程 21

Global site tag (gtag.js) - Google Analytics