`
flycomos.lee
  • 浏览: 280592 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

spark研究之install4j打包spark

阅读更多

1、更改spark源码目录\spark\build下的build.xml文件,指定install4j安装目录;

<property name="installer.install4j.home" value="d:\\Program Files\\install4j"/>

2、从http://www.alarmspro.com/downloads/jre/ 处下载windows-x86-1.6.0_01.tar.gz文件至spark\build\installer目录;

3、命令行至\spark\build目录;

4、运行:ant installer.win

5、结果:

[install4j]     Compiling launcher 'Spark':
[install4j]     Compiling launcher 'starter':
[install4j]   Creating media file:
[install4j]     Zipping custom code JAR file
[install4j]     Identifying components
[install4j]     Adding JRE (windows-x86-1.6.0_01)
[install4j]     Compressing files
[install4j]     Applying LZMA compression
[install4j]     Using custom installer icon: E:\soft\spark\build\installer\..\..
\src\resources\images\spark.ico
[install4j]   Moving media files to media directory E:\soft\spark\target\install
er
[install4j]   The name of the media file is spark_2_5_6.exe.
[install4j]   The size of the media file is 33.0 MB

6、目录\spark\target\installer下应该出现如下文件,表示打包成功。

 

spart_2_5_6.ext  //表示成功打成EXE

分享到:
评论

相关推荐

    install4j打包

    本教程将指导你如何使用`install4j`来打包Spark项目,以下是详细的步骤: 1. 首先,你需要获取`install4j`的安装文件。可以从提供的链接下载,例如:`...

    Install4j破解版

    Install4j用于打包java程序成exe文件,里面包含破解说明和破解工具。openfire+spark开发打包也需要用到此工具。

    hive3.x编译spark3.x包

    标题“hive3.x编译spark3.x包”表明我们要讨论的是关于如何在Hive 3.x版本上编译与之兼容的Spark 3.x版本的二进制包。这个过程通常涉及到以下步骤: 1. **环境准备**:首先确保你已经安装了Java开发环境(JDK),...

    spark编译源码过程

    - 如果修改成功,还可以进一步执行`install`命令,将修改后的模块打包成JAR文件。 #### 五、注意事项 - **版本兼容性**:不同版本的Spark可能存在较大的差异,请确保所使用的版本与项目需求相符。 - **构建优化**:...

    Openfire+Spark文档整理

    8. **install4j打包Spark详解.mht**:install4j是一个跨平台的应用程序打包工具,这部分内容可能介绍了如何使用install4j将Spark打包成可分发的安装程序。 了解并掌握这些文档中的内容,可以帮助开发者深入理解...

    编译spark1.6

    标题 "编译Spark 1.6" 涉及到的是Apache Spark的早期版本构建过程,这是一项重要的任务,特别是对于那些需要定制特定功能或深入理解Spark内部工作原理的开发者。Spark是一个流行的分布式计算框架,它提供了高效的...

    Spark环境搭建和使用方法

    4. **打包并提交任务**:使用`sbt package`或`mvn package`打包项目,并使用`spark-submit`命令提交任务至集群运行。 #### 四、Spark集群环境搭建 ##### 4.1 搭建Spark集群 1. **主节点配置**:在主节点上配置`...

    spark2.1-scala api

    4. **编译过程**:包括清理、编译、测试和打包等步骤。在编译过程中,Maven 会自动解决依赖关系并生成相应的 JAR 包。 5. **运行模式**:Spark 支持多种运行模式,如 local(本地)、standalone(独立集群)、YARN...

    Python库 | soda_sql_spark-2.1.0b14-py3-none-any.whl

    pip install soda_sql_spark-2.1.0b14-py3-none-any.whl ``` 安装完成后,开发者便可以导入`soda_sql_spark`库,并利用它的功能来连接Spark集群,执行SQL查询,进行数据预处理、清洗、转换和分析。 总的来说,`soda...

    spark 集群环境开发部署(hadoop,yarn,zookeeper,alluxio,idea开发环境)

    #### 四、Spark Standalone模式与YARN模式部署 **1. Spark Standalone模式** - **安装与配置Spark**: - 下载Spark二进制分发包。 - 解压并配置环境变量: 添加`SPARK_HOME`和更新`PATH`。 - 配置`spark-env.sh`...

    PyPI 官网下载 | dagster-spark-0.8.9.tar.gz

    **PyPI 官网下载 | dagster-spark-0.8.9.tar.gz** 这个压缩文件 "dagster-...pip install dagster-spark-0.8.9.tar.gz ``` 然后就可以在你的Dagster项目中导入和使用dagster-spark的功能,构建高效的数据处理工作流。

    PyPI 官网下载 | brewblox-devcon-spark-0.5.3.dev177.tar.gz

    对于tar.gz格式的文件,可以先使用`tar -zxvf brewblox-devcon-spark-0.5.3.dev177.tar.gz`命令解压,解压后通常会得到一个包含setup.py等文件的目录,接着在该目录下运行`python setup.py install`或`pip install ....

    PyPI 官网下载 | brewblox-devcon-spark-0.3.1.dev76.tar.gz

    4. 可能还需要通过`pip install .`命令来安装此库(在满足所有依赖的情况下)。 5. 查看`examples`或`docs`目录了解如何使用库。 6. 如果有测试文件(通常是`tests`目录),可以运行它们确保库正常工作。 这个库...

    docker-spark-job-server:包含 Spark 作业服务器的 Docker 容器

    这个容器应该用于运行 Spark并打包了 master 需要的一切。 为了使这更容易,请提供一个 url 来获取您的自定义 。 应该使用 Docker 的指定。 设置后,这个“本质上”运行为 Dockerfile 定制的。例子 docker -H tcp:/...

    rocketmq-spark-0.0.1-SNAPSHOT.jar

    实际上在maven仓库可能找不到,需要下载源码打包,详见:https://github.com/apache/rocketmq-externals,附打包命令(rocketmq-spark目录):mvn clean install dependency:copy-dependencies -Dmaven.test.skip -...

    spark-Bench环境搭建文档.pdf

    mvn install:install-file -DgroupId=edu.jhu.nlp -DartifactId=wikixmlj -Dversion=1.0-SNAPSHOT -Dpackaging=jar -Dfile=.\classes\artifacts\wikixmlj_.jar\wikixmlj.jar 这将安装wikixmlj-1.0-SNAPSHOT.jar包到...

Global site tag (gtag.js) - Google Analytics