1、下载spark解压到D盘,现在的版本是1.2.1
2、下载scala安装到d:\ProgramFiles(x86)\scala\
修改path这个变量,把Scala的bin目录也放进去D:\ProgramFiles(x86)\scala\bin(现在版本的scala会自动修改系统的环境变量,提示的时候选择不阻止)
测试是否配置成功,在命令行中输入scala-version
3、按照Spark官方的安装指南,在解压的目录下,运行:sbt/sbtpackage或者sbtassembly
可能会出现错误,这是由于sbt版本的问题,下载windows环境下的sbt,安装好后将sbt的文件复制到spark目录下。
再次cmd在spark目录下运行sbt package
4、遇到git不是内部命令错误的解决方法是:安装windows版本的git工具,安装好后配置环境变量。
找到git安装路径中bin的位置,如:D:\ProgramFiles(x86)\Git\bin
找到git安装路径中git-core的位置,如:D:\ProgramFiles(x86)\Git\libexec\git-core;
加入到环境变量中;
5、安装好后再运行sbt package
由于sbt需要从国外下载Spark的依赖包,必须设置代理:
cmd命令行添加:set HTTP_PROXY=http://localhost:8123
6、编译成功后在spark下运行spark-shell
出现D:\programfile(x86)不是内部活外部命令的错误,这是由于空格问题产生的,只需要在cmd进入spark目录下的过程中将D:\ProgramFile (x86)则改为progra~2(
D:\ProgramFile则改为progra~1)即可。
再次输入spark-shell,现在可以开始spark windows之旅了!!
http://www.nikest.com/web/jswd/2015/0310/137975.html
相关推荐
winutils.exe and hadoop.dll 在 win7_64 环境亲测通过,解压的winutils.exe放在...\hadoop-2.8.1\bin\下,hadoop.dll放在...\Windows\system32\下, 我安装的是Java 1.8.0_151,python3.6.3,spark2.2.0+hadoop...
1. 下载`openfire_3_7_0.exe`安装文件,双击运行,按照向导提示进行安装。通常,安装过程会自动创建必要的服务并设置启动项。 2. 安装完成后,无需立即启动OpenFire,而是先进行后续的MySQL配置。 ### MySQL安装与...
2. 下载USB3.0驱动文件,本例中使用的驱动文件名为0_1spark.zip,解压后将文件复制到之前创建的USB3目录下。这个步骤是为了确保有适合USB3.0设备的驱动文件可用。 3. 使用刻录工具,如UltraISO软件,将Windows ...
在IDEFA中创建一个新的Spark项目,导入Hudi的编译后的jar包到项目的lib目录下。设置Spark的运行环境为Spark3.0,这通常涉及到修改IDEFA的配置,包括指定Spark的版本和Hadoop的版本。 3. **Flink-1.12.x的集成**: ...
以上步骤是基础的环境搭建过程,实际开发中可能还需要考虑其他因素,如配置Hadoop的YARN资源管理器,或者使用更高级的编程模型如Spark。此外,源码分析和工具的熟练运用能帮助提升开发效率和代码质量。 至于压缩包...
在Windows 7 64位环境下,你需要确保这两个文件与你的Hadoop版本兼容,并且放在正确的位置,通常是Hadoop安装目录的bin文件夹下。通常,你可以从Apache Hadoop的官方网站或者第三方资源中找到适用于Windows的预编译...
在本文中,我们将深入探讨如何在Windows 7环境下安装Hadoop 2.7.5,这是一个广泛用于大数据处理和分析的开源框架。Hadoop的主要组件包括HDFS(Hadoop分布式文件系统)和MapReduce,它们提供了可靠、可扩展的数据存储...
描述中提到,用户只需将解压后的文件复制到Hadoop安装目录下的`bin`子目录即可。这表明这个压缩包包含了一些可执行文件或者脚本,这些文件通常是为了帮助Windows用户执行与Hadoop相关的操作,如设置环境变量、启动或...
安装mysql-essential-5.1.55-win32.msi后,你需要创建一个专门供OpenFire使用的数据库,并设置一个强密码(例如111111)。在MySQL命令行客户端中,你可以用`CREATE DATABASE openfire;`创建数据库,然后使用`GRANT ...
windows环境编译spark2.4.4源码环境要求环境安装源码下载源码编译注意事项后记 环境要求 操作系统环境:Windows 10(Windows7、Windows8亦可) Java版本: jdk1.8 Scala版本:2.11.0 Maven版本:3.5.4 Git版本:版本...
总的来说,这个压缩包为Windows用户提供了Scala编程环境的便捷安装方式,尤其适合那些对Scala感兴趣并希望通过它来学习Spark或者开发分布式系统的人。同时,Scala的强大功能和灵活性使其在处理复杂计算和大数据分析...
在Spark的开发环境中,IDEA(IntelliJ IDEA)是一个常用且强大的集成开发环境,尤其适合Scala编程。本文将深入探讨如何在Windows 10操作...总的来说,这个项目是一个学习和实践Spark在Windows 10环境下开发的良好起点。
解决win7环境下执行spark或hadoop程序出错。ERROR Shell: Failed to locate the winutils binary in the hadoop binary path java.io.IOException: Could not locate executable null\bin\winutils.exe in the ...
9. **分布式计算**:支持分布式计算模式,适应大数据分布式处理需求,如MapReduce和Spark集成。 压缩包中的驱动文件通常包含JDBC(Java Database Connectivity)驱动,ODBC(Open Database Connectivity)驱动,...
通常情况下,Spark开发是基于Linux集群的,但这里作为初学者并且囊中羞涩,还是在windows环境下先学习吧。 参照这个配置本地的Spark环境。 之后就是配置PyCharm用来开发Spark。本人在这里浪费了不少时间,因为百度...
描述中提到的“用于win7开发、调试下读取HDFS文件(包括hive读取)”表明了这些文件在Windows 7环境下对于开发和调试Hadoop及Hive应用的重要性。HDFS(Hadoop Distributed File System)是Hadoop的核心组件之一,...
"win7"表示这是针对Windows 7系统的,而"winutils.exe"是Hadoop在Windows上运行时的一个重要组件,用于执行如设置HDFS(Hadoop Distributed File System)环境变量、启动本地HDFS等任务。在64位Windows上,通常可以...
在Win10环境下安装Hadoop 3.1.0及以上版本时,首先需要下载并解压这个压缩包,然后将解压后的`bin`目录下的所有文件复制到Hadoop安装目录的`bin`子目录中。 安装步骤如下: 1. **下载和解压**:获取`apache-hadoop...
总之,"Hadoop-2.7.6 for Win10"提供了一个在Windows平台上运行Hadoop的便利途径,使得开发者和数据分析师可以在不熟悉Linux的情况下,也能利用Hadoop的强大功能处理和分析数据。正确配置和理解Hadoop的核心组件及...
win7运行spark 时提示错误:Could not locate executable C:\hadoop-2.8.1\bin\winutils.exe in the Hadoop binaries