`

spark1.2.0伪分布式搭建

 
阅读更多

1、下载scala2.11.5版本,下载地址为:http://www.scala-lang.org/download/2.11.5.html;

2、安装和配置scala:

第一步:上传scala安装包 并解压



第二步 配置SCALA_HOME环境变量到bash_profile


第三步 source 使配置环境变量生效:


第四步 验证scala:


3、下载spark 1.2.0,具体下载地址:http://spark.apache.org/downloads.html

4、安装和配置spark:

第一步  解压spark:



第二步 配置SPARK_HOME环境变量:


 

第三步 使用source生效:


 

进入spark的conf目录:

第四步 修改slaves文件,首先打开该文件:



slaves修改后:


第五步 配置spark-env.sh

首先把spark-env.sh.template拷贝到spark-env.sh:


然后 打开“spark-env.sh”文件:


spark-env.sh文件修改后:


5、启动spark伪分布式帮查看信息:

第一步 先保证hadoop集群或者伪分布式启动成功,使用jps看下进程信息:


如果没有启动,进入hadoop的sbin目录执行 ./start-all.sh

第二步 启动spark:

进入spark的sbin目录下执行“start-all.sh”:


此刻 我们看到有新进程“Master” 和"Worker"

我们访问“http://master:8080/”,进如spark的web控制台页面:


从页面上可以看到一个Worker节点的信息。

 

我们进入spark的bin目录,使用“spark-shell”控制台:



通过访问"http://master:4040",进入spark-shell web控制台页面:


 

6、测试spark伪分布式:

我们使用之前上传到hdfs中的/data/test/README.txt文件进行mapreduce

取得hdfs文件:


对读取的文件进行一下操作:


 

使用collect命令提交并执行job:

readmeFile.collect


 

查看spark-shell web控制台:


 

states:


端口整理:

master端口是7077

master webui是8080

spark shell webui端口是4040

分享到:
评论

相关推荐

    Spark1.2.0单点或伪分布式安装总结.pdf

    综上所述,文档中涵盖了搭建Spark 1.2.0单点或伪分布式环境所需的关键知识点。从操作系统选择、Java环境配置、Scala安装、SSH配置、Hadoop安装到Spark安装,每个步骤都是环环相扣,缺一不可。在实际操作过程中,还应...

    spark 1.2.0 文档(spark-1.2.0-doc)

    spark-1.2.0 文档 api Spark Overview Apache Spark is a fast and general-purpose cluster computing system. It provides high-level APIs in Java, Scala and Python, and an optimized engine that supports ...

    hbase-spark-1.2.0-cdh5.16.2.jar

    HBaseContext所需要的jar包。由于不知道为啥maven配置仓库地址不生效。所以手动下载了个。导入本地环境的maven仓库。

    深入理解Spark+核心思想与源码分析.pdf

    《深入理解SPARK:核心思想与源码分析》一书对Spark1.2.0版本的源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐、阿里巴巴资深Java开发和大数据专家撰写。...

    spark-1.3.1-bin-2.2.0_gong.tgz

    "spark-1.2.0-bin-hadoop2.4.tgz"表明这个版本是为Hadoop 2.4设计的,这意味着它能够充分利用Hadoop的分布式存储系统HDFS和MapReduce计算框架。Spark可以读写HDFS上的数据,同时也可以作为YARN上的应用运行,这使得...

    seata-server-1.2.0.zip

    Seata(Simple Extensible Autonomous Transaction ...总之,Seata-server 1.2.0为分布式系统提供了强大的事务管理能力,通过其丰富的特性,简化了开发者的分布式事务处理,同时保证了系统的高可用性和高性能。

    深入理解Spark 核心思想与源码分析

    花钱买的扫描版,不是太清晰,下载前考虑..., 《深入理解SPARK:核心思想与源码分析》一书对Spark1.2.0版本的源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐

    seata1.2.0.zip

    尽管没有具体的描述指出1.2.0版的具体变化,但我们可以探讨一下Seata的一般性特点和分布式事务处理的相关知识。 分布式事务是指在分布式系统中处理事务的一系列操作,确保在多个操作之间保持ACID(原子性、一致性、...

    spark安装文档

    以上就是在Ubuntu环境下搭建Spark基础框架的详细步骤,需要注意的是,根据实际的硬件资源和需求,可能还需要配置 slaves 文件、Hadoop 集群(如果使用分布式模式)以及其他相关的设置。安装完成后,用户就可以开始...

    seata-1.2.0.zip

    总之,Seata 1.2.0是一个强大且灵活的分布式事务解决方案,它不仅涵盖了多种事务处理策略,而且具有高性能和易用性的优点,是现代微服务架构中不可或缺的工具。通过深入理解和合理运用Seata,开发者可以构建出更加...

    最新版windows seata-server-1.2.0.zip

    Seata Server 1.2.0在Windows平台上的应用,为开发者提供了一套完整的分布式事务解决方案。其高性能、高稳定性和易用性,使得在复杂分布式环境中保证数据一致性变得更加简单。通过理解Seata的核心概念和特性,以及...

    世纪佳缘吴金龙:Spark介绍

    世纪佳缘在技术上做了相应的配置,比如使用Spark 1.2.0版本,并结合Scala 2.10.x和Jdk 1.6进行开发。在IDE的选择上,推荐使用IntelliJ IDEA,并配合相应的Scala插件。在开发Spark应用时,项目结构的配置、依赖库的...

    Spark入门(Python).pdf

    1. 下载Spark最新稳定版本(例如1.2.0)的预构建Hadoop 2.4包。 2. 解压缩文件。 3. 将解压缩的目录移动到适当的应用程序目录。 4. 创建指向Spark版本的符号链接,便于版本管理。 5. 修改BASH配置,将Spark添加到...

    nacos-server-1.2.0.rar

    综上所述,"nacos-server-1.2.0.rar"是一个包含Nacos服务器1.2.0版本的压缩包,用于搭建和体验Spring Cloud Alibaba的分布式服务治理环境。结合OpenFeign、Druid和Seata,可以构建出一套完整的微服务体系,以应对...

Global site tag (gtag.js) - Google Analytics