`
congli
  • 浏览: 15438 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Spark Standalone 集群部署图文分享

阅读更多
JDK和Scala的安装

请参阅Hadoop安装文章里的说明:http://congli.iteye.com/blog/2158007

SSH无密码登录
请参阅Hadoop安装文章里的说明:http://congli.iteye.com/blog/2158007

Spark的下载和安装包解压

1、  下载spark,我用的是1.1.0 for hadoop2.4版本,不用自己编译(暂时没有需要编译的需求,且编译需要下载jar包等,有些被墙了,先用编译好的
2、  用hadoop用户解压安装:
tar zxf /home/spark/spark-1.1.0-bin-hadoop2.4.tgz

如果是因为权限问题请chown给hadoop用户
chown -R hadoop:hadoop /app

3、 为了好记,所以我会给spark改下名字
 mv spark-1.1.0-bin-hadoop2.4/ spark110


Spark配置文件的配置

4、进入配置目录
 cd /app/spark110/conf/  

5、  节点的配置:删除localhost,再添加hadoo1、hadoop2、hadoop3
vi slaves 





6、  配置spark的运行环境,先从模板进行拷贝
cp spark-env.sh.template spark-env.sh

然后编辑
vi spark-env.sh

然后在最后插入:
export JAVA_HOME=/home/jvm/jdk1.8.0_25
export SPARK_MASTER_IP=hadoop1
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=1g


配置项说明(根据环境,自行配置):
引用
export SPARK_WORKER_CORES=1  一个worker用的核
export SPARK_WORKER_INSTANCES   一台机器开启多少个worker
export SPARK_WORKER_MEMORY=1g  用多少内存


环境变量的配置

环境变量配置(需要各个节点都配置),这里我就不细说了,请大家参阅上一篇文章的配置环境变量章节进行配置
传送门:http://congli.iteye.com/blog/2158007

Spark Standalone集群部署
将spark配置完成的目录copy到各个节点
scp -r spark110 hadoop@hadoop2:/app/spark110/
scp -r spark110 hadoop@hadoop3:/app/spark110/


启动Spark
现在启动Spark
sbin/start-all.sh


验证Spark安装是否完成

我们访问一下
http://hadoop1:8080/  会看到如下图的界面,里面可以看到有3个节点,正是我们配置的hadoop1、hadoop2、hadoop3


至此,我们的Spark集群就已经安装好了,如果开启Spark-Shell以及运行例子等,我之后会再开贴记录。
  • 大小: 4.7 KB
  • 大小: 101.4 KB
分享到:
评论

相关推荐

    spark 分布式集群搭建

    在部署 Spark Standalone 集群之前,需要明确其架构组成: - **Master**: 负责接收来自用户提交的应用程序,将应用程序分配到 Worker 节点上运行。 - **Worker**: 执行 Master 分配的任务,并将执行结果反馈给 ...

    Spark实验:Standalone模式安装部署(带答案)1

    【Spark Standalone模式安装部署详解】 Spark是一款快速、通用且可扩展的大数据处理框架,它提供了高效的批处理、交互式查询、流处理等多种计算模式。在Standalone模式下,Spark可以独立于任何分布式资源管理系统...

    Spark Standalone 单机版部署

    Spark standalone 单机版部署,看了网上很多方法,事实证明都是错误的,本人亲身经历,在导师的指导下,成功配置成功单机版。

    spark集群安装部署与初步开发

    ### Spark集群安装部署与初步开发知识点详述 #### 一、Spark概述 - **定义**:Spark是一款基于内存计算的大数据并行计算框架,旨在提供高效的数据处理能力。 - **特性**: - **内存计算**:利用内存提高数据处理...

    Spark Standalone架构设计.docx

    Spark Standalone 架构设计 Spark 是一个开源的通用集群计算系统,提供了 High-...Spark 集群模式架构,如下图所示:Spark 集群 Cluster Manager 目前支持如下三种模式:Standalone 模式、YARN 模式和 Mesos 模式。

    Flink 1.9.1 Standalone 集群部署.pdf

    本文档主要讲解Flink Standalone模式的集群的安装部署方法。此外,还包含了集群启停、任务提交、查看日志、执行自定义流处理程序等扩展主题。文档力求内容详实、步骤清晰,使读者阅后即可百分百掌握,不留疑问,轻松...

    spark集群部署.docx

    Spark 集群部署涉及多种模式,包括Standalone、Mesos和YARN。每种模式都有其特定的应用场景和优势。在企业环境中,特别是当Hadoop YARN已存在时,通常会选择YARN模式来部署Spark,因为它能提供统一的资源管理和支持...

    Spark环境搭建——standalone集群模式

    这篇博客,Alice为大家带来的是Spark集群环境搭建之——standalone集群模式。 文章目录集群角色介绍集群规划修改配置并分发启动和停止查看web界面测试 集群角色介绍  Spark是基于内存计算的大数据并行计算框架,...

    Spark2.3.0-Hadoop2.7.4集群部署

    ### Spark2.3.0与Hadoop2.7.4集群部署详解 #### 一、部署环境准备 在部署Spark2.3.0与Hadoop2.7.4集群之前,首先需要确保运行环境的稳定性与兼容性。本文将基于RedHat服务器进行详细讲解。 ##### 1.1 系统环境 - ...

    springboot整合spark连接远程服务计算框架使用standAlone模式

    可以通过Docker或者Kubernetes等容器化技术,将Spring Boot应用和Spark集群部署在同一网络环境中,以便于通信。 总结起来,Spring Boot与Spark的整合主要涉及引入依赖、配置Spark环境、创建计算逻辑和服务调用。在...

    spark之Standalone模式部署配置详解

    Spark 之 Standalone 模式部署配置详解 Spark 是一个基于内存的集群计算引擎,它可以在多种模式下运行,包括本地模式、伪分布式模式、集群模式等。在这些模式中,Standalone 模式是 Spark 的自带模式,对于大多数...

    基于Akka模拟实现Spark Standalone.pdf

    完成以上步骤后,可以通过简单的命令行方式启动ActorSystem,从而模拟Spark Standalone集群的行为。具体来说,可以先启动Master节点,然后再启动多个Worker节点。这些Worker节点将自动向Master注册,并准备接受任务...

    flink standalone部署的dockerfile

    flink 独立集群部署的dockerfile、dockercompose文件

    spark standalone的集群镜像,基于zk做ha的镜像+源代码+文档说明

    - 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,...

    Spark大数据处理学习笔记

    本资源 Spark 大数据处理学习笔记对 Spark 大数据处理进行了系统的学习笔记,涵盖了 Spark Standalone 集群的搭建、RDD 的创建和算子、RDD 的分区、RDD 典型案例等多个方面的知识点。 一、Spark 大数据处理学习笔记...

    Spark Standalone模式集成HDFS配置清单

    Spark Standalone模式集成HDFS配置清单,教你如何配置spark和hdfs平台。由于Linux的防火墙限制,初学者嫌麻烦可以关闭防火墙。

    spark1.2.1常用模式部署运行

    本文档详细介绍了 Spark 1.2.1 在 standalone 集群模式和 on yarn 集群模式下的部署与运行方式。 Spark 版本和环境配置 Spark 1.2.1 的版本号为 spark-1.2.1-bin-hadoop2.4,已经做了相应的环境配置,例如 linux ...

    独立部署模式standalone下spark的配置

    独立部署模式standalone下spark配置,从乌班图到jak,scala,hadoop,spark的安装 部署

    Sparkonyarn集群搭建详细过程.pdf

    Spark 官方提供了三种集群部署方案:Standalone、Mesos、Yarn。其中 Standalone 为 spark 本身提供的集群模式,Mesos 是一款开源的集群管理器,Yarn 是 Hadoop 的资源管理层。 知识点8:Spark 集群搭建的软件环境 ...

Global site tag (gtag.js) - Google Analytics