JDK和Scala的安装
请参阅Hadoop安装文章里的说明:
http://congli.iteye.com/blog/2158007
SSH无密码登录
请参阅Hadoop安装文章里的说明:
http://congli.iteye.com/blog/2158007
Spark的下载和安装包解压
1、 下载spark,我用的是1.1.0 for hadoop2.4版本,不用自己编译(
暂时没有需要编译的需求,且编译需要下载jar包等,有些被墙了,先用编译好的)
2、 用hadoop用户解压安装:
tar zxf /home/spark/spark-1.1.0-bin-hadoop2.4.tgz
如果是因为权限问题请chown给hadoop用户
chown -R hadoop:hadoop /app
3、 为了好记,所以我会给spark改下名字
mv spark-1.1.0-bin-hadoop2.4/ spark110
Spark配置文件的配置
4、进入配置目录
cd /app/spark110/conf/
5、 节点的配置:删除localhost,再添加hadoo1、hadoop2、hadoop3
vi slaves
6、 配置spark的运行环境,先从模板进行拷贝
cp spark-env.sh.template spark-env.sh
然后编辑
vi spark-env.sh
然后在最后插入:
export JAVA_HOME=/home/jvm/jdk1.8.0_25
export SPARK_MASTER_IP=hadoop1
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=1g
配置项说明(根据环境,自行配置):
引用
export SPARK_WORKER_CORES=1 一个worker用的核
export SPARK_WORKER_INSTANCES 一台机器开启多少个worker
export SPARK_WORKER_MEMORY=1g 用多少内存
环境变量的配置
环境变量配置(需要各个节点都配置),这里我就不细说了,请大家参阅上一篇文章的配置环境变量章节进行配置
传送门:
http://congli.iteye.com/blog/2158007
Spark Standalone集群部署
将spark配置完成的目录copy到各个节点
scp -r spark110 hadoop@hadoop2:/app/spark110/
scp -r spark110 hadoop@hadoop3:/app/spark110/
启动Spark
现在启动Spark
sbin/start-all.sh
验证Spark安装是否完成
我们访问一下
http://hadoop1:8080/ 会看到如下图的界面,里面可以看到有3个节点,正是我们配置的hadoop1、hadoop2、hadoop3
至此,我们的Spark集群就已经安装好了,如果开启Spark-Shell以及运行例子等,我之后会再开贴记录。
- 大小: 4.7 KB
- 大小: 101.4 KB
分享到:
相关推荐
在部署 Spark Standalone 集群之前,需要明确其架构组成: - **Master**: 负责接收来自用户提交的应用程序,将应用程序分配到 Worker 节点上运行。 - **Worker**: 执行 Master 分配的任务,并将执行结果反馈给 ...
【Spark Standalone模式安装部署详解】 Spark是一款快速、通用且可扩展的大数据处理框架,它提供了高效的批处理、交互式查询、流处理等多种计算模式。在Standalone模式下,Spark可以独立于任何分布式资源管理系统...
Spark standalone 单机版部署,看了网上很多方法,事实证明都是错误的,本人亲身经历,在导师的指导下,成功配置成功单机版。
### Spark集群安装部署与初步开发知识点详述 #### 一、Spark概述 - **定义**:Spark是一款基于内存计算的大数据并行计算框架,旨在提供高效的数据处理能力。 - **特性**: - **内存计算**:利用内存提高数据处理...
Spark Standalone 架构设计 Spark 是一个开源的通用集群计算系统,提供了 High-...Spark 集群模式架构,如下图所示:Spark 集群 Cluster Manager 目前支持如下三种模式:Standalone 模式、YARN 模式和 Mesos 模式。
本文档主要讲解Flink Standalone模式的集群的安装部署方法。此外,还包含了集群启停、任务提交、查看日志、执行自定义流处理程序等扩展主题。文档力求内容详实、步骤清晰,使读者阅后即可百分百掌握,不留疑问,轻松...
Spark 集群部署涉及多种模式,包括Standalone、Mesos和YARN。每种模式都有其特定的应用场景和优势。在企业环境中,特别是当Hadoop YARN已存在时,通常会选择YARN模式来部署Spark,因为它能提供统一的资源管理和支持...
这篇博客,Alice为大家带来的是Spark集群环境搭建之——standalone集群模式。 文章目录集群角色介绍集群规划修改配置并分发启动和停止查看web界面测试 集群角色介绍 Spark是基于内存计算的大数据并行计算框架,...
### Spark2.3.0与Hadoop2.7.4集群部署详解 #### 一、部署环境准备 在部署Spark2.3.0与Hadoop2.7.4集群之前,首先需要确保运行环境的稳定性与兼容性。本文将基于RedHat服务器进行详细讲解。 ##### 1.1 系统环境 - ...
可以通过Docker或者Kubernetes等容器化技术,将Spring Boot应用和Spark集群部署在同一网络环境中,以便于通信。 总结起来,Spring Boot与Spark的整合主要涉及引入依赖、配置Spark环境、创建计算逻辑和服务调用。在...
Spark 之 Standalone 模式部署配置详解 Spark 是一个基于内存的集群计算引擎,它可以在多种模式下运行,包括本地模式、伪分布式模式、集群模式等。在这些模式中,Standalone 模式是 Spark 的自带模式,对于大多数...
完成以上步骤后,可以通过简单的命令行方式启动ActorSystem,从而模拟Spark Standalone集群的行为。具体来说,可以先启动Master节点,然后再启动多个Worker节点。这些Worker节点将自动向Master注册,并准备接受任务...
flink 独立集群部署的dockerfile、dockercompose文件
- 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,...
本资源 Spark 大数据处理学习笔记对 Spark 大数据处理进行了系统的学习笔记,涵盖了 Spark Standalone 集群的搭建、RDD 的创建和算子、RDD 的分区、RDD 典型案例等多个方面的知识点。 一、Spark 大数据处理学习笔记...
Spark Standalone模式集成HDFS配置清单,教你如何配置spark和hdfs平台。由于Linux的防火墙限制,初学者嫌麻烦可以关闭防火墙。
本文档详细介绍了 Spark 1.2.1 在 standalone 集群模式和 on yarn 集群模式下的部署与运行方式。 Spark 版本和环境配置 Spark 1.2.1 的版本号为 spark-1.2.1-bin-hadoop2.4,已经做了相应的环境配置,例如 linux ...
独立部署模式standalone下spark配置,从乌班图到jak,scala,hadoop,spark的安装 部署
Spark 官方提供了三种集群部署方案:Standalone、Mesos、Yarn。其中 Standalone 为 spark 本身提供的集群模式,Mesos 是一款开源的集群管理器,Yarn 是 Hadoop 的资源管理层。 知识点8:Spark 集群搭建的软件环境 ...