`
m635674608
  • 浏览: 5028979 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

Spark 启动脚本——sbin/start-slaves.sh

 
阅读更多

1. 运行sbin/spark-config.sh,设置SPARK_HOME和SPARK_CONF_DIR

2. 如果conf/spark-env.sh,则运行该脚本,设置可选环境变量

3. 检测环境变量SPARK_MASTER_PORT/SPARK_MASTER_IP,为master的端口/ip,默认为7077/{hostname}

以上三项基本同start-master.sh相同 

4. 检测SPARK_WORKER_INSTANCES

1) 如果为空,则执行脚本sbin/slaves.sh并传入命令

sbin/slaves.sh的作用是使用ssh免登录进入slaves执行命令 

传入的命令是sbin/start-slave.sh 1 spark://$SPARK_MASTER_IP:$SPARK_MASTER_PORT 

2) 如果不为空,即启动多实例 。检测SPARK_WORKER_WEBUI_PORT,不存在则默认8081

循环$SPARK_WORKER_INSTANCES遍,执行sbin/slaves.sh脚本并传入命令

传入的命令是sbin/start-slave.sh $(( $i + 1 )) spark://$SPARK_MASTER_IP:$SPARK_MASTER_PORT --webui-port $(( $SPARK_WORKER_WEBUI_PORT + $i ))

即传入的第一个参数是实例序号(1开始),webui-port设置为8081递增 

 

 

http://www.cnblogs.com/hujunfei/p/3622189.html

分享到:
评论

相关推荐

    spark2.3.0-hadoop2.6.tgz

    在命令行中,使用相应的启动脚本,如“sbin/start-master.sh”启动Master,然后在每个Worker节点上运行“sbin/start-slave.sh”连接到Master。 Spark 2.3.0引入了许多新特性,包括增强的SQL支持(DataFrame和...

    Spark编译与部署(中)--Hadoop编译安装

    /opt/hadoop-2.2.0/sbin/start-yarn.sh ``` ##### 2.2.5 验证YARN启动 检查YARN状态。 ```bash jps ``` 应当可以看到`ResourceManager`、`NodeManager`等进程正在运行。 #### 3. 问题解决 在编译安装过程中...

    Hadoop & Spark 安装、环境配置及应用项目详解.docx

    $SPARK_HOME/sbin/start-slave.sh spark://master:7077 ``` 通过访问`http://master:8080`可以看到Master的UI界面,显示集群的状态和正在运行的应用程序信息。 #### 三、应用项目示例 完成Hadoop和Spark的安装...

    BigDataFramwork-实验手册.docx

    在本手册中,Hadoop被安装在/opt/hadoop-2.6.5目录下,通过执行sbin目录下的start-all.sh、start-dfs.sh和start-yarn.sh脚本分别启动所有服务、HDFS和YARN。 二、Hive Hive是基于Hadoop的数据仓库工具,可以将结构...

    spark 高可用安装文档

    ./start-all.sh ``` 2. **检查服务状态**: - 主节点上应有两个进程:`Master` 和 `Worker`。 - 子节点上应只有一个 `Worker` 进程。 3. **访问Spark Web UI**: 通过浏览器访问主节点的Spark Web UI: ```...

    Spark环境搭建和使用方法

    3. **启动集群**:在主节点上执行`sbin/start-all.sh`脚本启动集群。 ##### 4.2 在集群上运行Spark应用程序 1. **提交任务**:使用`spark-submit`命令提交任务到集群,例如: ```bash spark-submit --class ...

    spark主节点搭建1

    启动 Spark 服务,你可以使用 `sbin/start-all.sh` 命令来启动所有节点的守护进程。请注意,只有当至少一个工作节点配置完毕后,才能成功启动,但最好在所有节点配置完成后启动服务,以避免不必要的问题。 为了监控...

    Python搭建Spark分布式集群环境

    - **启动Spark Master节点**:在Master节点上运行`start-master.sh`脚本来启动Spark Master服务。 ```bash cd /usr/local/spark/ sbin/start-master.sh ``` - **验证启动状态**:通过在Master节点上运行`jps...

    spark 分布式集群搭建

    2. 在计划作为 Master 的节点上运行 `./sbin/start-all.sh` 脚本来启动集群。 ##### 通过脚本启动集群 除了手动启动集群外,还可以通过脚本来自动完成这一过程。上述的 `start-all.sh` 脚本就是一个典型的例子。此...

    Spark、Hadoop大数据平台搭建.pdf

    例如,`sbin/start-all.sh`和`sbin/stop-all.sh`分别用于启动和停止所有服务。 8. **提交Spark任务**: 使用`spark-submit`命令提交Spark作业,指定Master地址(例如spark://name-node:7077)、executor内存大小...

    spark集群安装

    - 在Master节点上执行`sbin/start-all.sh`脚本以启动集群。 6. **验证Spark集群**: - 执行简单的测试程序来验证集群是否正确安装并运行。 #### WordCount程序实现 下面详细介绍如何在Spark Shell中实现一个...

    spark2.3.0.rar

    在配置完成后,用户可以通过启动`sbin/start-all.sh`脚本来启动Spark集群,然后可以通过Web UI(默认端口8080)监控集群状态。Spark SQL允许用户以SQL语句进行数据查询,而Spark Streaming则提供了实时数据处理的...

    hadoop2.7.3+hive1.2.1+spark2.0.1性能测试

    - 使用`sbin/start-all.sh`脚本启动Spark Master和Worker。 #### 五、性能测试方案 **5.1 测试准备** - 准备测试数据集,通常选择大规模的真实数据或模拟数据集。 - 设计测试脚本或程序,用于运行具体的测试案例...

    spark在虚拟机的安装

    使用`sbin/start-all.sh`脚本启动Spark Standalone集群。 5. **在Spark Standalone模式下运行pyspark** 使用`pyspark --master spark://master:7077 --num-executors 1 --total-executor-cores 3 --executor-...

    Spark全分布式集群搭建

    启动 Spark 集群的步骤是先启动 Hadoop,然后进入 Spark 的 sbin 目录执行 start-all.sh 脚本。启动后,可以使用 jps 命令来查看 Master 和 Worker 是否正常运行。Master 端口是 7077,Web 界面端口是 8080,而 ...

Global site tag (gtag.js) - Google Analytics