`

Spark: deploy cluster in standlone mode

 
阅读更多

Host: 192.168.0.135 192.168.0.136   192.168.0.137

master: 137  workers:135 136

 

1.Install spark on all hosts  in /opt dir

 

2.Install SSH Remote Access

137#ssh-keygen

137#ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.0.135

137#ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.0.136

 

3. Configure

a. master 137

slaves

192.168.0.135
192.168.0.136

 

spark-env.sh

export SPARK_MASTER_IP=192.168.0.137
export SPARK_MASTER_PORT=7077

 

b. cp spark-env.sh to all workers nodes

 

4. start clusters

137#./sbin/start-all.sh

 

access: http://192.168.0.137:8080/     http://192.168.0.136:8081/

 

 

References

https://spark.apache.org/docs/latest/spark-standalone.html

https://trongkhoanguyenblog.wordpress.com/2014/11/15/how-to-install-spark-1-1-on-ubuntu/

分享到:
评论

相关推荐

    Spark: The Definitive Guide: Big Data Processing Made Simple 英文高清.pdf版

    Learn how to use, deploy, and maintain Apache Spark with this comprehensive guide, written by the creators of this open-source cluster-computing framework. With an emphasis on improvements and new ...

    spark_deploy

    例如,`--master yarn --deploy-mode cluster`表示在YARN集群上以cluster模式部署,`--num-executors`和`--executor-memory`分别设定Executor数量和内存。 了解了基本的部署步骤后,我们还要关注Spark的性能优化。...

    spark-sql sql on yarn -deploy-mode cluster 改造

    spark-sql sql on yarn --deploy-mode cluster 改造为 可以cluster提交

    maven-deploy-plugin-2.8.2.jar

    maven-deploy-plugin-2.8.2.jar

    BFS-using-Spark:并行和顺序BFS的比较

    使用Maven全新安装应用程序mvn全新安装使用以下命令启动主节点火花类org.apache.spark.deploy.master.Master 使用以下命令启动从属节点spark-class org.apache.spark.deploy.worker.Worker spark:// {masterIp}:...

    deploytest:deploytest

    在IT行业中,部署测试(Deploytest)是软件开发流程中的一个重要环节,主要目的是确保软件能够顺利地在目标环境中安装、配置并运行。本项目"deploytest:deploytest"似乎是一个专注于部署测试的开源项目,虽然提供的...

    Spark&Yarn手动安装指南

    2. 提交Spark任务:使用spark-submit命令提交Spark任务,例如:spark-submit --master yarn --class org.apache.spark.examples.SparkPi --deploy-mode cluster spark-examples-1.6.1-hadoop2.6.0.jar 200。...

    deploy-cloudrun:此操作将您的容器映像部署到Cloud Run

    deploy-cloudrun GitHub操作将您的容器映像部署到并通过输出使URL可用于以后的构建步骤。目录先决条件此操作要求: 经过授权可以部署Cloud Run服务的Google Cloud凭据。 有关更多信息,请参见下面的。用法- name : ...

    jenkins-spark-deploy:一个Jenkins插件,允许在Spark独立集群中部署停止的Apache Spark应用程序

    詹金斯Spark Deployer 通过此Jenkins插件,您可以将... 示例: spark://master.spark.cluster.com:6066 Spark Master REST HTTP URL 可选的。 如果您的Spark Masters位于负载平衡器/代理之后,则可以使用它告诉Jen

    OSF Builder Suite For SFCC :: Deploy-crx插件

    语言:English 此扩展将为您显示有关在SFCC实例上部署的当前内部版本的信息。 仅在SFCC上使用时,此...仅当在使用“ OSF Builder Suite For SFCC :: Deploy” Jenkins插件部署了构建的SFCC实例上使用时,此方法才有效。

    SparkStreaming:https的代码

    ./bin/spark-class org.apache.spark.deploy.worker.Worker spark://linuxmint-virtual-machine:7077 --cores 4 --memory 2G 运行TCP服务器 java -cp SparkStreaming-1.0.0.jar:lib/* it.blog.spark.streaming....

    Practical Apache Spark

    Work with Apache Spark using Scala to deploy and set up single-node, multi-node, and high-availability clusters. This book discusses various components of Spark such as Spark Core, DataFrames, ...

    deployplayground:deploy.sh 的游乐场

    "deployplayground:deploy.sh 的游乐场" 是一个专为实践和学习 `deploy.sh` 脚本而设计的项目,旨在帮助开发者理解如何通过 Git 实现自动化部署。`deploy.sh` 是一个 Bash 脚本,通常用于执行一系列命令,如构建、...

    spark1.2.1常用模式部署运行

    ./bin/spark-class org.apache.spark.deploy.worker.Worker spark://Master.hadoop:7077 ``` 可以通过 Web 界面 http://masterIP:8080 查看 Master 和 Worker 节点的状态。 Spark Component Spark 组件包括 ...

    fis3-deploy-tar:deploy 阶段用 tar 的方式打包资源

    deploy: [ fis.plugin('tar'), fis.plugin('local-deliver', { to: './output' }) ] }) // 或者 fis.match('*.tpl', { deploy: [ fis.plugin('tar', { filename: 'templates.tar.gz' }), fis.plugin('...

    FTP-Deploy-Action:使用GitHub动作将GitHub项目部署到FTP服务器

    name : :rocket: Deploy website on push jobs : web-deploy : name : :party_popper: Deploy runs-on : ubuntu-latest steps : - name : :delivery_truck: Get latest code uses : actions/checkout@v2.3.2 ...

Global site tag (gtag.js) - Google Analytics