`
m635674608
  • 浏览: 5028901 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

Spark 启动脚本——启动总结

 
阅读更多

1. 设置主目录和配置目录

2. 启动Master

sbin/spark-daemon.sh start org.apache.spark.deploy.master.Master 1 --ip $SPARK_MASTER_IP --port $SPARK_MASTER_PORT --webui-port $SPARK_MASTER_WEBUI_PORT

3. 启动slaves

单实例:sbin/start-slave.sh 1 spark://$SPARK_MASTER_IP:$SPARK_MASTER_PORT 

多实例:sbin/start-slave.sh i spark://$SPARK_MASTER_IP:$SPARK_MASTER_PORT --webui-port <8081++>

slave机执行命令:sbin/spark-daemon.sh start org.apache.spark.deploy.worker.Worker i spark://$SPARK_MASTER_IP:$SPARK_MASTER_PORT --webui-port <8081++>

4. 实际执行命令

bin/spark-class org.apache.spark.deploy.master.Master|org.apache.spark.deploy.worker.Worker spark://xxxxxx:xxxx --webui-port xxxx

 

http://www.cnblogs.com/hujunfei/p/3624508.html

分享到:
评论

相关推荐

    【自动化脚本】自动启动hdfs/yarn/spark HA集群

    脚本功能:启动集群 前提:配置好执行脚本的主机到其他主机的ssh登录 脚本使用:vim编辑脚本,按照自己的配置修改主机号,我的是hadoop1、2是NN;hadoop2、3是Spark Master;hadoop3还是RM;hadoop4、5、6是DN、NM、...

    spark-master.zip

    在"spark-master"这个文件夹中,可能包含了启动和配置Spark Master所需的各种文件和脚本。通常,你会看到如下内容: 1. `sbin`目录:包含启动和停止Spark Master的脚本,如`start-master.sh`和`stop-master.sh`。 2...

    Spark不能使用hive自定义函数.doc

    这可以通过修改 Spark 的启动脚本或者使用 `--jars` 参数来实现。 - 如果需要加载多个 jar 包,可以将它们放在同一个目录下,然后通过通配符方式引入所有 jar 文件,例如 `/root/mqw/udf/*`。 3. **优化依赖管理**...

    spark-3.0.0-bin-hadoop3.2

    在Windows环境下,你可以通过修改配置文件,设置环境变量,并使用提供的启动脚本来运行Spark Shell、Spark Submit等工具,开始你的大数据处理之旅。 为了充分利用Spark的功能,你需要了解如何配置Spark的运行环境,...

    基于spark的大数据过滤引擎推荐系统.zip

    首先,我们来看项目的核心技术——Spark。Spark是由Apache软件基金会维护的开源大数据处理框架,其主要特点是支持内存计算,大大提升了数据处理的速度。相比于Hadoop MapReduce,Spark通过将数据存储在内存中,减少...

    逻辑回归分类实验——【机器学习与算法分析】.docx

    1. **启动pyspark**:在命令行中使用`pyspark --master local[4]`启动Spark的本地模式。 2. **导入库和读取数据**:导入必要的库,如SparkContext、SQLContext、SparkConf等,然后读取wine数据集,将其转换为Spark ...

    hadoop 的windows补丁

    6. **启动Hadoop服务**: 使用Hadoop的启动脚本启动各个服务,如`start-dfs.cmd`和`start-yarn.cmd`。 7. **测试运行**: 通过运行简单的Hadoop命令,如`hadoop fs -ls /`,验证Hadoop是否已在Windows上成功运行。 ...

    ml-spark:毫升火花

    7. **示例脚本**:可能包含启动Spark作业的示例脚本,展示如何在命令行中提交任务。 通过对Spark和Scala的深入理解,以及对Spark Notebook的熟练运用,可以有效地进行大规模数据的预处理、特征工程、模型训练和评估...

    Hibench大数据基准测试手册 - 修订1.docx

    例如,运行`bin/run.sh hibench spark_benchmark`即可启动Spark基准测试。 ##### 2.4 运行流式处理基准测试 针对流式处理框架,如Spark Streaming、Flink、Storm和Gearpump,需要特别注意的是,这些框架的配置和...

    ranger-admin集成

    5. **启动Ranger Admin**:使用Ranger提供的启动脚本来启动服务,如 `start-all.sh`。 6. **设置安全**:根据组织的安全策略,可能需要配置SSL/TLS以加密通信,并启用Kerberos进行身份验证。 7. **连接数据源**:...

    forsub

    压缩包子文件的文件名称为"forsub-main",这可能是一个主文件或者启动脚本,它包含了运行整个"MP2_Spark"项目或任务的逻辑。在Python中,"main"通常用来表示程序的入口点,根据`if __name__ == "__main__"`条件判断...

    SparkInspectorFramework:用于 Cocoapods 和其他项目的 Spark Inspector 框架的副本

    SparkInspectorFramework 是一个专为Cocoapods和其他iOS开发项目设计的框架,它提供了一种强大的工具——Spark Inspector,用于调试和分析应用性能。在Objective-C编程语言环境下,这个框架可以帮助开发者深入理解...

    大数据安全-kerberos技术-hadoop安装包,hadoop版本:hadoop-3.3.4.tar.gz

    - 示例脚本和工具,如启动脚本、数据迁移工具等 总的来说,使用Kerberos与Hadoop-3.3.4结合,可以构建一个安全可靠的大数据处理环境。在实际操作中,管理员需要深入了解Kerberos的工作原理和Hadoop的配置细节,以...

    r-demos-aws:用于在AWS中运行R演示的脚本

    在使用r-demos-aws之前,需要了解AWS的基础服务,如EC2(Elastic Compute Cloud)——提供了可扩展的虚拟服务器,以及S3(Simple Storage Service)——用于存储和检索数据的云存储服务。理解这些服务如何协同工作...

    streamx-console-service_2.11-1.2.3.tar.gz

    前者可能是隐藏的MacOS元数据文件,后者则是实际的软件包内容,包含启动脚本、配置文件、依赖库等,用于在本地或服务器上部署StreamX Console Service。 在部署时,你需要按照官方文档的指导,配置相关参数(如...

    PyPI 官网下载 | aws-cdk.aws-emr-1.136.0.tar.gz

    例如,你可能需要根据业务需求动态调整集群规模,或者在特定时间启动和停止集群,这些都可以通过编写Python脚本和调用CDK API实现。此外,CDK还支持与其他AWS服务的集成,如S3(用于存储数据)、Lambda(用于事件...

    hadoop3lib.rar

    在压缩包中,这些组件的相关库文件可能包含配置信息、服务启动脚本等,对于理解并部署Hadoop集群至关重要。 在大数据处理中,Hadoop的MapReduce模型起着核心作用。它将大规模数据处理任务分解为许多小任务,分布在...

    hadoop-2.6.5【已配好windows版本,请按readme文件配置环境变量、放置dll】

    6. **启动Hadoop服务**:通过执行`start-dfs.sh`和`start-yarn.sh`脚本启动Hadoop的DataNodes、NameNode、ResourceManager和NodeManager等服务。你可以通过`jps`命令检查各个进程是否正常运行。 7. **测试Hadoop**...

    Hadoop _centos文件.rar

    6. **启动Hadoop**:通过执行`start-dfs.sh`和`start-yarn.sh`脚本启动HDFS和YARN服务。 7. **检查Hadoop状态**:使用`jps`命令查看各个Hadoop进程是否正常运行,或者通过Web UI访问`http://localhost:50070`...

    hadoop 无jar版 2.7.0

    标题中的“hadoop 无jar版 2.7.0”指的是Hadoop框架的一个特定版本——2.7.0,这个版本在某些情况下可能不包含通常所需的JAR文件。Hadoop是一个开源分布式计算框架,主要设计用于处理和存储大规模数据集。在分布式...

Global site tag (gtag.js) - Google Analytics