`

spark1.1.0部署standalone分布式集群

阅读更多

配置三个节点的spark集群,集群模式为standalone模式,其中sp1节点作为主节点,sp2节点和sp3节点为从节点。***注意所有操作均为root用户。



创建3个CentOS虚拟机,如下:
sp1 192.168.1.21 //master节点
sp2 192.168.1.22 //slave节点
sp3 192.168.1.23 //slave节点



配置/etc/sysconfig/network环境变量,如下:
在sp1节点上执行:vi /etc/sysconfig/network将HOSTNAME=localhost改成HOSTNAME=sp1
在sp2节点上执行:vi /etc/sysconfig/network将HOSTNAME=localhost改成HOSTNAME=sp2
在sp3节点上执行:vi /etc/sysconfig/network将HOSTNAME=localhost改成HOSTNAME=sp3



配置/etc/hosts主机名和IP地址映射关系,如下:
每个节点配置为:
192.168.1.21    sp1
192.168.1.22    sp2
192.168.1.23    sp3



关闭防火墙如下:
停止运行防火墙:service iptables stop
关闭防火墙自启动:chkconfig iptables off
验证防火墙是否关闭:chkconfig --list | grep iptables



生成ssh免密码登陆如下:
分别在每个节点上生成公钥私钥:
ssh-keygen -t rsa三次回车
cp id_rsa.put authorized_keys
将sp2节点和sp3节点的authorized_keys的内容复制到sp1节点上:
sp2节点上执行:ssh-copy-id -i sp1
sp3节点上执行:ssh-copy-id -i sp1
将sp1节点的authorized_keys(这个authorized_keys的内容是三个节点的公钥)的复制到sp2节点和sp3节点上:
sp1节点上执行:scp /root/.ssh/authorized_keys sp2:/root/.ssh/
sp1节点上执行:scp /root/.ssh/authorized_keys sp3:/root/.ssh/
配置ssh免密码登陆成功,验证如下:
sp1节点上执行:ssh sp2和ssh sp3
sp2节点上执行:ssh sp1和ssh sp3
sp3节点上执行:ssh sp2和ssh sp1



从网上下载jdk-6u45-linux-x64.bin文件,将这个文件使用WinSCP工具复制到sp1节点的/usr/local/jdk/下。



在sp1节点上安装jdk-6u45-linux-x64.bin,如下:
进入/usr/local/jdk/目录:cd /usr/local/jdk
为jdk-6u45-linux-x64.bin赋予执行权限:chmod u+x jdk-6u45-linux-x64.bin
将jdk-6u45-linux-x64.bin解压到/usr/local/jdk/文件夹下:./jdk-6u45-linux-x64.bin
将解压出来的jdk-1.6.43重命名为jdk6:mv jdk-1.6.43 jdk6
配置jdk到系统环境变量:vi /etc/profile添加内容如下:
export JAVA_HOME=/usr/local/jdk/jdk6
export PATH=.:$JAVA_HOME/bin:$PATH
使修改立即生效:source /etc/profile
验证jdk安装是否成功:java -version



从网上下载scala-2.9.3.tgz,spark-1.1.0-bin-hadoop2.4.tgz两个压缩包;将这两个压缩包使用WinSCP工具复制到sp1节点的/usr/local/spark1/下。



在sp1节点上安装scala-2.9.3.tgz,如下:
进入/usr/local/spark1/目录下:cd /usr/local/spark1/
解压scala-2.9.3.tgz:tar -zxvf scala-2.9.3.tgz
重命名解压出来的scala-2.9.3为scala:mv scala-2.9.3 scala
配置scala到系统环境变量:vi /etc/profile添加内容如下:
export SCALA_HOME=/usr/local/spark1/scala
export PATH=.:$SCALA_HOME/bin:$JAVA_HOME/bin:$PATH
使修改立即生效:source /etc/profile
验证scala安装是否成功:scala 或者 scala -version



在sp1节点上安装spark-1.1.0-bin-hadoop2.4.tgz,如下:
进入/usr/local/spark1/目录下:cd /usr/local/spark1/
解压spark-1.1.0-bin-hadoop2.4.tgz:tar -zxvf spark-1.1.0-bin-hadoop2.4.tgz
重命名解压出来的spark-1.1.0-bin-hadoop2.4为spark:mv spark-1.1.0-bin-hadoop2.4 spark
配置scala到系统环境变量:vi /etc/profile添加内容如下:
export SPARK_HOME=/usr/local/spark1/spark
export PATH=.:$SPARK_HOME/bin:$SCALA_HOME/bin:$JAVA_HOME/bin:$PATH
使修改立即生效:source /etc/profile
配置spark运行依赖的/usr/local/spark1/spark/conf/spark-env.sh文件,添加内容如下:
export SCALA_HOME=/usr/local/spark1/scala
export JAVA_HOME=/usr/local/jdk/jdk6
export SPARK_MASTER_IP=sp1
export SPARK_WORKER_CORES=1
export SPARK_WORKER_MEMORY=512m
export SPARK_WORKER_PORT=8888
export SPARK_WORKER_INSTANCES=1
配置spark的从节点/usr/local/spark1/spark/conf/slaves文件,将默认的localhost修改为如下:
sp1
sp2
sp3
配置成功后,将环境变量,/usr/local/spark1和/usr/local/jdk复制到sp2和sp3节点上,如下:
复制sp1节点环境变量到sp2节点:scp /etc/profile sp2:/etc/
复制sp1节点环境变量到sp3节点:scp /etc/profile sp3:/etc/
***注意:环境变量复制成功后需要分别在sp2节点和sp3节点上执行命令使修改立即生效:source /etc/profile
复制sp1节点解压出来配置好的spark和scala到sp2节点:scp -r /usr/local/* sp2:/usr/local/
复制sp1节点解压出来配置好的spark和scala到sp3节点:scp -r /usr/local/* sp3:/usr/local/
***注意:按照上述步骤完成后即可启动spark集群。
启动spark命令:start-all.sh
[root@sp1 sbin]# start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.master.Master-1-sp1.out
sp3: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.worker.Worker-1-sp3.out
sp2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.worker.Worker-1-sp2.out
sp1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.worker.Worker-1-sp1.out
验证spark启动是否成功1:分别在三个节点上执行jps命令,结果如下为正确(忽略进程号):
sp1
2305 Worker
2156 Master
2410 Jps
sp2
2057 Worker
2138 Jps
sp3
2056 Worker
2136 Jps
验证spark启动是否成功2:在浏览器中输入localhost:8080验证是否启动成功。
停止spark命令:stop-all.sh



至此spark的standalone模式集群(3个节点)部署完成。



在h2的yarn上部署spark集群


分享到:
评论

相关推荐

    SparkSql技术

    - **Spark1.1.0 Standalone集群搭建**:提供了搭建Spark 1.1.0 Standalone集群的步骤。 **5.2 客户端的搭建** - 描述了如何搭建SparkSQL的客户端环境。 **5.3 文件数据准备工作** - 指导如何准备测试所需的文件...

    jdbc连接hive的jar包

    描述中提到的"在ambari2.5.2下安装的hadoop版本,后面的版本应该都没问题",意味着这个配置是在Ambari管理工具的特定版本下完成的,Ambari是一个用于Hadoop集群部署、管理和监控的开源工具。这里的hadoop版本为2.5.2...

    打造高效集成工具箱:基于Python与Tkinter的实战开发教程

    在日常的开发和使用中,我们经常需要借助各种小工具来提高工作效率,例如快速启动常用的应用程序、管理文件等。一个简单但功能强大的集成工具箱可以帮助用户快速访问、启动并管理程序。今天,我们将以Python为基础,结合Tkinter和Win32API,开发一个类似Windows快捷方式的工具箱应用,能够让你轻松集成各种常用程序并一键启动

    django自建博客app

    django自建博客app

    《基于YOLOv8的智慧校园实验室高压灭菌锅安全联锁系统》(包含源码、可视化界面、完整数据集、部署教程)简单部署即可运行。功能完善、操作简单,适合毕设或课程设计.zip

    《基于YOLOv8的智慧校园实验室高压灭菌锅安全联锁系统》(包含源码、可视化界面、完整数据集、部署教程)简单部署即可运行。功能完善、操作简单,适合毕设或课程设计

    测试啊啊啊啊啊啊啊!!!!!

    测试啊啊啊啊啊啊啊!!!!!

    用于hifi测序数据的基因组组装程序

    用于hifi测序数据的基因组组装程序

    Microsoft Access 2010 数据库引擎可再发行程序包AccessDatabaseEngine-X64解压后的文件AceRedist

    Microsoft Access 2010 数据库引擎可再发行程序包AccessDatabaseEngine-X64解压后的文件AceRedist

    从大模型、智能体到复杂AI应用系统的构建-以产业大脑为例.pdf

    从大模型、智能体到复杂AI应用系统的构建——以产业大脑为例

    自然语言处理之TF-IDF算法与TextRank算法的缠绵_textrank,tf-idf和两者的组合-CSDN博客.html

    自然语言处理之TF-IDF算法与TextRank算法的缠绵_textrank,tf-idf和两者的组合-CSDN博客.html

    科学智能2023版《科学智能 (AI4S)全球发展观察与展望》:AI4S驱动的跨领域技术创新与应用

    内容概要:2023版《科学智能 (AI4S)全球发展观察与展望》阐述了AI for Science(AI4S)在全球范围内的最新进展及其对科学和工业的深远影响。文章首先回顾了AI4S在过去一年中的快速发展,特别是在药物研发、材料科学、地质学、污染治理等多个领域的应用实例。AI4S通过结合深度学习、机器学习和其他AI技术,加速了从基础研究到实际应用的转化过程。例如,在药物研发中,AI4S帮助科学家克服了“反摩尔定律”的挑战,提高了新药研发的成功率;在材料科学中,AI4S实现了复杂材料的高效模拟,如人造钻石、石墨烯、碳纳米管等;在地质学中,AI4S通过模拟地球内部结构和物理过程,为地震学研究提供了新视角。此外,文章还探讨了大语言模型(LLMs)与科学方法的结合,指出LLMs不仅能辅助科学研究,还能生成新的科学假设并进行逻辑推理。 适合人群:具备一定科研背景或对AI技术感兴趣的科研人员、工程师、政策制定者及高校师生。

    个人健康与健身追踪数据集,包含了日常步数统计、睡眠时长、活跃分钟数以及消耗的卡路里,适用于数据分析、机器学习

    这个数据集包含了日常步数统计、睡眠时长、活跃分钟数以及消耗的卡路里,是个人健康与健身追踪的一部分。 该数据集非常适合用于以下实践: 数据清洗:现实世界中的数据往往包含缺失值、异常值或不一致之处。例如,某些天的步数可能缺失,或者存在不切实际的数值(如10,000小时的睡眠或负数的卡路里消耗)。通过处理这些问题,可以学习如何清理和准备数据进行分析。 探索性分析(发现日常习惯中的模式):可以通过分析找出日常生活中的模式和趋势,比如一周中哪一天人们通常走得最多,或是睡眠时间与活跃程度之间的关系等。 构建可视化图表(步数趋势、睡眠与活动对比图):将数据转换成易于理解的图形形式,有助于更直观地看出数据的趋势和关联。例如,绘制步数随时间变化的趋势图,或是比较睡眠时间和活动量之间的关系图。 数据叙事(将个人风格的追踪转化为可操作的见解):通过讲述故事的方式,把从数据中得到的洞察变成具体的行动建议。例如,根据某人特定时间段内的活动水平和睡眠质量,提供改善健康状况的具体建议。

    框架结构天城商业办公楼5200平米(建筑图 结构图 计算书 开题报告 任务书 文献翻.zip

    框架结构天城商业办公楼5200平米(建筑图 结构图 计算书 开题报告 任务书 文献翻.zip

    柴油机连杆加工工艺及夹具设计.zip

    柴油机连杆加工工艺及夹具设计.zip

    BeautifulSoup中的select方法汇总

    读书网首页的HTML信息

    渐变色文字生成工具 v1.0一款让文字生成渐变颜色代码的软件文字渐变颜色代码生成器.rar

    文字渐变颜色代码生成器:让文字绽放多彩魅力,演示:在信息交流日益丰富的今天,个性化的文字展示成为吸引目光的关键。这款文字渐变颜色代码生成器,便是为满足这一需求而生的绿色软件,无需安装,便捷实用。 它的操作极为简便。用户只需在软件界面中输入想要转换的文字内容,接着从丰富的色彩选项里挑选心仪的起始颜色与结束颜色,随后轻轻按下 “转换按钮”,神奇的事情就此发生 —— 适用于论坛、网页、QQ 空间等多种平台,以及自定义格式的渐变颜色代码便会即刻生成。不仅如此,生成的代码还能自动复制到剪切板,极大地节省了用户手动复制的时间。当你在论坛回帖、更新网页内容或是装扮 QQ 空间时,只需轻松粘贴代码,原本单调的文字瞬间就能拥有绚丽的渐变色彩,瞬间脱颖而出,为你的表达增添独特魅力,让文字不再平凡,轻松成为视觉焦点。 一款可以轻松把一段文字生成渐变颜色代码的绿色软件,当你在软件中输入完要转换的文字后,只需要挑选自己喜欢的起始颜色、结束颜色后,按一下―转换按钮即可生成相应的论坛/网页/QQ空间以及自定义格式代码,并且代码可以自动复制到剪切板中,回帖时直接粘贴代码即可不错得文字代码生成器,让你得文字更加漂亮.

    【锂电池剩余寿命预测】Transformer锂电池剩余寿命预测(Matlab完整源码和数据)

    1.【锂电池剩余寿命预测】Transformer锂电池剩余寿命预测(Matlab完整源码和数据) 2.数据集:NASA数据集,已经处理好,B0005电池训练、B0006测试; 3.环境准备:Matlab2023b,可读性强; 4.模型描述:Transformer在各种各样的问题上表现非常出色,现在被广泛使用。 5.领域描述:近年来,随着锂离子电池的能量密度、功率密度逐渐提升,其安全性能与剩余使用寿命预测变得愈发重要。本代码实现了Transformer在该领域的应用。 6.作者介绍:机器学习之心,博客专家认证,机器学习领域创作者,2023博客之星TOP50,主做机器学习和深度学习时序、回归、分类、聚类和降维等程序设计和案例分析,文章底部有博主联系方式。从事Matlab、Python算法仿真工作8年,更多仿真源码、数据集定制私信。

    《基于YOLOv8的船舶压载水违规排放监测系统》(包含源码、可视化界面、完整数据集、部署教程)简单部署即可运行。功能完善、操作简单,适合毕设或课程设计.zip

    资源内项目源码是来自个人的毕业设计,代码都测试ok,包含源码、数据集、可视化页面和部署说明,可产生核心指标曲线图、混淆矩阵、F1分数曲线、精确率-召回率曲线、验证集预测结果、标签分布图。都是运行成功后才上传资源,毕设答辩评审绝对信服的保底85分以上,放心下载使用,拿来就能用。包含源码、数据集、可视化页面和部署说明一站式服务,拿来就能用的绝对好资源!!! 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、大作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.txt文件,仅供学习参考, 切勿用于商业用途。

    《基于YOLOv8的港口船舶靠泊角度偏差预警系统》(包含源码、可视化界面、完整数据集、部署教程)简单部署即可运行。功能完善、操作简单,适合毕设或课程设计.zip

    资源内项目源码是来自个人的毕业设计,代码都测试ok,包含源码、数据集、可视化页面和部署说明,可产生核心指标曲线图、混淆矩阵、F1分数曲线、精确率-召回率曲线、验证集预测结果、标签分布图。都是运行成功后才上传资源,毕设答辩评审绝对信服的保底85分以上,放心下载使用,拿来就能用。包含源码、数据集、可视化页面和部署说明一站式服务,拿来就能用的绝对好资源!!! 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、大作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.txt文件,仅供学习参考, 切勿用于商业用途。

    基于android的英语学习记单词软件设计与开发-终稿.zip

    Android项目原生java语言课程设计,包含LW+ppt

Global site tag (gtag.js) - Google Analytics