`

spark1.1.0部署standalone分布式集群

阅读更多

配置三个节点的spark集群,集群模式为standalone模式,其中sp1节点作为主节点,sp2节点和sp3节点为从节点。***注意所有操作均为root用户。



创建3个CentOS虚拟机,如下:
sp1 192.168.1.21 //master节点
sp2 192.168.1.22 //slave节点
sp3 192.168.1.23 //slave节点



配置/etc/sysconfig/network环境变量,如下:
在sp1节点上执行:vi /etc/sysconfig/network将HOSTNAME=localhost改成HOSTNAME=sp1
在sp2节点上执行:vi /etc/sysconfig/network将HOSTNAME=localhost改成HOSTNAME=sp2
在sp3节点上执行:vi /etc/sysconfig/network将HOSTNAME=localhost改成HOSTNAME=sp3



配置/etc/hosts主机名和IP地址映射关系,如下:
每个节点配置为:
192.168.1.21    sp1
192.168.1.22    sp2
192.168.1.23    sp3



关闭防火墙如下:
停止运行防火墙:service iptables stop
关闭防火墙自启动:chkconfig iptables off
验证防火墙是否关闭:chkconfig --list | grep iptables



生成ssh免密码登陆如下:
分别在每个节点上生成公钥私钥:
ssh-keygen -t rsa三次回车
cp id_rsa.put authorized_keys
将sp2节点和sp3节点的authorized_keys的内容复制到sp1节点上:
sp2节点上执行:ssh-copy-id -i sp1
sp3节点上执行:ssh-copy-id -i sp1
将sp1节点的authorized_keys(这个authorized_keys的内容是三个节点的公钥)的复制到sp2节点和sp3节点上:
sp1节点上执行:scp /root/.ssh/authorized_keys sp2:/root/.ssh/
sp1节点上执行:scp /root/.ssh/authorized_keys sp3:/root/.ssh/
配置ssh免密码登陆成功,验证如下:
sp1节点上执行:ssh sp2和ssh sp3
sp2节点上执行:ssh sp1和ssh sp3
sp3节点上执行:ssh sp2和ssh sp1



从网上下载jdk-6u45-linux-x64.bin文件,将这个文件使用WinSCP工具复制到sp1节点的/usr/local/jdk/下。



在sp1节点上安装jdk-6u45-linux-x64.bin,如下:
进入/usr/local/jdk/目录:cd /usr/local/jdk
为jdk-6u45-linux-x64.bin赋予执行权限:chmod u+x jdk-6u45-linux-x64.bin
将jdk-6u45-linux-x64.bin解压到/usr/local/jdk/文件夹下:./jdk-6u45-linux-x64.bin
将解压出来的jdk-1.6.43重命名为jdk6:mv jdk-1.6.43 jdk6
配置jdk到系统环境变量:vi /etc/profile添加内容如下:
export JAVA_HOME=/usr/local/jdk/jdk6
export PATH=.:$JAVA_HOME/bin:$PATH
使修改立即生效:source /etc/profile
验证jdk安装是否成功:java -version



从网上下载scala-2.9.3.tgz,spark-1.1.0-bin-hadoop2.4.tgz两个压缩包;将这两个压缩包使用WinSCP工具复制到sp1节点的/usr/local/spark1/下。



在sp1节点上安装scala-2.9.3.tgz,如下:
进入/usr/local/spark1/目录下:cd /usr/local/spark1/
解压scala-2.9.3.tgz:tar -zxvf scala-2.9.3.tgz
重命名解压出来的scala-2.9.3为scala:mv scala-2.9.3 scala
配置scala到系统环境变量:vi /etc/profile添加内容如下:
export SCALA_HOME=/usr/local/spark1/scala
export PATH=.:$SCALA_HOME/bin:$JAVA_HOME/bin:$PATH
使修改立即生效:source /etc/profile
验证scala安装是否成功:scala 或者 scala -version



在sp1节点上安装spark-1.1.0-bin-hadoop2.4.tgz,如下:
进入/usr/local/spark1/目录下:cd /usr/local/spark1/
解压spark-1.1.0-bin-hadoop2.4.tgz:tar -zxvf spark-1.1.0-bin-hadoop2.4.tgz
重命名解压出来的spark-1.1.0-bin-hadoop2.4为spark:mv spark-1.1.0-bin-hadoop2.4 spark
配置scala到系统环境变量:vi /etc/profile添加内容如下:
export SPARK_HOME=/usr/local/spark1/spark
export PATH=.:$SPARK_HOME/bin:$SCALA_HOME/bin:$JAVA_HOME/bin:$PATH
使修改立即生效:source /etc/profile
配置spark运行依赖的/usr/local/spark1/spark/conf/spark-env.sh文件,添加内容如下:
export SCALA_HOME=/usr/local/spark1/scala
export JAVA_HOME=/usr/local/jdk/jdk6
export SPARK_MASTER_IP=sp1
export SPARK_WORKER_CORES=1
export SPARK_WORKER_MEMORY=512m
export SPARK_WORKER_PORT=8888
export SPARK_WORKER_INSTANCES=1
配置spark的从节点/usr/local/spark1/spark/conf/slaves文件,将默认的localhost修改为如下:
sp1
sp2
sp3
配置成功后,将环境变量,/usr/local/spark1和/usr/local/jdk复制到sp2和sp3节点上,如下:
复制sp1节点环境变量到sp2节点:scp /etc/profile sp2:/etc/
复制sp1节点环境变量到sp3节点:scp /etc/profile sp3:/etc/
***注意:环境变量复制成功后需要分别在sp2节点和sp3节点上执行命令使修改立即生效:source /etc/profile
复制sp1节点解压出来配置好的spark和scala到sp2节点:scp -r /usr/local/* sp2:/usr/local/
复制sp1节点解压出来配置好的spark和scala到sp3节点:scp -r /usr/local/* sp3:/usr/local/
***注意:按照上述步骤完成后即可启动spark集群。
启动spark命令:start-all.sh
[root@sp1 sbin]# start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.master.Master-1-sp1.out
sp3: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.worker.Worker-1-sp3.out
sp2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.worker.Worker-1-sp2.out
sp1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark1/spark/sbin/../logs/spark-root-org.apache.spark.deploy.worker.Worker-1-sp1.out
验证spark启动是否成功1:分别在三个节点上执行jps命令,结果如下为正确(忽略进程号):
sp1
2305 Worker
2156 Master
2410 Jps
sp2
2057 Worker
2138 Jps
sp3
2056 Worker
2136 Jps
验证spark启动是否成功2:在浏览器中输入localhost:8080验证是否启动成功。
停止spark命令:stop-all.sh



至此spark的standalone模式集群(3个节点)部署完成。



在h2的yarn上部署spark集群


分享到:
评论

相关推荐

    windows配置hadoop-1.1.0的伪分布式环境

    在Windows系统上配置Hadoop 1.1.0的伪分布式环境是一项技术性较强的任务,涉及到多个步骤和关键配置文件的设置。以下将详细介绍这个过程,以及与之相关的知识点。 首先,我们需要理解Hadoop的基本概念。Hadoop是...

    spark 1.1.0

    Spark 1.1.0是Apache Spark的一个早期版本,它在大数据处理领域具有重要的地位...在使用压缩包文件"spark-1.1.0"时,用户可以编译源代码,然后在自己的集群环境中部署和运行Spark应用程序,从而利用其强大的计算能力。

    moco-runner-1.1.0-standalone.jar

    moco-runner-1.1.0-standalone.jar Moco是一个简单搭建模拟服务器的程序库/工具,基于 Java 开发的开源项目,框架的开发灵感来自 Mock 框架

    hive-jdbc-1.1.0-cdh5.12.1-standalone.jar

    hive连接jdbc的jar包hive-jdbc-1.1.0-cdh5.12.1-standalone.jar

    hive jdbc驱动 1.1.0 cdh5.14.2 standalone

    hive jdbc驱动 1.1.0 cdh5.14.2 standalone

    hive-jdbc-1.1.0-cdh5.4.5-standalone.jar

    hive-jdbc-1.1.0-cdh5.4.5-standalone.jar Caused by: java.sql.SQLException: java.lang.ClassNotFoundException: org.apache.hive.jdbc.HiveDriver at com.trs.gateway.commons.hive.HiveFeature.getConnection...

    spark集群搭建

    在介绍Spark集群的具体部署步骤之前,首先需要了解Spark集群可以有多种部署方式,其中一种常用的方式是在Yarn之上部署Spark集群。考虑到Yarn是Hadoop的第二代MapReduce架构,因此在部署Spark集群前需要先完成Hadoop...

    Spark 编程指南 (v1.1.0)

    在中国,Spark的应用也在逐渐普及,很多大型互联网公司如淘宝、腾讯、百度、网易、京东、华为等都开始在生产环境中部署Spark集群,并且深度使用其提供的各个子框架和库。 由于Spark在大数据处理领域的快速崛起,...

    HIKVISION iSecure Center 综合安防管理平台 安装部署指南 V1.1.0

    - 具体的分布式部署步骤则需要参考官方文档和专业人员的指导。 综上所述,HIKVISION iSecure Center综合安防管理平台安装部署指南是一份详细的技术文档,用于指导用户如何正确地安装和部署海康威视的安防管理平台...

    spark-core_2.10-1.1.0

    spark-core_2.10-1.1.0

    storm1.1.0版本单节点部署

    Storm 1.1.0 单节点部署指南 Apache Storm 是一个开源的分布式实时计算系统,它能够处理大规模的数据流并进行实时分析。在单节点部署中,所有的 Storm 组件,包括 Nimbus、Supervisor 和 UI,都将运行在同一台机器...

    《Spark SQL编程指南(v1.1.0)

    Spark SQL v1.1.0版本是该组件的一个关键里程碑,引入了许多改进和新特性。 **1. DataFrame和Dataset API** DataFrame是Spark SQL的核心概念,它提供了一种统一的方式来处理各种数据源,包括Hive,Parquet,JSON,...

    hive-jdbc-1.1.0-cdh5.12.1-standalone.rar

    "standalone"版本意味着这个驱动不需要依赖CDH环境中的其他组件,可以直接在客户端机器上运行,这对于开发、测试或者部署独立应用非常方便。解压"hive-jdbc-1.1.0-cdh5.12.1-standalone"压缩包后,通常会包含以下...

    SparkDeployTools:用于将 spark 自动部署到多节点的 Linux shell

    Spark自动部署工具 本工具有一些需要Expect工具的支持实现SSH用户名和密码自动登录。 1. linux\mscp 一键多节点拷贝,使用expect进行远程ssh登陆。可以实现自动解压缩tar文件,自动递归拷贝目录。会调用multicopy_...

    org.mongodb.spark:mongo-spark-connector_2.11:1.1.0

    mongodb-spark官方连接器,运行spark-submit --packages org.mongodb.spark:mongo-spark-connector_2.11:1.1.0可以自动下载,国内网络不容易下载成功,解压后保存到~/.ivy2目录下即可。

    docker-flink:使用 Docker-Compose 在 Docker 容器中部署 Apache Flink 集群

    #Apache Flink 集群部署在 Docker 上使用 Docker-Compose ##安装###安装Docker 如果您遇到与 Docker 版本不兼容的 Docker-Compose 版本问题,请尝试curl -sSL https://get.docker.com/ubuntu/ | sudo sh ###Install ...

    seata-server-1.1.0.zip

    此外,Seata-server支持集群部署,以提高服务的可用性和处理能力。 总的来说,Seata-server-1.1.0是一个强大的工具,能够有效地解决分布式系统中的事务一致性问题,简化开发过程,并提升系统的扩展性和稳定性。无论...

    seata-1.1.0.zip

    7. **Seata 的安装与部署**:Seata 1.1.0 可以通过下载 seata-1.1.0.zip 文件进行快速部署。解压后,包含 server 目录,其中包含了 Seata 服务器的运行所需文件,如配置文件、启动脚本等。按照官方文档的指导,配置...

    adamcloud:使用Adam的基因组转换管道的便携式云基础架构

    adam:ADAM最新版本,已为Hadoop 2.3预先构建了Spark 1.1.0 adam_0.14.0:针对Hadoop 2.3预先构建的带有Spark 1.1.0的ADAM 0.14.0版本 鳄梨:针对Hadoop 2.3预先构建的带有Spark 1.1.0的AVOCADO最新版本 emboss_...

Global site tag (gtag.js) - Google Analytics