1、安装scala
#解压scala-2.10.5.tgz tar -zxvf scala-2.10.5.tgz #配置SCALA_HOME vi /etc/profile #添加如下环境 export SCALA_HOME=/home/apps/scala-2.10.5 export PATH=.:$SCALA_HOME/bin:$PATH #测试scala安装是否成功 #直接输入 scala
2、安装
#解压spark-1.3.1-bin-hadoop2.6.tgz tar -zxvf spark-1.3.1-bin-hadoop2.6.tgz #配置SPARK_HOME vi /etc/profile #添加如下环境 export SCALA_HOME=/home/apps/spark-1.3.1 export PATH=.:$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
3、修改Spark配置文件
#复制slaves.template和 spark-env.sh.template各一份
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
export JAVA_HOME=/opt/jdk1.7.0_79
export SCALA_HOME=/opt/scala-2.10.5
export SPARK_MASTER_IP=192.168.1.111
export SPARK_WORKER_MEMORY=200m
export HADOOP_CONF_DIR=/opt/bigdata/hadoop272
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_JAVA_OPTS
备注
#JDK安装路径 export JAVA_HOME=/opt/jdk1.7.0_79 #SCALA安装路径 export SCALA_HOME=/root/app/scala-2.10.5 #主节点的IP地址 export SPARK_MASTER_IP=192.168.1.111 #分配的内存大小 export SPARK_WORKER_MEMORY=200m #指定hadoop的配置文件目录 export HADOOP_CONF_DIR=/opt/bigdata/hadoop272 #指定worker工作时分配cpu数量 export SPARK_WORKER_CORES=1 #指定spark实例,一般1个足以 export SPARK_WORKER_INSTANCES=1 #jvm操作,在spark1.0之后增加了spark-defaults.conf默认配置文件,该配置参数在默认配置在该文件中 export SPARK_JAVA_OPTS
4、测试spark安装是否成功
在主节点机器上启动顺序 1、先启动hdfs(./sbin/start-dfs.sh) ./start-dfs.sh 2、启动spark-master(./sbin/start-master.sh) sh start-master.sh 3、启动spark-worker(./sbin/start-slaves.sh) sh start-slaves.sh
查看机器进程
[root@hadoop0 ~]# jps
3149 Worker
2835 SecondaryNameNode
2608 DataNode
3496 Jps
2515 NameNode
2993 Master
相关推荐
Spark 环境搭建 - Windows 本文将指导您在 Windows 平台上搭建 Spark 环境,包括 JDK、Scala、Hadoop、Python 和 Spark 的安装和配置。 Python 的安装与配置 Python 是 Spark 的依赖项之一,需要安装 Python ...
Spark 环境搭建 - Linux 本资源summary是关于在 Linux 上搭建 Spark 环境的详细教程。该教程从准备环境开始,到安装 JDK、Scala 和 Spark,最后设置 SSH 免密码登录,旨在帮助用户快速搭建 Spark 环境。 一、环境...
Spark 环境搭建 Spark 环境搭建是指在本地机器上安装和配置 Spark 相关组件,以便进行 Spark 的学习和开发。本文将指导读者从头开始搭建 Spark 环境,包括 JDK 安装、Spark 下载、Scala 安装、Hadoop 安装和 Spark ...
### Spark环境搭建与使用方法详解 #### 一、引言 Apache Spark作为一款高性能的数据处理框架,被广泛应用于大规模数据处理场景中。本文将详细介绍如何搭建Spark环境,并介绍其基本使用方法。通过以下步骤,您将...
### Spark环境搭建详解 在大数据处理领域,Apache Spark凭借其高效的数据处理能力及广泛的社区支持,成为了不可或缺的工具之一。本文将详细介绍如何在Linux环境下搭建Spark环境,包括JDK、Scala以及Spark本身的安装...
《Openfire与Spark环境搭建详解》 Openfire与Spark是一款流行的开源即时通讯系统,通过集成这两款工具,可以构建高效且安全的企业内部通信平台。本文将详细介绍如何在本地环境中搭建Openfire服务器并配置Spark...
在Ubuntu 16.04上搭建JDK、Hadoop和Spark环境的过程涉及到多个步骤,包括添加软件源、安装软件、配置环境变量、修改配置文件以及启动服务。这个过程中需要注意的是,每个组件的版本应该相互兼容,以确保系统的稳定...
2. **配置Spark环境** - 配置Spark的核心配置文件`spark-env.sh`、`spark-defaults.conf`等,以适应集群环境。 - 设置`SPARK_HOME`环境变量,并确保所有节点都已安装好所需的依赖库(如Hadoop等)。 3. **启动...
Eclipse搭建的spark开发环境,微云可下!Eclipse搭建的spark开发环境,微云可下!
### Spark集群及开发环境搭建(完整版) #### 一、软件及下载 本文档提供了详细的步骤来指导初学者搭建Spark集群及其开发环境。首先需要准备的软件包括: - **VirtualBox-5.1**:虚拟机软件,用于安装CentOS操作...
2. **配置Spark环境变量**:在master节点的`.bash_profile`中添加Spark相关环境变量,如SPARK_HOME,然后在所有节点上使其生效。 3. **配置slaves文件**:将`slaves.template`重命名为`slaves`,并在其中列出所有从...
"Spark完全分布式环境搭建" 本文档主要讲述了如何在 Linux 环境下搭建 Spark 完全分布式环境,包括环境变量的设置、Spark 配置文件的修改、 Slave 节点的配置以及集群的启动过程。 一、环境变量设置 在搭建 Spark...
│ 03-[掌握]-Spark环境搭建-Standalone集群模式.mp4 │ 06-[理解]-Spark环境搭建-On-Yarn-两种模式.mp4 │ 07-[掌握]-Spark环境搭建-On-Yarn-两种模式演示.mp4 │ 09-[掌握]-Spark代码开发-准备工作.mp4 │ 10...
"Spark集群环境搭建" Spark集群环境搭建是大数据处理的重要组件之一,通过搭建Spark集群,可以实现大规模数据处理和分析。本文将介绍Spark集群环境搭建的详细步骤,包括集群规划、前置条件、Spark集群搭建、启动...
自己整理的一份hadoop及spark 环境搭建的详细教程,真实环境下搭建过程实录, 可以为你免去很多麻烦
Spark 开发环境搭建(Eclipse) Spark 开发环境搭建是指在 Eclipse 集成开发环境中设置和配置 Spark 开发环境的过程。Spark 是一个基于 Hadoop 的大数据处理框架,它提供了高效的数据处理能力。为了在 Eclipse 中...
搭建Spark环境是大数据处理领域的一项基础任务,Spark作为一个快速、通用且可扩展的数据处理引擎,广泛应用于数据分析、机器学习和实时流处理等场景。本文将详细介绍如何从零开始搭建Spark环境,包括安装JDK、配置...
这篇博客,Alice为大家带来的是Spark集群环境搭建之——standalone集群模式。 文章目录集群角色介绍集群规划修改配置并分发启动和停止查看web界面测试 集群角色介绍 Spark是基于内存计算的大数据并行计算框架,...