前提安装 hadoop ,JDK 环境
下载地址 scala:
http://www.scala-lang.org/download/2.11.6.html
解压: tar –zxvf scala-2.11.6.tgz
配置环境变量:vi /etc/profile
export SCALA_HOME=/opt/scala-2.11.6
export PATH=$SCALA_HOME/bin:$PATH
执行(立即生效):source /etc/profile
执行:cd /opt/scala-2.11.6/bin
./scala –version
输出(安装成功):Scala code runner version 2.11.6 -- Copyright 2002-2013, LAMP/EPFL
下载地址 spark:
http://apache.fayea.com/spark/spark-1.4.0/spark-1.4.0-bin-hadoop2.6.tgz
解压: tar –zxvf spark-1.4.0-bin-hadoop2.6.tgz
配置环境变量: vi /etc/profile
export SPARK_HOME=/opt/spark-1.4.0-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH
执行(立即生效):source /etc/profile
进入spark conf 目录: cd /opt/spark-1.4.0-bin-hadoop2.6/conf
执行: cp spark-env.sh.template spark-env.sh
执行: vi spark-env.sh
添加如下内容:
export JAVA_HOME=/usr/java/jdk1.7.0_67
export SCALA_HOME=/opt/scala-2.11.6
export SPARK_MASTER_IP=192.168.68.84
export SPARK_WORKER_MEMORY=2g
export HADOOP_CONF_DIR=/opt/soft-228238/hadoop-2.6.0/etc/hadoop
注: SPARK_MASTER_IP 为 spark 集群中的主机IP; SPARK_WORKER_MEMORY是worker使用的最大内存
执行: cp slaves.template slaves
执行: vi slaves
增加两个slave节点:
192.168.68.84
192.168.68.85
进入: cd /opt/spark-1.4.0-bin-hadoop2.6/sbin
执行:./start-all.sh
执行: jps 结果如红色方框中的内容说明成功
访问:http://192.168.68.84:8080/
相关推荐
- Spark配置涉及到了解并修改其配置文件,包括了环境变量的设置和集群管理器的选择,手册中选择的是与Hadoop集成的Hadoop YARN作为资源管理器。 5. 系统安全和性能优化 - 安装过程中,可能会涉及系统安全设置,如...
Spark 安装与使用实验报告 本实验报告的目的是学习大数据分析引擎 Spark 的安装与使用。Spark 是一个基于内存的分布式计算框架,能够高效地处理大规模数据。 一、实验目的 本实验的目的是学习 Spark 的安装与使用...
### 基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优 #### 概述 随着大数据技术的发展,Hadoop生态系统不断成熟与完善,其中Apache Hive作为数据仓库工具,支持通过SQL语句进行查询、分析存储在Hadoop文件系统...
#### 一、Spark安装步骤及配置 ##### 1. 创建Spark目录 - **步骤**: 进入`/usr/local`目录,通过命令`cd /usr/local`。 - **创建目录**: 使用命令`sudo mkdir /usr/local/spark`创建名为`spark`的目录。 ##### 2. ...
总结来说,Spark on Yarn的安装部署涉及到多个环节,包括环境配置、资源管理器的设置、集群启动以及应用的提交和监控。每个步骤都需要仔细操作,以确保Spark能够有效地在Hadoop集群上运行。通过这个实验,不仅可以...
一、Spark的安装和配置 Spark是Apache开源的数据处理引擎,可以快速地处理大量数据。下面是Spark的安装和配置步骤: 1. 下载Spark的安装包:从Apache Spark的官方网站下载Spark的安装包(Prebuild for Hadoop 2.6 ...
Spark-1.0.2安装配置,简单的demo运行,包含vbox、jdk、Scala、SSH的安装配置
1. 安装`spark_2_6_0.exe`,启动Spark客户端,首次运行时需要输入服务器地址(通常是OpenFire服务器的IP或域名)和用户名(与OpenFire中创建的用户一致)。 2. 设置完成后,Spark会连接到OpenFire服务器,此时你可以...
《Openfire+Spark+SparkWeb安装配置详解》 Openfire是一款基于Jabber协议的开源即时通讯服务器,它支持多种操作系统,并自带Java环境。搭配Spark客户端,可以构建一个功能强大的企业级聊天系统。在此,我们将详细...
#### 五、配置Spark配置文件 Spark的配置文件位于`$SPARK_HOME/conf`目录下。 1. **spark-env.sh**:用于设置Spark运行时的环境变量。可以复制`spark-env.sh.template`为`spark-env.sh`,并在其中添加需要的配置,...
### Spark的单机和集群安装与配置 #### 一、单机Spark的安装与配置 在开始安装Spark之前,需要确保已经安装了Scala环境。这是因为Spark是基于Scala编写的,并且许多Spark应用都是用Scala语言编写的。 ##### 1. ...
### Spark2.0安装教程与Spark1.3共存配置详解 #### 一、引言 随着大数据技术的发展,Apache Spark 已成为处理大规模数据集的重要工具之一。然而,在实际应用过程中,不同的项目可能需要使用不同版本的 Spark 来...
4. Spark配置文件:如`spark-env.sh`、`slaves`,用于指定Spark集群的运行参数和从节点列表。 5. Spark Web UI的使用:提供可视化界面监控Spark集群状态和应用运行情况。 **四、实验步骤** 1. **解压Spark安装包**...
### Hadoop与Spark安装、环境配置及使用教程 #### Hadoop概述 Hadoop是一个由Apache基金会维护的开源分布式计算框架,主要用于处理大规模数据集。它包含以下关键组件: 1. **Hadoop Distributed File System ...
本文将详细介绍Spark的安装过程,包括下载、解压、配置环境变量等步骤。 一、安装Hadoop ---------------- 在安装Spark之前,需要先安装Hadoop,因为Spark依赖Hadoop分布式文件系统(HDFS)。本文假设已经安装了...
以下是对Spark配置文件及其重要性的详细解释。 1. **Spark配置体系结构** Spark的配置主要通过`conf`目录下的`spark-defaults.conf`文件进行管理。用户可以通过此文件设置全局默认配置,而特定应用可以通过`...
### Hadoop & Spark 安装、环境配置、使用教程及应用项目详解 #### 一、Hadoop 安装与配置 Hadoop 是一个能够处理大量数据的开源软件框架,主要由 HDFS(Hadoop Distributed File System)和 MapReduce 两大部分...
《Hive on Spark安装配置详解》 在大数据处理领域,Hive作为一个基于Hadoop的数据仓库工具,常用于大规模数据集的查询和分析。然而,Hive默认使用MapReduce作为执行引擎,由于MapReduce的磁盘I/O特性,其性能相对较...