`
wangmengbk
  • 浏览: 292172 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

Spark 安装&配置

 
阅读更多

前提安装 hadoop ,JDK 环境

 

下载地址 scala:

http://www.scala-lang.org/download/2.11.6.html

 

解压: tar –zxvf scala-2.11.6.tgz

配置环境变量:vi /etc/profile

export SCALA_HOME=/opt/scala-2.11.6

export PATH=$SCALA_HOME/bin:$PATH

 

执行(立即生效):source /etc/profile 

 

执行:cd /opt/scala-2.11.6/bin

      ./scala –version

输出(安装成功):Scala code runner version 2.11.6 -- Copyright 2002-2013, LAMP/EPFL

 

下载地址 spark:

http://apache.fayea.com/spark/spark-1.4.0/spark-1.4.0-bin-hadoop2.6.tgz   

 

解压: tar –zxvf  spark-1.4.0-bin-hadoop2.6.tgz

配置环境变量: vi /etc/profile

export SPARK_HOME=/opt/spark-1.4.0-bin-hadoop2.6

export PATH=$SPARK_HOME/bin:$PATH

 

执行(立即生效):source /etc/profile

 

进入spark conf 目录: cd /opt/spark-1.4.0-bin-hadoop2.6/conf

执行: cp  spark-env.sh.template  spark-env.sh

执行: vi spark-env.sh

添加如下内容:

export JAVA_HOME=/usr/java/jdk1.7.0_67

export SCALA_HOME=/opt/scala-2.11.6

export SPARK_MASTER_IP=192.168.68.84

export SPARK_WORKER_MEMORY=2g

export HADOOP_CONF_DIR=/opt/soft-228238/hadoop-2.6.0/etc/hadoop

 

注: SPARK_MASTER_IP 为 spark 集群中的主机IP; SPARK_WORKER_MEMORY是worker使用的最大内存

 

执行: cp  slaves.template  slaves

执行: vi slaves

 

增加两个slave节点:

192.168.68.84

192.168.68.85

 

进入: cd /opt/spark-1.4.0-bin-hadoop2.6/sbin

执行:./start-all.sh 

执行: jps  结果如红色方框中的内容说明成功


 

访问:http://192.168.68.84:8080/



 
 

 

  • 大小: 2.5 KB
  • 大小: 42.9 KB
分享到:
评论

相关推荐

    Hadoop与Spark安装配置手册

    - Spark配置涉及到了解并修改其配置文件,包括了环境变量的设置和集群管理器的选择,手册中选择的是与Hadoop集成的Hadoop YARN作为资源管理器。 5. 系统安全和性能优化 - 安装过程中,可能会涉及系统安全设置,如...

    实验八、Spark的安装与使用.doc

    Spark 安装与使用实验报告 本实验报告的目的是学习大数据分析引擎 Spark 的安装与使用。Spark 是一个基于内存的分布式计算框架,能够高效地处理大规模数据。 一、实验目的 本实验的目的是学习 Spark 的安装与使用...

    基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优

    ### 基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优 #### 概述 随着大数据技术的发展,Hadoop生态系统不断成熟与完善,其中Apache Hive作为数据仓库工具,支持通过SQL语句进行查询、分析存储在Hadoop文件系统...

    Spark&Scala安装教程.docx

    #### 一、Spark安装步骤及配置 ##### 1. 创建Spark目录 - **步骤**: 进入`/usr/local`目录,通过命令`cd /usr/local`。 - **创建目录**: 使用命令`sudo mkdir /usr/local/spark`创建名为`spark`的目录。 ##### 2. ...

    Spark实验:On Yarn模式安装部署(带答案)1

    总结来说,Spark on Yarn的安装部署涉及到多个环节,包括环境配置、资源管理器的设置、集群启动以及应用的提交和监控。每个步骤都需要仔细操作,以确保Spark能够有效地在Hadoop集群上运行。通过这个实验,不仅可以...

    Spark&Yarn手动安装指南

    一、Spark的安装和配置 Spark是Apache开源的数据处理引擎,可以快速地处理大量数据。下面是Spark的安装和配置步骤: 1. 下载Spark的安装包:从Apache Spark的官方网站下载Spark的安装包(Prebuild for Hadoop 2.6 ...

    Spark-1.0.2安装配置

    Spark-1.0.2安装配置,简单的demo运行,包含vbox、jdk、Scala、SSH的安装配置

    即时通讯配置文档 OpenFire&Spark&MySQL

    1. 安装`spark_2_6_0.exe`,启动Spark客户端,首次运行时需要输入服务器地址(通常是OpenFire服务器的IP或域名)和用户名(与OpenFire中创建的用户一致)。 2. 设置完成后,Spark会连接到OpenFire服务器,此时你可以...

    Openfire+Spark+SparkWeb安装配置.pdf

    《Openfire+Spark+SparkWeb安装配置详解》 Openfire是一款基于Jabber协议的开源即时通讯服务器,它支持多种操作系统,并自带Java环境。搭配Spark客户端,可以构建一个功能强大的企业级聊天系统。在此,我们将详细...

    spark安装配置教程.docx

    #### 五、配置Spark配置文件 Spark的配置文件位于`$SPARK_HOME/conf`目录下。 1. **spark-env.sh**:用于设置Spark运行时的环境变量。可以复制`spark-env.sh.template`为`spark-env.sh`,并在其中添加需要的配置,...

    spark的单机和集群安装与配置

    ### Spark的单机和集群安装与配置 #### 一、单机Spark的安装与配置 在开始安装Spark之前,需要确保已经安装了Scala环境。这是因为Spark是基于Scala编写的,并且许多Spark应用都是用Scala语言编写的。 ##### 1. ...

    spark2 安装教程

    ### Spark2.0安装教程与Spark1.3共存配置详解 #### 一、引言 随着大数据技术的发展,Apache Spark 已成为处理大规模数据集的重要工具之一。然而,在实际应用过程中,不同的项目可能需要使用不同版本的 Spark 来...

    Spark实验:Standalone模式安装部署(带答案)1

    4. Spark配置文件:如`spark-env.sh`、`slaves`,用于指定Spark集群的运行参数和从节点列表。 5. Spark Web UI的使用:提供可视化界面监控Spark集群状态和应用运行情况。 **四、实验步骤** 1. **解压Spark安装包**...

    hadoop&spark安装、环境配置、使用教程.docx

    ### Hadoop与Spark安装、环境配置及使用教程 #### Hadoop概述 Hadoop是一个由Apache基金会维护的开源分布式计算框架,主要用于处理大规模数据集。它包含以下关键组件: 1. **Hadoop Distributed File System ...

    完整的spark安装指南(带图)

    本文将详细介绍Spark的安装过程,包括下载、解压、配置环境变量等步骤。 一、安装Hadoop ---------------- 在安装Spark之前,需要先安装Hadoop,因为Spark依赖Hadoop分布式文件系统(HDFS)。本文假设已经安装了...

    Spark3.0.0配置文件.zip

    以下是对Spark配置文件及其重要性的详细解释。 1. **Spark配置体系结构** Spark的配置主要通过`conf`目录下的`spark-defaults.conf`文件进行管理。用户可以通过此文件设置全局默认配置,而特定应用可以通过`...

    hadoop&spark安装、环境配置、使用教程、应用项目

    ### Hadoop & Spark 安装、环境配置、使用教程及应用项目详解 #### 一、Hadoop 安装与配置 Hadoop 是一个能够处理大量数据的开源软件框架,主要由 HDFS(Hadoop Distributed File System)和 MapReduce 两大部分...

    Hive on Spark安装配置详解.pdf

    《Hive on Spark安装配置详解》 在大数据处理领域,Hive作为一个基于Hadoop的数据仓库工具,常用于大规模数据集的查询和分析。然而,Hive默认使用MapReduce作为执行引擎,由于MapReduce的磁盘I/O特性,其性能相对较...

Global site tag (gtag.js) - Google Analytics