`
gaojingsong
  • 浏览: 1197054 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
文章分类
社区版块
存档分类
最新评论

【Spark环境搭建】

阅读更多

1、安装scala

#解压scala-2.10.5.tgz
tar -zxvf scala-2.10.5.tgz
#配置SCALA_HOME
vi /etc/profile
#添加如下环境
export SCALA_HOME=/home/apps/scala-2.10.5
export PATH=.:$SCALA_HOME/bin:$PATH
#测试scala安装是否成功
#直接输入
scala

2、安装

#解压spark-1.3.1-bin-hadoop2.6.tgz 
tar -zxvf spark-1.3.1-bin-hadoop2.6.tgz 
#配置SPARK_HOME
vi /etc/profile
#添加如下环境
export SCALA_HOME=/home/apps/spark-1.3.1
export PATH=.:$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

 

3、修改Spark配置文件

#复制slaves.template和 spark-env.sh.template各一份
cp  spark-env.sh.template  spark-env.sh
vi spark-env.sh

export JAVA_HOME=/opt/jdk1.7.0_79

 

export SCALA_HOME=/opt/scala-2.10.5

 

export SPARK_MASTER_IP=192.168.1.111

 

export SPARK_WORKER_MEMORY=200m

 

export HADOOP_CONF_DIR=/opt/bigdata/hadoop272

 

export SPARK_WORKER_CORES=1

 

export SPARK_WORKER_INSTANCES=1

 

export SPARK_JAVA_OPTS

 

备注

#JDK安装路径
export JAVA_HOME=/opt/jdk1.7.0_79
#SCALA安装路径
export SCALA_HOME=/root/app/scala-2.10.5
#主节点的IP地址
export SPARK_MASTER_IP=192.168.1.111
#分配的内存大小
export SPARK_WORKER_MEMORY=200m
#指定hadoop的配置文件目录
export HADOOP_CONF_DIR=/opt/bigdata/hadoop272
#指定worker工作时分配cpu数量
export SPARK_WORKER_CORES=1
#指定spark实例,一般1个足以
export SPARK_WORKER_INSTANCES=1
#jvm操作,在spark1.0之后增加了spark-defaults.conf默认配置文件,该配置参数在默认配置在该文件中
export SPARK_JAVA_OPTS

 

4、测试spark安装是否成功

在主节点机器上启动顺序
1、先启动hdfs(./sbin/start-dfs.sh)     ./start-dfs.sh 
2、启动spark-master(./sbin/start-master.sh)   sh start-master.sh
3、启动spark-worker(./sbin/start-slaves.sh)   sh start-slaves.sh

 

查看机器进程

[root@hadoop0 ~]# jps

3149 Worker

2835 SecondaryNameNode

2608 DataNode

3496 Jps

2515 NameNode

2993 Master

 



 

 

 



 

 



 

  • 大小: 12.4 KB
  • 大小: 24.3 KB
  • 大小: 21 KB
0
3
分享到:
评论

相关推荐

    Spark环境搭建-Windows

    Spark 环境搭建 - Windows 本文将指导您在 Windows 平台上搭建 Spark 环境,包括 JDK、Scala、Hadoop、Python 和 Spark 的安装和配置。 Python 的安装与配置 Python 是 Spark 的依赖项之一,需要安装 Python ...

    Spark环境搭建-Linux.pptx

    Spark 环境搭建 - Linux 本资源summary是关于在 Linux 上搭建 Spark 环境的详细教程。该教程从准备环境开始,到安装 JDK、Scala 和 Spark,最后设置 SSH 免密码登录,旨在帮助用户快速搭建 Spark 环境。 一、环境...

    spark环境搭建

    Spark 环境搭建 Spark 环境搭建是指在本地机器上安装和配置 Spark 相关组件,以便进行 Spark 的学习和开发。本文将指导读者从头开始搭建 Spark 环境,包括 JDK 安装、Spark 下载、Scala 安装、Hadoop 安装和 Spark ...

    Spark环境搭建和使用方法

    ### Spark环境搭建与使用方法详解 #### 一、引言 Apache Spark作为一款高性能的数据处理框架,被广泛应用于大规模数据处理场景中。本文将详细介绍如何搭建Spark环境,并介绍其基本使用方法。通过以下步骤,您将...

    Spark环境搭建

    ### Spark环境搭建详解 在大数据处理领域,Apache Spark凭借其高效的数据处理能力及广泛的社区支持,成为了不可或缺的工具之一。本文将详细介绍如何在Linux环境下搭建Spark环境,包括JDK、Scala以及Spark本身的安装...

    openfire与spark环境搭建教程

    《Openfire与Spark环境搭建详解》 Openfire与Spark是一款流行的开源即时通讯系统,通过集成这两款工具,可以构建高效且安全的企业内部通信平台。本文将详细介绍如何在本地环境中搭建Openfire服务器并配置Spark...

    Ubuntu 16.04下JDK+Hadoop+Spark环境搭建

    在Ubuntu 16.04上搭建JDK、Hadoop和Spark环境的过程涉及到多个步骤,包括添加软件源、安装软件、配置环境变量、修改配置文件以及启动服务。这个过程中需要注意的是,每个组件的版本应该相互兼容,以确保系统的稳定...

    Spark平台搭建最详细最完美详解

    2. **配置Spark环境** - 配置Spark的核心配置文件`spark-env.sh`、`spark-defaults.conf`等,以适应集群环境。 - 设置`SPARK_HOME`环境变量,并确保所有节点都已安装好所需的依赖库(如Hadoop等)。 3. **启动...

    eclipse搭建的Spark开发环境

    Eclipse搭建的spark开发环境,微云可下!Eclipse搭建的spark开发环境,微云可下!

    Spark集群及开发环境搭建(完整版)

    ### Spark集群及开发环境搭建(完整版) #### 一、软件及下载 本文档提供了详细的步骤来指导初学者搭建Spark集群及其开发环境。首先需要准备的软件包括: - **VirtualBox-5.1**:虚拟机软件,用于安装CentOS操作...

    Spark实验:Standalone模式安装部署(带答案)1

    2. **配置Spark环境变量**:在master节点的`.bash_profile`中添加Spark相关环境变量,如SPARK_HOME,然后在所有节点上使其生效。 3. **配置slaves文件**:将`slaves.template`重命名为`slaves`,并在其中列出所有从...

    spark完全分布式环境搭建.pdf

    "Spark完全分布式环境搭建" 本文档主要讲述了如何在 Linux 环境下搭建 Spark 完全分布式环境,包括环境变量的设置、Spark 配置文件的修改、 Slave 节点的配置以及集群的启动过程。 一、环境变量设置 在搭建 Spark...

    spark3.0入门到精通

    │ 03-[掌握]-Spark环境搭建-Standalone集群模式.mp4 │ 06-[理解]-Spark环境搭建-On-Yarn-两种模式.mp4 │ 07-[掌握]-Spark环境搭建-On-Yarn-两种模式演示.mp4 │ 09-[掌握]-Spark代码开发-准备工作.mp4 │ 10...

    Spark集群环境搭建

    "Spark集群环境搭建" Spark集群环境搭建是大数据处理的重要组件之一,通过搭建Spark集群,可以实现大规模数据处理和分析。本文将介绍Spark集群环境搭建的详细步骤,包括集群规划、前置条件、Spark集群搭建、启动...

    hadoop&spark; 环境搭建教程

    自己整理的一份hadoop及spark 环境搭建的详细教程,真实环境下搭建过程实录, 可以为你免去很多麻烦

    spark开发环境搭建(eclipse)

    Spark 开发环境搭建(Eclipse) Spark 开发环境搭建是指在 Eclipse 集成开发环境中设置和配置 Spark 开发环境的过程。Spark 是一个基于 Hadoop 的大数据处理框架,它提供了高效的数据处理能力。为了在 Eclipse 中...

    如何搭建Spark环境

    搭建Spark环境是大数据处理领域的一项基础任务,Spark作为一个快速、通用且可扩展的数据处理引擎,广泛应用于数据分析、机器学习和实时流处理等场景。本文将详细介绍如何从零开始搭建Spark环境,包括安装JDK、配置...

    Spark环境搭建——standalone集群模式

    这篇博客,Alice为大家带来的是Spark集群环境搭建之——standalone集群模式。 文章目录集群角色介绍集群规划修改配置并分发启动和停止查看web界面测试 集群角色介绍  Spark是基于内存计算的大数据并行计算框架,...

Global site tag (gtag.js) - Google Analytics