`
liyong0802
  • 浏览: 5202 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop2.4.0集群安装spark1.3.0

阅读更多

一、spark1.3.0编译方法可参考:Linux64位操作系统(CentOS6.6)上如何编译spark1.3

二、安装软件

  1.在官网下载scala2.10.5,解压设置好环境变量就可以用。

    环境变量设置如下:

 

      export SCALA_HOME=/usr/local/scala
      export PATH=$SCALA_HOME/bin:$PATH

  2.将编译好的spark解压修改配置环境变量

 

     export SPARK_HOME=/usr/local/spark-1.3.0-bin-hadoop2.4
     export PATH=$SPARK_HOME/bin:$PATH

 三、修改配置文件

 

 1.修改conf目录下的spark-env.sh,添加环境变量

 

export JAVA_HOME=/home/spark/jdk1.7
export HADOOP_CONF_DIR=/home/hadoop/hadoop2.4.0/etc/hadoop

export SPARK_HOME=/home/hadoop/spark-1.3.0-bin-2.4.0
export SPARK_JAR=$SPARK_HOME/lib/spark-assembly-1.3.0-hadoop2.4.0.jar
export PATH=$SPARK_HOME/bin:$PATH
export SPARK_MASTER_IP=test1
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=1g
export MASTER=spark://${SPARK_MASTER_IP}:${SPARK_MASTER_PORT}

 2.修改conf目录下的slaves

 

 

test1
test2

 3.将配置好的spark安装目录 scp 到另一台机器 test2的 /home/hadoop/目录下

 4.在spark master的spark安装目录下执行  ./sbin/start-all.sh  

 5.访问http://test1的ip:8080 查看Spark是否启动成功.

 

 

 

 

 

分享到:
评论

相关推荐

    Hadoop 2.4.0 分布式安装指导

    Hadoop 2.4.0 分布式安装指导

    Hadoop 2.4.0新特性总结

    Hadoop 2.4.0新特性总结,紧跟hadoop最新动态

    spark-assembly-1.5.1-hadoop2.4.0.jar

    spark1.5版本 早期版本的assembly 包,大家快快来下载吧

    如何编译Apache Hadoop2.4.0源代码

    总之,编译Apache Hadoop 2.4.0涉及的主要步骤包括安装JDK、Maven、FindBugs(可选)以及Protocol Buffers编译器,然后下载源代码并使用Maven进行编译。这个过程对于理解Hadoop的内部工作原理,或者定制自己的Hadoop...

    hadoop2.4.0 本地库

    5. **SSL/TLS Support**:Hadoop 2.4.0版本加强了安全特性,本地库可能包含了用于加密通信的SSL/TLS库,为Hadoop集群提供安全的数据传输。 6. **Zookeeper Native Client**:如果Hadoop集群使用Zookeeper作为协调...

    spark-2.4.0-bin-hadoop2.7.rar

    压缩包"spark-2.4.0-bin-hadoop2.7.rar"包含了完整的Spark二进制发行版,解压后用户可以直接在本地或者Hadoop集群上运行Spark作业。其中包含了各种运行所需的组件,如Spark的执行环境、库文件、配置文件以及示例程序...

    hadoop 2.4.0 eclipse plugin

    Hadoop2.4.0 Eclipse插件

    基于zookeeper的hadoop ha集群安装过程

    基于ZooKeeper的Hadoop HA集群安装过程 在大数据时代,Hadoop作为大数据处理的核心技术,高可用性(HA)是企业对其进行部署和维护的必备条件。基于ZooKeeper的Hadoop HA集群可以提供高可用性和可扩展性,满足企业对大...

    hadoop-2.4.0-Eclipse-plugin

    此插件是本人亲自编译好的可以让Eclipse上实现hadoop的mapreduce编程,目标集群运行了hadoop2.4.0,集群系统CENTOS6.5,jdk1.8.20,Eclipse运行在win7系统中

    Ubuntu12.04下安装Hadoop2.4.0单机模式详细教程

    Ubuntu12.04下安装Hadoop2.4.0单机模式详细教程

    Hadoop2.4.0测试环境搭建

    Hadoop2.4.0测试环境搭建 http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.1-latest/bk_installing_manually_boo k/content/rpm-chap1-11.html [bigdata@namenode1 scripts]$ pwd /home/bigdata/software/...

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    - **Spark安装**: - 安装Java Development Kit (JDK)作为基础,因为Spark需要JVM运行。 - 下载Spark并解压,配置`SPARK_HOME`和`PATH`。 - 配置`spark-env.sh`,指定Hadoop相关路径和YARN资源管理器。 - **...

    Hadoop 2.4.0 64位编译版 hadoop-2.4.0-amd64.zip

    Hadoop官方不提供64位编译版,在此提供编译结果分享给大家 ...hadoop-2.4.0-amd64.z01 hadoop-2.4.0-amd64.z02 hadoop-2.4.0-amd64.zip 2.解压获得文件包: hadoop-2.4.0-amd64.tar.gz 3.在服务器上部署使用

    Hadoop 2.4.0 64位编译版 hadoop-2.4.0-amd64.z02

    Hadoop官方不提供64位编译版,在此提供编译结果分享给大家 ...hadoop-2.4.0-amd64.z01 hadoop-2.4.0-amd64.z02 hadoop-2.4.0-amd64.zip 2.解压获得文件包: hadoop-2.4.0-amd64.tar.gz 3.在服务器上部署使用

    spark-2.4.0-bin-without-hadoop.tgz

    `spark-2.4.0-bin-without-hadoop.tgz` 文件是一个压缩包,其中包含了 Spark 2.4.0 版本的二进制文件,但不包括 Hadoop 相关依赖,这意味着你需要自行配置 Hadoop 集群环境或者连接到已有的 Hadoop 集群。...

    Hadoop 2.4.0 64位编译版 hadoop-2.4.0-amd64.z01

    Hadoop官方不提供64位编译版,在此提供编译结果分享给大家 ...hadoop-2.4.0-amd64.z01 hadoop-2.4.0-amd64.z02 hadoop-2.4.0-amd64.zip 2.解压获得文件包: hadoop-2.4.0-amd64.tar.gz 3.在服务器上部署使用

    Hadoop-2.4.0分布式安装手册

    Hadoop-2.4.0分布式安装手册

    hadoop集群安装笔记

    "Hadoop集群安装笔记" Hadoop集群安装笔记是一篇详细的安装指南,旨在帮助新手快速搭建Hadoop学习环境。以下是该笔记中的重要知识点: Hadoop集群安装目录 在安装Hadoop集群之前,需要准备好安装环境。安装环境...

    Hadoop及Spark集群搭建文档

    本文将深入探讨如何搭建Hadoop集群,并在此基础上配置YARN资源管理器,以及如何部署Spark集群,同时也会涉及到Spark的Python编程指南。 首先,让我们了解Hadoop。Hadoop是一个开源框架,主要用于分布式存储和计算,...

    hadoop-2.4.0.tar.gz

    在Hadoop 2.4.0中,MapReduce进行了性能优化,提升了处理效率,并引入了YARN(Yet Another Resource Negotiator)作为资源管理器,分离了作业调度和集群资源管理,增强了系统的灵活性和可扩展性。 解压“hadoop-...

Global site tag (gtag.js) - Google Analytics