一、spark1.3.0编译方法可参考:Linux64位操作系统(CentOS6.6)上如何编译spark1.3。
二、安装软件
1.在官网下载scala2.10.5,解压设置好环境变量就可以用。
环境变量设置如下:
export SCALA_HOME=/usr/local/scala export PATH=$SCALA_HOME/bin:$PATH
2.将编译好的spark解压修改配置环境变量
export SPARK_HOME=/usr/local/spark-1.3.0-bin-hadoop2.4 export PATH=$SPARK_HOME/bin:$PATH
三、修改配置文件
1.修改conf目录下的spark-env.sh,添加环境变量
export JAVA_HOME=/home/spark/jdk1.7 export HADOOP_CONF_DIR=/home/hadoop/hadoop2.4.0/etc/hadoop export SPARK_HOME=/home/hadoop/spark-1.3.0-bin-2.4.0 export SPARK_JAR=$SPARK_HOME/lib/spark-assembly-1.3.0-hadoop2.4.0.jar export PATH=$SPARK_HOME/bin:$PATH export SPARK_MASTER_IP=test1 export SPARK_WORKER_CORES=1 export SPARK_WORKER_INSTANCES=1 export SPARK_MASTER_PORT=7077 export SPARK_WORKER_MEMORY=1g export MASTER=spark://${SPARK_MASTER_IP}:${SPARK_MASTER_PORT}
2.修改conf目录下的slaves
test1 test2
3.将配置好的spark安装目录 scp 到另一台机器 test2的 /home/hadoop/目录下
4.在spark master的spark安装目录下执行 ./sbin/start-all.sh
5.访问http://test1的ip:8080 查看Spark是否启动成功.
相关推荐
Hadoop 2.4.0 分布式安装指导
Hadoop 2.4.0新特性总结,紧跟hadoop最新动态
spark1.5版本 早期版本的assembly 包,大家快快来下载吧
总之,编译Apache Hadoop 2.4.0涉及的主要步骤包括安装JDK、Maven、FindBugs(可选)以及Protocol Buffers编译器,然后下载源代码并使用Maven进行编译。这个过程对于理解Hadoop的内部工作原理,或者定制自己的Hadoop...
5. **SSL/TLS Support**:Hadoop 2.4.0版本加强了安全特性,本地库可能包含了用于加密通信的SSL/TLS库,为Hadoop集群提供安全的数据传输。 6. **Zookeeper Native Client**:如果Hadoop集群使用Zookeeper作为协调...
压缩包"spark-2.4.0-bin-hadoop2.7.rar"包含了完整的Spark二进制发行版,解压后用户可以直接在本地或者Hadoop集群上运行Spark作业。其中包含了各种运行所需的组件,如Spark的执行环境、库文件、配置文件以及示例程序...
Hadoop2.4.0 Eclipse插件
基于ZooKeeper的Hadoop HA集群安装过程 在大数据时代,Hadoop作为大数据处理的核心技术,高可用性(HA)是企业对其进行部署和维护的必备条件。基于ZooKeeper的Hadoop HA集群可以提供高可用性和可扩展性,满足企业对大...
此插件是本人亲自编译好的可以让Eclipse上实现hadoop的mapreduce编程,目标集群运行了hadoop2.4.0,集群系统CENTOS6.5,jdk1.8.20,Eclipse运行在win7系统中
Ubuntu12.04下安装Hadoop2.4.0单机模式详细教程
Hadoop2.4.0测试环境搭建 http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.1-latest/bk_installing_manually_boo k/content/rpm-chap1-11.html [bigdata@namenode1 scripts]$ pwd /home/bigdata/software/...
- **Spark安装**: - 安装Java Development Kit (JDK)作为基础,因为Spark需要JVM运行。 - 下载Spark并解压,配置`SPARK_HOME`和`PATH`。 - 配置`spark-env.sh`,指定Hadoop相关路径和YARN资源管理器。 - **...
Hadoop官方不提供64位编译版,在此提供编译结果分享给大家 ...hadoop-2.4.0-amd64.z01 hadoop-2.4.0-amd64.z02 hadoop-2.4.0-amd64.zip 2.解压获得文件包: hadoop-2.4.0-amd64.tar.gz 3.在服务器上部署使用
Hadoop官方不提供64位编译版,在此提供编译结果分享给大家 ...hadoop-2.4.0-amd64.z01 hadoop-2.4.0-amd64.z02 hadoop-2.4.0-amd64.zip 2.解压获得文件包: hadoop-2.4.0-amd64.tar.gz 3.在服务器上部署使用
`spark-2.4.0-bin-without-hadoop.tgz` 文件是一个压缩包,其中包含了 Spark 2.4.0 版本的二进制文件,但不包括 Hadoop 相关依赖,这意味着你需要自行配置 Hadoop 集群环境或者连接到已有的 Hadoop 集群。...
Hadoop官方不提供64位编译版,在此提供编译结果分享给大家 ...hadoop-2.4.0-amd64.z01 hadoop-2.4.0-amd64.z02 hadoop-2.4.0-amd64.zip 2.解压获得文件包: hadoop-2.4.0-amd64.tar.gz 3.在服务器上部署使用
Hadoop-2.4.0分布式安装手册
"Hadoop集群安装笔记" Hadoop集群安装笔记是一篇详细的安装指南,旨在帮助新手快速搭建Hadoop学习环境。以下是该笔记中的重要知识点: Hadoop集群安装目录 在安装Hadoop集群之前,需要准备好安装环境。安装环境...
本文将深入探讨如何搭建Hadoop集群,并在此基础上配置YARN资源管理器,以及如何部署Spark集群,同时也会涉及到Spark的Python编程指南。 首先,让我们了解Hadoop。Hadoop是一个开源框架,主要用于分布式存储和计算,...
在Hadoop 2.4.0中,MapReduce进行了性能优化,提升了处理效率,并引入了YARN(Yet Another Resource Negotiator)作为资源管理器,分离了作业调度和集群资源管理,增强了系统的灵活性和可扩展性。 解压“hadoop-...