系统要求
* Unix System
* JDK 1.7+
* Maven 3.0 or later
* Findbugs 1.3.9 (if running findbugs)
* ProtocolBuffer 2.5.0
* CMake 2.6 or newer (if compiling native code), must be 3.0 or newer on Mac
* Zlib devel (if compiling native code)
* openssl devel ( if compiling native hadoop-pipes and to get the best HDFS encryption performance )
* Linux FUSE (Filesystem in Userspace) version 2.6 or above ( if compiling fuse_dfs )
* Internet connection for first build (to fetch all Maven and Hadoop dependencies)
我是在root下操作的 如果您是其他用户 请在适当时间配置好sudo并使用sudo命令
安装jdk
就是解压缩然后配下path路径,网上有很多相关文章,但是最好卸载掉其他的jdk,
只留下oracle的jdk
tar -zxvf jdk-7u71-linux-x64.tar.gz
配置环境变量:vi /etc/profile
export JAVA_HOME= 你的安装路径
export PATH=.:$PATH:$JAVA_HOME/bin
安装maven
同样解压缩配置 /etc/profile
export MAVEN_HOME=你的安装路径
export PATH=.:$PATH:$JAVA_HOME/bin:$MAVEN_HOME/bin
同样,输入命令使配置文件生效
source /etc/profile
检测是否安装成功:mvn -version
安装protobuf
protobuf请提前下载
安装前请安装
yum install gcc
yum install gcc-c++
yum install make
安装protobuf,解压缩
tar -zxvf protobuf-2.5.0.tar.gz
然后进入到安装目录中,以此输入一下命令:
cd protobuf-2.5.0
./configure
make(这一步时间比较长)
make install
安装CMake
CMake 需要2.6以上的版本需要联网
yum install cmake
yum install openssl-devel
yum install ncurses-devel
补充一点在编译请把maven仓库配置成阿里云的
在maven的settings.xml 文件里配置mirrors的子节点,添加如下mirror
<mirror> <id>nexus-aliyun</id> <mirrorOf>*</mirrorOf> <name>Nexus aliyun</name> <url>http://maven.aliyun.com/nexus/content/groups/public</url> </mirror>
安装ant
tar -zxvf apache-ant-1.9.7-bin.tar.gz
配置环境变量
vi /etc/profile
export ANT_HOME=你的路径
export PATH=.:$PATH:$ANT_HOME/bin
生效以及测试
source /etc/profile
ant -version
编译hadoop
解压hadoop源码包
tar -zxvf hadoop-2.5.2-src.tar.gz
进入文件夹里面,里面有一个文件BUILDINT.txt
在BUILDING.txt这层目录里,输入命令
mvn package -Pdist,native -DskipTests -Dtar
或者mvn package -DeskipTests -Pdist,native
编译
完成后会有提示
编译出的jar在
[exec] Hadoop dist tar available at: /export/software/hadoop-2.7.4-src/hadoop-dist/target/hadoop-2.7.4.tar.gz
ok了祝你愉快,如有不明欢迎留言
相关推荐
Spark-3.0.0-bin-hadoop2.7.tgz 是Spark 3.0.0版本的预编译二进制包,其中包含了针对Hadoop 2.7版本的兼容性构建。这个版本的发布对于数据科学家和大数据工程师来说至关重要,因为它提供了许多性能优化和新功能。 1...
"spark-2.0.0-bin-hadoop2.7.tgz.zip"这个文件是Spark 2.0.0预编译版本,包含了针对Hadoop 2.7的依赖。首先,你需要解压缩这个zip文件,得到"spark-2.0.0-bin-hadoop2.7.tgz",然后再进行一次解压缩。解压后,你会...
Hadoop2.7是Hadoop生态系统中的一个版本,它为Spark提供了分布式存储的基础,即HDFS(Hadoop Distributed File System)。Spark与Hadoop的集成,使得Spark可以无缝地读取和写入Hadoop的数据,进一步增强了其在大数据...
在本案例中,我们关注的是Spark的2.3.4版本,它预编译为与Hadoop 2.7兼容的版本,打包成"spark-2.3.4-bin-hadoop2.7.tgz"的压缩文件。这个压缩包包含了运行Spark所需的所有组件,包括Java库、Python库(pyspark)、...
这个特定的压缩包"spark-2.1.1-bin-hadoop2.7.tgz.7z"是为Linux系统设计的,它包含了Spark 2.1.1版本,并且已经与Hadoop 2.7.2版本进行了预编译集成,这意味着它可以无缝地与Hadoop生态系统交互。 Hadoop 2.7.2是一...
5. **已编译版本**: 提供的"spark-2.3.1-bin-spark_tx_2.3.1"是一个预编译的Spark发行版,已经包含了针对Hive和Hadoop 2.7的特定配置和依赖,用户可以直接下载使用,而无需自己进行编译和配置,大大简化了部署流程。...
2. 解压下载的`spark-3.2.1-bin-hadoop2.7.zip`文件,得到Spark的安装目录。 3. 配置Spark环境变量,将Spark的bin目录添加到PATH中,以便于命令行操作。 4. 根据实际的Hadoop集群配置,调整Spark的配置文件(如`conf...
总结起来,Spark 2.1.2-bin-hadoop2.7 是一个针对大数据处理的高效解决方案,结合了 Spark 的强大计算能力和 Hadoop 2.7 的分布式存储优势,同时在 JDK 1.7 环境下运行稳定,为开发者提供了丰富的工具和API,以应对...
Spark-3.1.2.tgz和Spark-3.1.2-bin-hadoop2.7.tgz是两个不同格式的Spark发行版,分别以tar.gz和rar压缩格式提供。 1. Spark核心概念: - RDD(弹性分布式数据集):Spark的基础数据结构,是不可变、分区的数据集合...
"spark-2.4.0-bin-hadoop2.7.zip"是一个包含Spark 2.4.0完整二进制版本的压缩包,适用于那些需要快速下载的用户。 1. **Spark核心概念**: Spark的核心是弹性分布式数据集(Resilient Distributed Datasets, RDDs...
Hadoop 2.7 64位编译版本是一个针对64位操作系统的优化的开源分布式计算框架。这个版本,即hadoop-2.7.5-64x.tar.gz,是Hadoop 2.x系列的一个稳定版本,适用于大数据处理和分析任务。以下是关于Hadoop 2.7及其64位...
Hadoop-2.7.3 arm平台麒麟操作系统部署,已编译支持snappy lz4压缩 Hadoop国产化部署 Linux version 4.19.90-vhulk2001.1.0.0026.ns7.15.aarch64 (root@mockbuild) (gcc version 4.8.5 20150623 (NeoKylin 4.8.5-36)...
本文将详细介绍如何使用Eclipse的Hadoop2.7插件以及Hadoop-common编译文件,以便在Windows环境下构建一个集成了Hadoop和Spark的开发环境。 首先,我们要理解`hadoop-eclipse-plugin-2.7.jar`这个文件的作用。这是...
本人用7个多小时成功编译 hadoop 2.7.1 64位编译包(JDK1.8 64),由于文件太大,分3卷压缩。 hadoop 2.7.1 相对于2.7.0修复了上百个Bug,是可用于生产环境的版本了。
1. **下载与配置**: 下载 Hadoop 的 Windows 适用版本,通常是通过预编译的二进制包,如这个压缩文件。 2. **设置环境变量**: 配置 `HADOOP_HOME` 环境变量指向 Hadoop 的安装目录,并将 `%HADOOP_HOME%\bin` 添加到...
此文件为hadoop-2.7.7.tar.gz,可在linux下直接进行安装,如在windows上安装,则需要hadooponwindows-master.zip,用windows-master里的文件替换解压好后hadoop的bin和etc即可。Hadoop 2.7.7是一款开源的分布式计算...
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable hadoop 启动时警告问题解决
解决hadoop版本不同而引起的org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0(Ljava/lang/String;I)V
在Windows下面使用Hadoop Java API进行开发的时候需要编译Windows版本的Hadoop,然后把下载的Hadoop/bin目录替换掉。这个资源是Windows10 64位系统下编译的hadoop 2.7.3的bin目录。下载后即可替换使用。