在学习Hadoop开始,便被告知官网只提供了32位系统的安装文件,如果要在64位系统中运行,那就得自己重新编译安装文件;
前段时间一直在学习怎么样安装使用Hadoop,先把编译64位的安装文件忽略了,等到对Hadoop熟悉之后再学习会更省时间,还不错,跟预想的一样。
下面就介绍一下怎么样编译64位的安装文件
系统环境
OS:RedHat6.5 64bit企业版
JDK:1.8.0_20 64bit
硬件:虚拟机
1、 前期准备
作为一个屌丝开发程序员,看到源码中的pom.xml之后就轻松了下来,这不就是maven构建的项目吗!赶紧的安装maven
#tar -xvzf /usr/apache-maven-3.3.3-bin.tar.gz -C /usr
#vim /etc/profile
export MAVEN_HOME=/usr/maven/apache-maven-3.3.3
export PATH=$PATH:$JAVA_HOME/bin:$MAVEN_HOME/bin
#source /etc/profile
maven安装完成之后我以为可以了,直接用mvn -install进行编译,这时候才知道我是个菜鸟啊,居然报错了!!! 凭借着屌丝精神在百度找到了正解,还需要安装protobuf, 好吧,在csdn上下载到源码 protobuf-2.5.0.tar.gz
#tar -xvzf /usr/protobuf-2.5.0.tar.gz -C /usr
进入到protobuf-2.5.0根路径下
依次执行
./configure
make
make check
make install
在执行./configure就报错了,为什么呢?一看日志明白了少依赖库啊
configure: error: C++ preprocessor "/lib/cpp" fails sanity check
那我就安装,通过
#yum install glibc-headers
# yum install gcc-c++
安装好依赖库再执行
./configure
make
make check
make install
顺利完成
2-编译源码
# mvn package -Pdist,native -DskipTests -Dtar --不生成文档
# mvn package -Pdist,native,docs,src -DskipTests -Dtar --生成文档,需要安装findbugs,并设置FINDBUGS_HOME环境变量
[ERROR] around Ant part ...<exec dir="/usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/native" executable="cmake" failonerror="true">... @ 4:151 in /usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml
解决:
yum install cmake
[ERROR] around Ant part ...<exec dir="/usr/local/hadoop-2.7.1-src/hadoop-tools/hadoop-pipes/target/native" executable="cmake" failonerror="true">... @ 5:131 in /usr/local/hadoop-2.7.1-src/hadoop-tools/hadoop-pipes/target/antrun/build-main.xml
解决
yum install openssl-devel
[ERROR] around Ant part ...<exec dir="/usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/native" executable="cmake" failonerror="true">... @ 4:141 in /usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml
解决:
yum -y install zlib-devel
yum -y install ncurses-devel
相关推荐
Hadoop学习笔记,自己总结的一些Hadoop学习笔记,比较简单。
Hadoop 学习笔记.md
**Hadoop学习笔记详解** Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储海量数据。它的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce,两者构成了大数据处理的基础...
6. **部署与集成**:编译完成后,将编译好的二进制文件部署到Hadoop集群中,然后进行集成测试,验证Hadoop CDH的完整功能。 通过以上步骤,我们可以看到,"Hadoop CDH 源码编译所需软件"这个主题涵盖了大数据处理的...
### Win 7 64位系统上编译Hadoop 2.7.3源码的知识点 #### 一、背景介绍 在当前大数据处理技术快速发展的背景下,Hadoop作为主流的大数据处理框架之一,被广泛应用于各类场景之中。对于开发者来说,能够熟练地在自己...
《Hadoop学习笔记详解》 Hadoop,作为大数据处理领域中的核心框架,是Apache软件基金会下的一个开源项目,主要用于分布式存储和并行计算。本文将根据提供的Hadoop学习笔记,深入解析Hadoop的关键概念和实战技巧,...
【HADOOP学习笔记】 Hadoop是Apache基金会开发的一个开源分布式计算框架,是云计算领域的重要组成部分,尤其在大数据处理方面有着广泛的应用。本学习笔记将深入探讨Hadoop的核心组件、架构以及如何搭建云计算平台。...
云计算,hadoop,学习笔记, dd
Hadoop的源码项目结构主要包括hadoop-common-project、hadoop-hdfs-project、hadoop-mapreduce-project、hadoop-yarn-project等,每个项目下又有多个子项目,包含了Hadoop运行所需的各个组件和客户端等。 在实际...
编译hadoophadoop-3.2.2-src的源码
对于Java开发者来说,深入理解Hadoop的源码并进行编译是非常有益的,可以帮助我们更好地利用这个强大的工具,同时也能提升自身的编程技能。本文将详细介绍如何编译Hadoop的源码。 首先,编译Hadoop源码需要以下基本...
当你拥有已编译的Hadoop 2.2.2源码时,你可以深入理解其内部工作原理,这对于Java开发者尤其是那些专注于大数据处理的工程师来说,具有极大的学习价值。 首先,让我们关注Hadoop的核心组件:HDFS(Hadoop ...
官网荡下的源码,自己亲手编译的hadoop2.x 64位,给大家分享下 文件太大放的是百度网盘链接,目前有hadoop2.3.0,后面的版本我会陆续更新。
在对Hadoop源码进行编译的过程中,确保正确地安装和配置所有必要的软件包是至关重要的。以下将详细阐述这些软件包的作用以及如何在编译Hadoop源码时使用它们。 1. **protobuf (Protocol Buffers)** Protocol ...
标题中的“Hadoop源码编译需要工具”指的是在本地环境中构建Hadoop源代码时所需的必备组件。Hadoop是一个开源的分布式计算框架,主要用于处理和存储海量数据。为了从源代码编译Hadoop,我们需要一些特定的开发工具和...
"Hadoop学习笔记整理" 本篇笔记对Hadoop进行了系统的介绍和总结,从大数据的基本流程到Hadoop的发展史、特性、集群整体概述、配置文件、HDFS分布式文件系统等方面都进行了详细的讲解。 一、大数据分析的基本流程 ...
《深入剖析Hadoop 2.8.1源码:分布式系统的智慧结晶》 Hadoop,作为开源的大数据处理框架,自2006年诞生以来,一直是大数据领域的重要支柱。其2.8.1版本是Hadoop发展的一个关键节点,为用户提供了更稳定、高效的...