`

Hadoop学习笔记 6 Hadoop源码编译

 
阅读更多

在学习Hadoop开始,便被告知官网只提供了32位系统的安装文件,如果要在64位系统中运行,那就得自己重新编译安装文件;

前段时间一直在学习怎么样安装使用Hadoop,先把编译64位的安装文件忽略了,等到对Hadoop熟悉之后再学习会更省时间,还不错,跟预想的一样。

下面就介绍一下怎么样编译64位的安装文件

系统环境

OS:RedHat6.5 64bit企业版

JDK:1.8.0_20 64bit

硬件:虚拟机

1、 前期准备

作为一个屌丝开发程序员,看到源码中的pom.xml之后就轻松了下来,这不就是maven构建的项目吗!赶紧的安装maven

 

#tar -xvzf /usr/apache-maven-3.3.3-bin.tar.gz -C /usr

#vim /etc/profile

export MAVEN_HOME=/usr/maven/apache-maven-3.3.3
export PATH=$PATH:$JAVA_HOME/bin:$MAVEN_HOME/bin

#source /etc/profile

 

maven安装完成之后我以为可以了,直接用mvn -install进行编译,这时候才知道我是个菜鸟啊,居然报错了!!! 凭借着屌丝精神在百度找到了正解,还需要安装protobuf, 好吧,在csdn上下载到源码 protobuf-2.5.0.tar.gz

 

#tar -xvzf /usr/protobuf-2.5.0.tar.gz -C /usr

进入到protobuf-2.5.0根路径下

依次执行

./configure

make

make check

make install

 

在执行./configure就报错了,为什么呢?一看日志明白了少依赖库啊

configure: error: C++ preprocessor "/lib/cpp" fails sanity check

那我就安装,通过

#yum install glibc-headers

# yum install gcc-c++

安装好依赖库再执行

./configure

make

make check

make install

顺利完成

 

2-编译源码

 

# mvn package -Pdist,native -DskipTests -Dtar --不生成文档
# mvn package -Pdist,native,docs,src -DskipTests -Dtar --生成文档,需要安装findbugs,并设置FINDBUGS_HOME环境变量

 

  

 [ERROR]  around Ant part ...<exec dir="/usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/native" executable="cmake" failonerror="true">... @ 4:151 in /usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml

 

解决:

yum install cmake

 

[ERROR] around Ant part ...<exec dir="/usr/local/hadoop-2.7.1-src/hadoop-tools/hadoop-pipes/target/native" executable="cmake" failonerror="true">... @ 5:131 in /usr/local/hadoop-2.7.1-src/hadoop-tools/hadoop-pipes/target/antrun/build-main.xml

解决

yum install openssl-devel

 

 

[ERROR] around Ant part ...<exec dir="/usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/native" executable="cmake" failonerror="true">... @ 4:141 in /usr/local/hadoop-2.7.1-src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml

解决:

yum -y install zlib-devel

yum -y install ncurses-devel

 

分享到:
评论

相关推荐

    Hadoop学习笔记

    Hadoop学习笔记,自己总结的一些Hadoop学习笔记,比较简单。

    Hadoop 学习笔记.md

    Hadoop 学习笔记.md

    最新Hadoop学习笔记

    **Hadoop学习笔记详解** Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储海量数据。它的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce,两者构成了大数据处理的基础...

    Hadoop 源码编译所需软件

    6. **部署与集成**:编译完成后,将编译好的二进制文件部署到Hadoop集群中,然后进行集成测试,验证Hadoop CDH的完整功能。 通过以上步骤,我们可以看到,"Hadoop CDH 源码编译所需软件"这个主题涵盖了大数据处理的...

    win 7 64上编译 Hadoop 2.7.3 源码

    ### Win 7 64位系统上编译Hadoop 2.7.3源码的知识点 #### 一、背景介绍 在当前大数据处理技术快速发展的背景下,Hadoop作为主流的大数据处理框架之一,被广泛应用于各类场景之中。对于开发者来说,能够熟练地在自己...

    hadoop学习笔记.rar

    《Hadoop学习笔记详解》 Hadoop,作为大数据处理领域中的核心框架,是Apache软件基金会下的一个开源项目,主要用于分布式存储和并行计算。本文将根据提供的Hadoop学习笔记,深入解析Hadoop的关键概念和实战技巧,...

    HADOOP学习笔记

    【HADOOP学习笔记】 Hadoop是Apache基金会开发的一个开源分布式计算框架,是云计算领域的重要组成部分,尤其在大数据处理方面有着广泛的应用。本学习笔记将深入探讨Hadoop的核心组件、架构以及如何搭建云计算平台。...

    云计算hadoop学习笔记

    云计算,hadoop,学习笔记, dd

    hadoop学习笔记

    我学习hadoop的笔记,并在公司做的报告,给大家共享下

    Hadoop学习笔记.pdf

    Hadoop的源码项目结构主要包括hadoop-common-project、hadoop-hdfs-project、hadoop-mapreduce-project、hadoop-yarn-project等,每个项目下又有多个子项目,包含了Hadoop运行所需的各个组件和客户端等。 在实际...

    编译hadoophadoop-3.2.2-src源码

    编译hadoophadoop-3.2.2-src的源码

    Hadoop源码编译 PDF 下载

    对于Java开发者来说,深入理解Hadoop的源码并进行编译是非常有益的,可以帮助我们更好地利用这个强大的工具,同时也能提升自身的编程技能。本文将详细介绍如何编译Hadoop的源码。 首先,编译Hadoop源码需要以下基本...

    hadoop 2.2.2 已编译源码

    当你拥有已编译的Hadoop 2.2.2源码时,你可以深入理解其内部工作原理,这对于Java开发者尤其是那些专注于大数据处理的工程师来说,具有极大的学习价值。 首先,让我们关注Hadoop的核心组件:HDFS(Hadoop ...

    官网荡下的源码,自己亲手编译的hadoop2.3.0 64位,给大家分享下

    官网荡下的源码,自己亲手编译的hadoop2.x 64位,给大家分享下 文件太大放的是百度网盘链接,目前有hadoop2.3.0,后面的版本我会陆续更新。

    hadoop源码编译所需软件包

    在对Hadoop源码进行编译的过程中,确保正确地安装和配置所有必要的软件包是至关重要的。以下将详细阐述这些软件包的作用以及如何在编译Hadoop源码时使用它们。 1. **protobuf (Protocol Buffers)** Protocol ...

    Hadoop源码编译需要工具

    标题中的“Hadoop源码编译需要工具”指的是在本地环境中构建Hadoop源代码时所需的必备组件。Hadoop是一个开源的分布式计算框架,主要用于处理和存储海量数据。为了从源代码编译Hadoop,我们需要一些特定的开发工具和...

    Hadoop学习笔记整理

    "Hadoop学习笔记整理" 本篇笔记对Hadoop进行了系统的介绍和总结,从大数据的基本流程到Hadoop的发展史、特性、集群整体概述、配置文件、HDFS分布式文件系统等方面都进行了详细的讲解。 一、大数据分析的基本流程 ...

    hadoop-2.8.1源码

    《深入剖析Hadoop 2.8.1源码:分布式系统的智慧结晶》 Hadoop,作为开源的大数据处理框架,自2006年诞生以来,一直是大数据领域的重要支柱。其2.8.1版本是Hadoop发展的一个关键节点,为用户提供了更稳定、高效的...

Global site tag (gtag.js) - Google Analytics