`

hadoop 2.3.0 在 ubuntu/Centos 64位下的编译

 
阅读更多

hadoop 2..30的官方tarball中 ./lib/native中的库只适合32位操作系统,在64位下安装会报一些错误,使用hadoop启动不起来。所以需要在64位上重新编译。

1. enviroment

   hadoop 2.3.0

   ubuntu 12.04 64

 

2. follow these steps to recompile hadoop

sudo apt-get install g++ autoconf automake libtool make cmake zlib1g-dev pkg-config libssl-dev

a. install maven 3

b.install  oracle java

c. install protobuf-2.5.0

d. install ant

e. download hadoop src tarball and decompress it

f. enter the hadoop src dir and run commands

$ mvn package -Pdist,native -DskipTests -Dtar

 --------------------------------------------------------------------------------------------------------------

The following steps are adopted by centos6.5

a.install maven3

#wget http://apache.fayea.com/apache-mirror/maven/maven-3/3.0.5/binaries/apache-maven-3.0.5-bin.tar.gz

# tar -xzf apache-maven-3.0.5-bin.tar.gz
# mv apache-maven-3.0.5 /usr/local/maven
edit /etc/profile
MAVEN_HOME=/usr/local/maven
export MAVEN_HOME
export PATH=${PATH}:${MAVEN_HOME}/bin

#source /etc/profile

#mvn -version

 

b install ant

#yum install ant

#ant 

Error: Could not find or load main class org.apache.tools.ant.launch.Launcher

google some results show that add ANT_HOME to /etc/profile. I did this but fail.

When I run #ant --execdebug  I found the error



 

 so the solution is simple,just create a dir mentioned above

 #mkdir /usr/lib/jvm-exports/jdk1.7.0_51
install ant through yum will install ant 1.7.1, but this leads to some errors when compile hadoop

so I install ant1.9.3

#yum remove ant 

#tar xzf apache-ant-1.9.3-bin.tar.gz

#mv apache-ant-1.9.3 ant

#mv ant /usr/local/
# echo 'export ANT_HOME=/usr/local/ant'>>/etc/profile
# echo 'export PATH=$PATH:$ANT_HOME/bin'>>/etc/profile
# echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$ANT_HOME/lib'>>/etc/profile
# source /etc/profile

 

 

c install   protobuf

#yum install protobuf

this will install protobuf2.3.0,and not work

#protoc --version

install it from source

#tar xzf protobuf-2.5.0.tar.gz

#cd protobuf-2.5.0

#./configure

#make

#make install (need root privilege)

but error comes



 Solution:

# echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/lib'>>/etc/profile

# source /etc/profile

 

d.install findbugs

#tar xzf findbugs-2.0.3.tar.gz

#mv findbugs-2.0.3 findbugs

#mv findbugs /usr/local/

#echo 'export FINDBUGS_HOME=/usr/local/findbugs'>>/etc/profile
# echo 'export PATH=$PATH:$FINDBUGS_HOME/bin'>>/etc/profile
# source /etc/profile

 

e.compile hadoop

#tar -xzf hadoop-2.3.0-src.tar.gz

#cd hadoop-2.3.0-src

#mvn package -Pdist,native -DskipTests -Dtar

 

When compiled successfully. copy all file in hadoop-dist/target/hadoop-2.3.0/lib/native to your cluster nodes' hadoop corresponding dir.

 

 

 

 

 

 

 

参考:

http://www.csrdu.org/nauman/2014/01/23/geting-started-with-hadoop-2-2-0-building/

http://www.debugo.com/hadoop2-3-setup/

http://blog.csdn.net/cruise_h/article/details/18709969

  • 大小: 24.8 KB
  • 大小: 9.8 KB
  • 大小: 67.8 KB
分享到:
评论

相关推荐

    官网荡下的源码,自己亲手编译的hadoop2.3.0 64位,给大家分享下

    官网荡下的源码,自己亲手编译的hadoop2.x 64位,给大家分享下 文件太大放的是百度网盘链接,目前有hadoop2.3.0,后面的版本我会陆续更新。

    hadoop2.3.0-64位编译完成包(3)

    这个“hadoop2.3.0-64位编译完成包”包含的`hadoop-2.3.0`文件可能是完整的源码、编译后的二进制文件或者是配置文件等,用户在下载并自行解压后,可以按照官方文档或相关教程进行安装和配置,以便在64位系统上运行和...

    centos7 64位下编译Hadoop2.7.2源码库文件

    在Linux系统,特别是CentOS 7 64位环境下,编译开源软件如Hadoop是一项常见的任务,这对于理解和优化Hadoop在本地环境中的运行至关重要。Hadoop 2.7.2是一个稳定版本,包含了分布式存储(HDFS)和计算框架...

    hadoop2.2.0/2.6.0/2.7.0/2.7.1 64位安装包

    hadoop2.2.0/2.6.0/2.7.0/2.7.1 64位安装包。

    hadoop 2.3.0

    Hadoop 2.3.0 是一个重要的版本更新,在分布式计算领域具有深远影响。这个版本主要包含Apache Hadoop的核心组件,如HDFS(Hadoop Distributed File System)和MapReduce,以及YARN(Yet Another Resource Negotiator...

    Hadoop集群安装配置教程-Hadoop2.6.0-Ubuntu-CentOS.docx

    Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu_CentOS.docxHadoop集群安装配置教程_Hadoop2.6.0_Ubuntu_CentOS.docx

    hadoop2.3.0-64位编译完成包

    资源如题,自己想办法编译的,亲测可用,因为等级低,所以分了三部分上传。(我不会分卷压缩tar.gz,所以压缩成了.zip,见谅哈)

    在linux中编译64位的 hadoop 2.4.1native

    2.自己安装搜索“编译64位的hadoop 2.4.1”参考:http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-common/NativeLibraries.html The native hadoop library is written in ANSI C and is built ...

    hadoop2.4.1_centos7_64位本包

    总结来说,这个压缩包是针对64位 CentOS 7 系统优化的Hadoop 2.4.1版本,解决了用户在64位环境下直接使用官方32位二进制包可能出现的兼容性问题。它包含的"native"文件是专门为64位系统编译的本地库,以保证Hadoop在...

    Centos6.8 32位 64位下编译 hadoop 2.6.4 源码

    在Centos6.8系统环境中,无论是32位还是64位版本,编译Hadoop 2.6.4源码都需要一系列的准备工作与步骤。本篇文章将详细地介绍这一过程中的关键知识点。 #### 一、准备工作 **1.1 安装Java Development Kit (JDK)**...

    hadoop-2.3.0 的64位 native库

    4. **生成64位Native库**:在编译过程中,Hadoop会使用C++代码生成native库,这部分代码位于`hadoop-common-project/hadoop-nativetask`目录下。编译成功后,64位的库文件将出现在`hadoop-common/target/native`目录...

    hadoop cdh5 centos 64位系统本地库编译文件

    标题中的“hadoop cdh5 centos 64位系统本地库编译文件”涉及到的是在基于64位CentOS操作系统上编译Hadoop CDH5(Cloudera's Distribution Including Apache Hadoop)的本地库的过程。CDH5是Cloudera公司提供的一个...

    hadoop 64位下载 centos6.5环境编译

    在这个场景中,我们关注的是在64位操作系统环境下,在CentOS 6.5这个Linux发行版上安装和编译Hadoop的过程。 首先,我们需要理解Hadoop的核心组件。Hadoop主要由两个关键部分组成:Hadoop Distributed File System ...

    Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04

    本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结: 1. 安装前的准备工作:创建 hadoop 用户,设置密码,增加...

    hadoop2源码编译成64位

    以下是一个详细步骤的指导,帮助你完成Hadoop2.3.0源码在CentOS 64位系统的编译过程。 首先,确保你的系统是64位的。你可以通过运行`uname -a`命令来检查。如果显示`x86_64`或`AMD64`,则说明你的系统是64位的。 *...

    Ubuntu下hadoop-2.5.2编译好的64bit的native库

    标题提到的"Ubuntu下hadoop-2.5.2编译好的64bit的native库",意味着这是一个专门为64位Ubuntu系统优化的Hadoop原生库包。这个库包包含了与Hadoop 2.5.2版本兼容的所有必要的C/C++编译的库文件,它们可以显著提高...

    hadoop-2.7.5.tar.gz 64位CentOS编译

    这个压缩包“hadoop-2.7.5.tar.gz”是针对64位CentOS操作系统进行编译的,这意味着它已经过优化,可以在64位的CentOS环境下稳定运行。 首先,我们来深入了解Hadoop的核心组件: 1. **HDFS(Hadoop Distributed ...

    Hadoop 2.3.0分布式集群搭建图文.doc

    - **物理机配置**:本案例采用的操作系统为Windows 7 64位。 - **虚拟机软件**:使用的是VirtualBox 4.3.10版本。 - **操作系统**:Linux发行版CentOS 6.3。 - **Hadoop版本**:Hadoop 2.3.0。 - **其他依赖组件**:...

Global site tag (gtag.js) - Google Analytics