hadoop 2..30的官方tarball中 ./lib/native中的库只适合32位操作系统,在64位下安装会报一些错误,使用hadoop启动不起来。所以需要在64位上重新编译。
1. enviroment
hadoop 2.3.0
ubuntu 12.04 64
2. follow these steps to recompile hadoop
sudo apt-get install g++ autoconf automake libtool make cmake zlib1g-dev pkg-config libssl-dev
a. install maven 3
b.install oracle java
c. install protobuf-2.5.0
d. install ant
e. download hadoop src tarball and decompress it
f. enter the hadoop src dir and run commands
$ mvn package -Pdist,native -DskipTests -Dtar
--------------------------------------------------------------------------------------------------------------
The following steps are adopted by centos6.5
a.install maven3
#wget http://apache.fayea.com/apache-mirror/maven/maven-3/3.0.5/binaries/apache-maven-3.0.5-bin.tar.gz
# tar -xzf apache-maven-3.0.5-bin.tar.gz
# mv apache-maven-3.0.5 /usr/local/maven
edit /etc/profile
MAVEN_HOME=/usr/local/maven
export MAVEN_HOME
export PATH=${PATH}:${MAVEN_HOME}/bin
#source /etc/profile
#mvn -version
b install ant
#yum install ant
#ant
Error: Could not find or load main class org.apache.tools.ant.launch.Launcher
google some results show that add ANT_HOME to /etc/profile. I did this but fail.
When I run #ant --execdebug I found the error
so the solution is simple,just create a dir mentioned above
#mkdir /usr/lib/jvm-exports/jdk1.7.0_51
install ant through yum will install ant 1.7.1, but this leads to some errors when compile hadoop
so I install ant1.9.3
#yum remove ant
#tar xzf apache-ant-1.9.3-bin.tar.gz
#mv apache-ant-1.9.3 ant
#mv ant /usr/local/
# echo 'export ANT_HOME=/usr/local/ant'>>/etc/profile
# echo 'export PATH=$PATH:$ANT_HOME/bin'>>/etc/profile
# echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$ANT_HOME/lib'>>/etc/profile
# source /etc/profile
c install protobuf
#yum install protobuf
this will install protobuf2.3.0,and not work
#protoc --version
install it from source
#tar xzf protobuf-2.5.0.tar.gz
#cd protobuf-2.5.0
#./configure
#make
#make install (need root privilege)
but error comes
Solution:
# echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/lib'>>/etc/profile
# source /etc/profile
d.install findbugs
#tar xzf findbugs-2.0.3.tar.gz
#mv findbugs-2.0.3 findbugs
#mv findbugs /usr/local/
#echo 'export FINDBUGS_HOME=/usr/local/findbugs'>>/etc/profile
# echo 'export PATH=$PATH:$FINDBUGS_HOME/bin'>>/etc/profile
# source /etc/profile
e.compile hadoop
#tar -xzf hadoop-2.3.0-src.tar.gz
#cd hadoop-2.3.0-src
#mvn package -Pdist,native -DskipTests -Dtar
When compiled successfully. copy all file in hadoop-dist/target/hadoop-2.3.0/lib/native to your cluster nodes' hadoop corresponding dir.
参考:
http://www.csrdu.org/nauman/2014/01/23/geting-started-with-hadoop-2-2-0-building/
http://www.debugo.com/hadoop2-3-setup/
http://blog.csdn.net/cruise_h/article/details/18709969
- 大小: 24.8 KB
- 大小: 9.8 KB
- 大小: 67.8 KB
分享到:
相关推荐
官网荡下的源码,自己亲手编译的hadoop2.x 64位,给大家分享下 文件太大放的是百度网盘链接,目前有hadoop2.3.0,后面的版本我会陆续更新。
这个“hadoop2.3.0-64位编译完成包”包含的`hadoop-2.3.0`文件可能是完整的源码、编译后的二进制文件或者是配置文件等,用户在下载并自行解压后,可以按照官方文档或相关教程进行安装和配置,以便在64位系统上运行和...
在Linux系统,特别是CentOS 7 64位环境下,编译开源软件如Hadoop是一项常见的任务,这对于理解和优化Hadoop在本地环境中的运行至关重要。Hadoop 2.7.2是一个稳定版本,包含了分布式存储(HDFS)和计算框架...
hadoop2.2.0/2.6.0/2.7.0/2.7.1 64位安装包。
Hadoop 2.3.0 是一个重要的版本更新,在分布式计算领域具有深远影响。这个版本主要包含Apache Hadoop的核心组件,如HDFS(Hadoop Distributed File System)和MapReduce,以及YARN(Yet Another Resource Negotiator...
Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu_CentOS.docxHadoop集群安装配置教程_Hadoop2.6.0_Ubuntu_CentOS.docx
资源如题,自己想办法编译的,亲测可用,因为等级低,所以分了三部分上传。(我不会分卷压缩tar.gz,所以压缩成了.zip,见谅哈)
2.自己安装搜索“编译64位的hadoop 2.4.1”参考:http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-common/NativeLibraries.html The native hadoop library is written in ANSI C and is built ...
总结来说,这个压缩包是针对64位 CentOS 7 系统优化的Hadoop 2.4.1版本,解决了用户在64位环境下直接使用官方32位二进制包可能出现的兼容性问题。它包含的"native"文件是专门为64位系统编译的本地库,以保证Hadoop在...
在Centos6.8系统环境中,无论是32位还是64位版本,编译Hadoop 2.6.4源码都需要一系列的准备工作与步骤。本篇文章将详细地介绍这一过程中的关键知识点。 #### 一、准备工作 **1.1 安装Java Development Kit (JDK)**...
4. **生成64位Native库**:在编译过程中,Hadoop会使用C++代码生成native库,这部分代码位于`hadoop-common-project/hadoop-nativetask`目录下。编译成功后,64位的库文件将出现在`hadoop-common/target/native`目录...
标题中的“hadoop cdh5 centos 64位系统本地库编译文件”涉及到的是在基于64位CentOS操作系统上编译Hadoop CDH5(Cloudera's Distribution Including Apache Hadoop)的本地库的过程。CDH5是Cloudera公司提供的一个...
在这个场景中,我们关注的是在64位操作系统环境下,在CentOS 6.5这个Linux发行版上安装和编译Hadoop的过程。 首先,我们需要理解Hadoop的核心组件。Hadoop主要由两个关键部分组成:Hadoop Distributed File System ...
本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结: 1. 安装前的准备工作:创建 hadoop 用户,设置密码,增加...
以下是一个详细步骤的指导,帮助你完成Hadoop2.3.0源码在CentOS 64位系统的编译过程。 首先,确保你的系统是64位的。你可以通过运行`uname -a`命令来检查。如果显示`x86_64`或`AMD64`,则说明你的系统是64位的。 *...
标题提到的"Ubuntu下hadoop-2.5.2编译好的64bit的native库",意味着这是一个专门为64位Ubuntu系统优化的Hadoop原生库包。这个库包包含了与Hadoop 2.5.2版本兼容的所有必要的C/C++编译的库文件,它们可以显著提高...
这个压缩包“hadoop-2.7.5.tar.gz”是针对64位CentOS操作系统进行编译的,这意味着它已经过优化,可以在64位的CentOS环境下稳定运行。 首先,我们来深入了解Hadoop的核心组件: 1. **HDFS(Hadoop Distributed ...
- **物理机配置**:本案例采用的操作系统为Windows 7 64位。 - **虚拟机软件**:使用的是VirtualBox 4.3.10版本。 - **操作系统**:Linux发行版CentOS 6.3。 - **Hadoop版本**:Hadoop 2.3.0。 - **其他依赖组件**:...