编译需要安装的软件:
1.yum install svn
2.yum install autoconfautomake libtool cmake
3.yum install ncurses-devel
4.yum install openssl-devel
5.yum install gcc*
6.wget http://mirror.esocc.com/apache/maven/maven-3/3.1.4/binaries/apache-maven-3.1.4-bin.tar.gz
7.wget https://protobuf.googlecode.com/files/protobuf-2.5.0.tar.gz
$ tar zxf protobuf-2.5.0.tar.gz
1. 下载Hadoop 2.2.0 源码包,并解压
$ wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0-src.tar.gz
$ tar zxf hadoop-2.2.0-src.tar.gz
2. 安装下面的软件
$ sudo yum install cmake lzo-devel zlib-devel gcc autoconf automake libtool ncurses-devel openssl-deve glibc-headers gcc-c++
3. 安装Maven
$ wget http://mirror.esocc.com/apache/maven/maven-3/3.1.4/binaries/apache-maven-3.1.4-bin.tar.gz
$ tar zxf apache-maven-3.1.4-bin.tar.gz -C /opt
$ vi ~/.bashrc
export MAVEN_HOME=/opt/apache-maven-3.1.4
export PATH=$PATH:$MAVEN_HOME/bin
4. 安装protobuf
编译Hadoop 2.2.0,需要protobuf的编译器protoc。一定需要protobuf 2.5.0以上,yum里的是2.3,下载源码,编译安装。
$ wget https://protobuf.googlecode.com/files/protobuf-2.5.0.tar.gz
$ tar zxf protobuf-2.5.0.tar.gz
$ cd protobuf-2.5.0
$ ./configure
$ make
$ make install
5. 给Hadoop源码打一个patch
cd /opt/program/hadoop-2.2.0-src
wget https://issues.apache.org/jira/secure/attachment/12614482/HADOOP-10110.patch; patch -p0 < HADOOP-10110.patch
#让设置生效
source ~/.bashrc
6. 编译 Hadoop
cd hadoop-2.2.0-src
mvn package -DskipTests -Pdist,native -Dtar
7. 替换掉32位的native库
用 hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/lib/native 替换掉 hadoop-2.2.0/lib/native
rm -rf ~/local/opt/hadoop-2.2.0/lib/native
cp ./hadoop-dist/target/hadoop-2.2.0/lib/native ~/local/opt/hadoop-2.2.0/lib/
分享到:
相关推荐
在CentSO_64bit集群搭建,hadoop2.2(64位)编译 新版亮点: 基于yarn计算框架和高可用性DFS的第一个稳定版本。 注1:官网只提供32位release版本, 若机器为64位,需要手动编译。 环境配置是个挺烦人的活,麻烦不说还...
centos64位下用hadoop32位搭建的环境会报native库异常错误,由于官方提供的是hadoop-2.2.0的32位版本,无法在linux64位下正常运行。经本人亲自将32位编译成64位,可以成功在centos64位下运行。
在本文中,我们将深入探讨如何在64位Linux CentOS 6.5系统上编译和安装Hadoop-2.2.0。Hadoop是一个开源的分布式系统基础架构,旨在简化大规模数据处理和存储。它的核心组件包括HDFS(Hadoop Distributed File System...
##### 3.1 CENTOS 64BIT安装HADOOP 2.2.0中出现文件编译位数异常 在64位操作系统上安装Hadoop时,可能会遇到编译位数不匹配的问题。通常情况下,这是由于缺少64位支持库导致的。可以通过安装`glibc-devel.i686`来...
本章节主要介绍如何在 CentOS 6.5 系统上搭建 Hadoop 2.2.0 的开发环境,并进行编译。 ##### 1.1 安装 JDK 在编译 Hadoop 前,首先需要安装 JDK 并配置其环境变量。这里以 jdk-7u79-linux-x64 版本为例: 1. **...
2. 编译Hadoop2.2:由于Hadoop2.2-bin.tar.gz只适合32位系统,而64位系统需要自己编译。编译前需要下载maven,并使用maven编译。 Zookeeper3.4.5安装和部署 Zookeeper是Hadoop和HBase集群环境中的核心组件,负责...
完成这些步骤后,你已经在Hadoop 2.4.1上成功地自编译和部署了HBase 0.98.5。接下来,你可以启动HBase服务,进行数据加载和查询操作,利用HBase提供的高性能大数据处理能力。然而,值得注意的是,实际生产环境中,你...
亲自编译的,我的编译环境 eclipse indigo X86_64 版本。centos。
【Hadoop2.4.1集群模式的安装与配置】主要涵盖了在CentOS 6.0 64位操作系统上构建Hadoop 2.4.1集群的基本步骤,包括环境准备、Hadoop安装配置、启动及简单job的运行。以下是详细的知识点说明: **一、环境准备** 1....
如果是在Master节点机上自行编译Hadoop软件包,则只需将编译好的软件包拷贝到root目录下。 步骤4:解压Hadoop软件包,并开始安装。这一步涉及到解压缩软件包,并进行必要的安装操作。 步骤5:安装JDK。因为Hadoop...
- **Hadoop**:版本为2.2.0,需编译成64位版本。 - **Scala**:版本为2.10.4。 - **Spark**:版本为1.1.0,需要进行编译。 ##### 集群网络环境 本环境搭建了一个由三台虚拟机组成的集群,节点间能够通过免密码SSH...
4. Atlas2.2.0中的Hadoop和Hive版本问题: Atlas2.2.0默认使用Hadoop 3.3.0和Hive 3.1.0版本,但是CDH6.3.2使用的是Hadoop 3.0.0和Hive 2.1.1版本。因此,需要修改Atlas2.2.0的源码,以便与CDH6.3.2集成。 5. Java...
本篇文档将详细介绍在CentOS 6.5 32位系统上安装Hive 0.12.0的配置过程,以及在此过程中需要注意的关键点。 首先,确保你的环境中已经正确安装了32位的Hadoop 2.2.0,因为Hive依赖于Hadoop的HDFS和MapReduce服务。...