1.在编译之前我们可能需要安装的工具如下:
- yum install lzo-devel zlib-devel gcc autoconf automake libtool ncurses-devel openssl-deve gcc-g++
2.需要 安装 ant 、 Maven、Findbugs 和protobuf
2.1 安装 maven
建议使用版本 Maven 3.0.5 ,高版本可能会存在一些问题。还有JAVA 版本建议使用1.6
下载官方地址http://maven.apache.org/docs/3.0.5/release-notes.html
解压后添加系统环境变量 vim /etc/profile
- export MAVEN_HOME=/opt/apache-maven-3.0.5
- export PATH=$PATH:$MAVEN_HOME/bin
命令:
mvn -version
- [hue@cloud-master FCCSDATA]$ mvn -version
- ApacheMaven3.0.5(r01de14724cdef164cd33c7c8c2fe155faf9602da;2013-02-1921:51:28+0800)
- Maven home:/usr/local/maven3.05
- Java version:1.6.0_45, vendor:SunMicrosystemsInc.
- Java home:/usr/local/jdk1.6/jre
- Default locale: zh_CN, platform encoding: UTF-8
- OS name:"linux", version:"2.6.32-431.el6.x86_64", arch:"amd64", family:"unix"
说明安装成功
2.2 安装Ant
- $ wget http://apache.dataguru.cn//ant/binaries/apache-ant-1.9.3-bin.tar.gz
- $ sudo tar zxf apache-ant-1.9.3-bin.tar.gz -C /opt
- $ sudo vim /etc/profile
添加环境变量
export ANT_HOME=/opt/apache-ant-1.9.3
export PATH=$PATH:$ANT_HOME/bin
2.3 安装Findbugs
- $ wget http://prdownloads.sourceforge.net/findbugs/findbugs-2.0.3.tar.gz?download
- $ tar zxf findbugs-2.0.3.tar.gz -C /opt
- $ vim /etc/profile
添加环境变量
export FINDBUGS_HOME=/opt/findbugs-2.0.3
export PATH=$PATH:$FINDBUGS_HOME/bin
2.4 安装protobuf
- $ wget https://protobuf.googlecode.com/files/protobuf-2.5.0.tar.gz
- $ tar zxf protobuf-2.5.0.tar.gz
- $ cd protobuf-2.5.0
- $ ./configure
- $ make
- $ make install
3. 从官方下载hadoop-2.0.0-cdh4.5.0 解压后
$ wget http://archive.cloudera.com/cdh4/cdh/4/hadoop-2.0.0-cdh4.5.0.tar.gz
$ tar xvfz hadoop-2.0.0-cdh4.5.0.tar.gz
$ cd hadoop-2.0.0-cdh4.5.0/src/
$ mvn package -DskipTests -Pdist,native -Dtar
可能出现的问题
undefined reference to `xdrmem_create’
我出现这个问题 可能是因为我升级了centos 的系统内核导致的。没有解决,换了一个节点按照上面的方法编译成功了。
下载包http://archive-primary.cloudera.com/cdh5/cdh/5/
- wget http://archive-primary.cloudera.com/cdh5/cdh/5/hadoop-2.3.0-cdh5.0.0.tar.gz
执行命令一样
解压
- tar xvfz hadoop-2.3.0-cdh5.0.0.tar.gz
- cd hadoop-2.3.0-cdh5.0.0/src
- mvn package-DskipTests-Pdist,native-Dtar
编译过程中 可能会出现出现 下载超时 可能是网络不好 重复执行 一下命令即可
如果出现
[ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (dist) on project hadoop-hdfs-httpfs: An Ant BuildException has occured: exec returned: 2 -> [Help 1] |
这个原因是tomcat 包没有下载完毕 ,可能是网络问题, 去网站里手工下载 http://archive.apache.org/dist/tomcat/tomcat-6/v6.0.37/bin/
- cd hadoop-hdfs-project/hadoop-hdfs-httpfs/downloads
- wget http://archive.apache.org/dist/tomcat/tomcat-6/v6.0.37/bin/apache-tomcat-6.0.37.zip
然后重新执行 命令 ,基本上没有问题了
编译 eclipse
- mvn eclipse:eclipse -DdownloadSources=true-DdownloadJavadocs=true
相关推荐
CentOS-6.4-i386-bin-DVD1(文档内附有下载链接)vmware镜像映射资源
官方CentOS-6.4-i386-bin-DVD1to2.torrent种子文件,可以使用迅雷下载
CENTOS6.4 X64位 CentOS-6.4-x86_64-bin-DVD1.iso CentOS-6.4-x86_64-bin-DVD2.iso
标题“centos6.5-hadoop-2.6.0-cdh5.9.0-nativelib”提及的是一个专为64位CentOS 6.5操作系统编译的Hadoop 2.6.0 CDH 5.9.0的本地库(nativelib)打包文件。这个压缩包包含了运行Hadoop在CentOS环境下所需的本机库,...
hadoop大规模应用之CentOS6.4+DNS-BIND域名服务器配置基础详解 很不错的配置文档
在Linux操作系统中,CentOS 6.4是一个广泛使用的版本,它提供了稳定和安全的服务器环境。然而,为了实现远程访问和诊断,有时我们需要开启一些网络服务,如Telnet服务。本文将详细介绍如何在CentOS 6.4上启用Telnet...
CentOS-6.4-x86_64百度网盘下载连接,可以直接安装在vmware上,供实验使用
centos6.4的安装镜像。可以下一个VM,安装流程百度一大堆。
在这个"xxl-job-2.3.0.rar"压缩包中,我们可能找到了XXL-JOB的源码、文档、配置文件等资源,便于我们理解和使用这款工具。 首先,XXL-JOB的核心组件包括调度中心(XXL-JOB-ADMIN)和执行器(XXL-JOB-EXECUTOR)。...
本文将详细讲解如何在CentOS 6.5系统上编译Hadoop 2.5.0 - CDH5.3.6与Snappy的源码,以生成适用于该环境的native库。 首先,我们要了解Hadoop的native库是什么。Hadoop的native库是一组C++编译的库,它们提供了与...
`spark-2.4.0-bin-without-hadoop.tgz` 文件是一个压缩包,其中包含了 Spark 2.4.0 版本的二进制文件,但不包括 Hadoop 相关依赖,这意味着你需要自行配置 Hadoop 集群环境或者连接到已有的 Hadoop 集群。...
CentOS-6.4-x86_64-minimal.iso
./configure --add-module=../nginx-upload-module-2.3.0 \ --prefix=/usr/local/nginx \ --with-http_ssl_module \ --with-pcre make sudo make install ``` 这里的 `--with-http_ssl_module` 参数表示启用 ...
这个压缩包“hadoop-2.6.0-cdh5.14.0-with-centos6.9.tar.gz”是针对CDH(Cloudera Distribution Including Apache Hadoop)版本5.14.0的Hadoop 2.6.0安装包,特别优化以适应CentOS 6.9操作系统。在大数据领域,...
5. **配置环境变量**:在 `~/.bashrc` 或 `~/.bash_profile` 文件中添加Hadoop的路径到PATH环境变量,使系统可以在任何目录下执行Hadoop命令。 6. **格式化NameNode**:首次安装时,需要对NameNode进行格式化,这会...
本压缩包“spark--bin-hadoop3-without-hive.tgz”提供了Spark二进制版本,针对Hadoop 3.1.3进行了编译和打包,这意味着它已经与Hadoop 3.x兼容,但不包含Hive组件。在CentOS 8操作系统上,这个版本的Spark已经被...
在这个特定的“hadoop-2.5.0-cdh5.3.1centos6.4本地库”压缩包中,包含的是针对CentOS 6.4 64位系统优化的Hadoop本地库。这些本地库对于Hadoop在Linux环境下的高效运行至关重要,因为它们提供了与操作系统底层交互的...
### CentOS 6.4 i386 自定义安装图形界面详解 #### 一、自定义安装概述 在《CentOS 6.4 i386的学习笔记-001 自定义安装图形界面》中,作者详细记录了在虚拟机环境下进行自定义安装CentOS 6.4 i386图形界面的全过程...
"在 CentOS 6.4 下编译 64 位的 Hadoop 2.4.1" 本文将详细介绍在 CentOS 6.4 下编译 64 位的 Hadoop 2.4.1 的步骤和知识点。 一、环境准备 在开始编译 Hadoop 之前,需要准备以下环境: 1. CentOS 6.4 操作系统 ...
3. **CentOS 6.4的基本操作**:熟悉CentOS 6.4的常用操作,包括文件编辑等。 #### 三、步骤详解 ##### 1. 重启CentOS系统 - 首先,需要重启您的CentOS 6.4系统。这一步是进入单用户模式的前提条件。 ##### 2. 进入...