`
chaijuntao
  • 浏览: 24762 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

hadoop2.2.0源代码编译

 
阅读更多

一、环境说明

虚拟软件:VMware Workstation 10

虚拟机配置:

RHEL Server release 6.5 (Santiago) 2.6.32-431.el6.x86_64

cpu:4核心,内存:4G,硬盘:50G

二、前提条件:

1:将rhel6.5的iso文件作为yum源

2:hadoop-2.2.0-src.tar.gz

3:安装JDK 1.6.0_43

4:安装并配置apache-maven 3.0.5(apache-maven-3.0.5-bin.tar.gz)

源码中BUILDING.txt中要求使用3.0,从hadoop2.0版本以后使用maven编译,之前用Ant)

解压并配置环境变量

 

mvn -version

5:安装并配置apache-ant-1.9.3-bin.zip(下载二进制版本的,这个需要编译安装findbugs)

解压并配置环境变量

 

ant -version

6:下载并安装cmake cmake-2.8.12.1,安装命令如下:

  tar -zxvf cmake-2.8.12.1.tar.gz

  cd cmake-2.8.12.1

  ./bootstrap

  make

  make install

 

  检查安装是否正确

cmake --version(如果能正确显示版本号,则说明安装正确)

7:下载并安装配置findbugs-2.0.2-source.zip

http://sourceforge.jp/projects/sfnet_findbugs/releases/

 

使用ant编译安装。如果不编译安装则编译的时候会报

hadoop-common-project/hadoop-common/${env.FINDBUGS_HOME}/src/xsl/default.xsl doesn’t exist. -> [Help 1]

进入到解压后的目录,直接运行ant命令

 

如果不安装,则在编译时会报如下错误:

Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (site) on project hadoop-common: An Ant BuildException has occured

8:安装zlib-devel

默认情况下,系统没有安装zlib-devel

yum install zlib-devel

如果不安装,则在编译时会报如下错误:

Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (make) on project hadoop-common

9: protobuf-2.5.0

yum install gcc-c++ (如果不安装,则cmake configure失败)

./configure

make

make check

make install

 

检查安装是否正确

protoc --version((如果能正确显示版本号,则说明安装正确)

 

三、hadoop2.2源码编译

1:进入hadoop2.2.0解压后的源码目录

2:执行mvn命令编译,此过程需要连接网络,编译的速度取决于你的网速

mvn clean package -Pdist,native -DskipTests -Dtar

 

2.1.Create binary distribution without native code and without documentation:

$ mvn package -Pdist -DskipTests -Dtar

2.2.Create binary distribution with native code and with documentation:

$ mvn package -Pdist,native,docs -DskipTests -Dtar

2.3.Create source distribution:

$ mvn package -Psrc -DskipTests

2.4.Create source and binary distributions with native code and documentation:

$ mvn package -Pdist,native,docs,src -DskipTests -Dtar

2.5.Create a local staging version of the website (in /tmp/hadoop-site)

$ mvn clean site; mvn site:stage -DstagingDirectory=/tmp/hadoop-site

3:编译后的项目发布版本在hadoop-2.2.0-src/hadoop-dist/target/目录下

hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/

 

四、安装hadoop 单点伪分布式模式

1:配置ssh互信

ssh-keygen -t dsa (或行ssh-keygen -t rsa -P "" 加上-P ""参数只需要一次回车就可以执行完毕。不加需要三次回车)

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 

如果仍然需要输入密码,则执行如下命令

chmod 600 ~/.ssh/authorized_keys

2:将编译后的hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0复制到/data/hadoop/目录下

3:建议软链接 ln -s hadoop-2.2.0 hadoop2

4: 在用户的.bash_profile增加如下变量

export HADOOP_HOME=/data/hadoop/hadoop2

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

export HADOOP_MAPRED_HOME=${HADOOP_HOME}

export HADOOP_COMMON_HOME=${HADOOP_HOME}

export HADOOP_HDFS_HOME=${HADOOP_HOME}

export YARN_HOME=${HADOOP_HOME}

5:建议data.dir及namenode.dir目录

mkdir hdfs

mkdir namenode

chmod -R 755 hdfs

6:修改hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.6.0_43

export HADOOP_HOME=/data/hadoop/hadoop2

7:修改core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml,内容见附录2

8:格式化HDFS文件系统

执行命令 hadoop namenode -format

9:启动hdfs,yarn

start-dfs.sh

start-yarn.sh

10:验证启动是否成功

jps

如果显示如下6个进程,则启动成功

53244 ResourceManager

53083 SecondaryNameNode

52928 DataNode

53640 Jps

52810 NameNode

53348 NodeManager

五、运行自带的wordcount例子

hadoop fs -mkdir /tmp

hadoop fs -mkdir /tmp/input

hadoop fs -put /usr/hadoop/test.txt /tmp/input

cd /data/hadoop/hadoop2/share/hadoop/mapreduce

hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount /tmp/input /tmp/output

如果能正确运行,则hadoop安装配置正确

 

 

六、附录1:

设置的环境变量(/etc/profile,编辑后运行source /etc/profile/ 使配置生效)

#java set

export JAVA_HOME=/usr/java/jdk1.6.0_43

export JRE_HOME=/usr/java/jdk1.6.0_43/jre

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

 

#maven set

export M2_HOME=/home/soft/maven

export PATH=$PATH:$M2_HOME/bin

 

#ant

export ANT_HOME=/home/soft/apache-ant-1.9.3

export PATH=$PATH:$ANT_HOME/bin

 

#findbugs

export FINDBUGS_HOME=/home/soft/findbugs-2.0.2

export PATH=$PATH:$FINDBUGS_HOME/bin

 

   附录2:core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml的文件内容

core-site.xml内容:

<configuration>

   <property>

<name>fs.defaultFS</name>

<value>hdfs://vdata.kt:8020</value>

   </property>

</configuration>

 

hdfs-site.xml内容:

<configuration>

   <property>

<name>dfs.name.dir</name>

<value>/data/hadoop/namenode</value>

   </property>

   <property>

<name>dfs.data.dir</name>

<value>/data/hadoop/hdfs</value>

   </property>

   <property>

<name>dfs.replication</name>

<value>1</value>

   </property>  

   <property>

<name>dfs.permissions</name>

<value>false</value>

   </property>

</configuration>

 

mapred-site.xml内容:

<configuration>

   <property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

   </property> 

</configuration>

 

yarn-site.xml内容:

<configuration>

   <property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

    </property>

</configuration>

 

分享到:
评论

相关推荐

    Hadoop 2.2.0 64位native文件(重编译)

    在Hadoop的源代码中,native库主要是由C++编写的,提供了与Java层交互的关键功能,尤其是涉及到性能敏感的部分,如I/O操作、内存管理和硬件优化。 Hadoop的native库包括以下组件: 1. **JNI接口**:Java Native ...

    hadoop2.2.0的64位安装包

    总结来说,安装64位的Hadoop 2.2.0涉及下载源代码、配置编译环境、编译源代码、安装和配置Hadoop以及启动服务。这个过程对于理解和掌握Hadoop的工作原理非常有帮助,同时也能确保在64位Linux系统上顺利运行大数据...

    hadoop 2.2.0 64位版_part2

    hadoop 2.2.0的64位linux版。由于官网提供的hadoop2.2.0 lib/native下的.so均为32位版本,因此用源代码编译了适合64位linux的版本。本人在生产环境下即是用该版本。

    hadoop 2.2.0 64位版_part1

    hadoop 2.2.0的64位linux版。由于官网提供的hadoop2.2.0 lib/native下的.so均为32位版本,因此用源代码编译了适合64位linux的版本。本人在生产环境下即是用该版本。

    如何在Windows下的eclipse调试Hadoop2.2.0分布式集群

    `build.xml`文件通常是Ant构建工具的配置文件,用于编译和打包Java源代码。在Eclipse中,你可以利用Ant插件,通过执行`build.xml`中的任务来构建JAR文件,这个JAR文件将包含你的MapReduce程序。 6. **调试设置**:...

    hadoop2.2.0 native

    描述中提到“已编译过的本地库”,意味着这些库文件已经完成了编译过程,可以直接在64位Linux环境中使用,无需用户自行编译源代码。这简化了安装步骤,但同时也提醒用户在升级或替换这些库时,最好先备份原有的库...

    hadoop-2.2.0-x64.tar.gz

    - `src`:源代码,供开发者查阅或编译。 安装Hadoop 2.2.0的步骤大致如下: 1. 将"hadoop-2.2.0-x64.tar.gz"解压到Linux服务器的适当位置。 2. 配置环境变量,如`HADOOP_HOME`,并将`bin`目录添加到`PATH`中。 3. ...

    hadoop-common-2.2.0-bin

    在压缩包 "hadoop-common-2.2.0-bin-master" 中,"master"可能表示这是源代码的主分支,包含了所有Hadoop Common的源代码,这对于开发者来说非常有价值,因为他们可以直接查看和修改代码,了解其工作原理,并根据...

    ubuntu12.04上hadoop2编译64位

    下载Hadoop 2.2.0的源代码: - 从http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-2.2.0/下载hadoop-2.2.0-src.tar.gz - 解压缩:`tar –zxvf hadoop-2.2.0-src.tar.gz` 7. **编译64位Hadoop**: - 进入...

    spring-data-hadoop-2.2.0.RELEASE(含源码)

    - `spring-data-hadoop-2.2.0.RELEASE-sources.jar`:提供源代码,便于开发者查看和学习Spring Data Hadoop的实现细节,包括各种抽象类、接口和工具类。 4. **应用场景**: - 大数据分析:Spring Data Hadoop可以...

    Hadoop-2.2.0源码包

    - 直接查看和调试源代码,了解Hadoop内部工作原理。 - 自定义Hadoop组件,以满足特定的业务需求。 - 学习如何使用Hadoop API编写MapReduce程序。 - 跟踪和解决Hadoop在运行时遇到的问题。 总之,Hadoop-2.2.0源码包...

    Spark编译与部署(中)--Hadoop编译安装

    ###### 1.2.1 下载Hadoop源代码Release 2.2.0 访问Hadoop官网或Apache仓库下载指定版本的源码包。 ```bash wget http://archive.apache.org/dist/hadoop/common/hadoop-2.2.0/hadoop-2.2.0-src.tar.gz tar -zxvf ...

    Hadoop2.4.1上自编译安装HBase0.98.5

    1. 下载源代码:从Apache官网的镜像站点下载HBase 0.98.5的源码包,例如:http://mirror.bit.edu.cn/apache/hbase/stable/hbase-0.98.5-src.tar.gz,并将其解压至指定目录,如/home/Hadoop/hd_home/hd_tools/。...

    hadoop-2.2编译安装详解

    - 解压缩Hadoop 2.2.0的源代码包。 - 切换到源代码目录,配置编译环境,例如:`mvn clean package -Pdist,native -DskipTests -Dtar`。 - 编译完成后,将编译生成的Hadoop二进制包部署到所有节点上。 10. **配置...

    kettle5.3连接hdfs、hbase、kettle5.2源码编译

    2. 克隆 Kettle 5.2 的源代码仓库。 3. 使用 Maven 进行编译,通常会执行 `mvn clean install` 命令。 4. 编译过程中可能会遇到依赖问题,根据错误信息解决缺失的依赖。 5. 编译完成后,生成的可执行文件通常位于 `...

    hadoop-common-2.2.0-bin.zip

    4. winutils.pdb:这是程序数据库文件,通常用于调试目的,记录了winutils.exe的源代码行号、变量信息等,帮助开发者在出现问题时定位错误。 5. hadoop.pdb:同样,这个文件对应于hadoop.dll的调试信息,有助于在...

    Spark+Hadoop+IDE环境搭建

    1. **Hadoop作为数据源**:Spark可以通过Hadoop的API读取HDFS上的数据,使用`sc.textFile()`等方法。 2. **配置Hadoop依赖**:在Spark应用中,需要包含Hadoop的相关jar包,确保Spark能与Hadoop通信。 3. **使用Spark...

    Atlas2.2.0编译、安装及使用(集成ElasticSearch,导入Hive数据).doc

    安装过程可以分为两步:首先下载 Atlas2.2.0 的源代码,然后使用 Maven 编译和打包 Atlas2.2.0。 Atlas2.2.0 的配置 Atlas2.2.0 的配置主要包括两个部分:元数据管理层的配置和数据访问层的配置。元数据管理层的...

    hadoop单节点安装.pdf

    将示例程序的源代码放到Hadoop的src目录下,编译并运行。一旦程序完成,你可以在HDFS上查看结果文件,确认WordCount统计正确无误。 总结来说,这个过程涵盖了从环境准备、基础安装、Hadoop的下载与配置,到最后的...

    hadoop-common-2.2.0-bin-master.zip

    在这个名为“hadoop-common-2.2.0-bin-master.zip”的压缩包中,包含了Hadoop Common的2.2.0版本的源码及其编译后的二进制文件,是学习和使用Hadoop不可或缺的部分。本篇将深入探讨Hadoop Common的关键特性、主要...

Global site tag (gtag.js) - Google Analytics