1、软件环境:
Eclipse:Indigo Service Release 1
Hadoop:Hadoop 0.20.203
2、设置系统环境变量
JAVA_HOME = C:\Program Files\Java\jdk1.6.0_25
ANT_HOME = D:\apache-ant-1.8.2
M2_HOME = D:\apache-maven-2.2.1
Path = %M2_HOME%\bin;%ANT_HOME%\bin
classpath = .;%JAVA_HOME%\lib\dt.jar
3、新建Java Project,把hadoop-0.20.203.0\src下面的core、hdfs和mapred三个文件夹拷贝到Eclipse src目录
4、在Eclipse下新建lib文件夹,并把hadoop-0.20.203.0\lib和hadoop-0.20.203.0\lib\jsp-2.1中的所有jar包拷贝到此目录,把ant jar包也拷贝到此目录
5、新建conf目录,把自定义hadoop配置文件(core-site.xml/hdfs-site.xml/mapred-site.xml/hadoop-env.sh/masters/slaves)以及hadoop-0.20.203.0\webapps拷贝到此目录
6、把hadoop-0.20.203.0\src\webapps拷贝到Eclipse JSP目录下
7、编写build.xml
<?xml version="1.0"?>
<project name="hadoop-0.20.203" default="compile-all">
<property name="basedir" value="." />
<property name="lib.dir" location="${basedir}/lib" />
<property name="build.classes" location="${basedir}/build" />
<property name="javac.debug" value="on" />
<property name="javac.optimize" value="on" />
<property name="javac.deprecation" value="off" />
<property name="javac.version" value="1.6" />
<property name="javac.args" value="-Xlint:unchecked" />
<property name="javac.encoding" value="UTF-8" />
<property name="src" value="${basedir}/src" />
<!--<property name="hdfs.src" value="${basedir}/hdfs" />-->
<property name="release.dir" value="${basedir}/release" />
<property name="config.dir" value="${basedir}/conf" />
<!--<property name="cmd.dir" value="${basedir}/cmd" />
<property name="jre.dir" value="${cmd.dir}/jre" />-->
<property name="jsp.path" value="${basedir}/webapps" />
<property name="webapps.path" value="${basedir}/conf/webapps" />
<property name="servlet.path" location="${jsp.path}/src" />
<!--<property name="jre.version" value="1.6.0_21" />-->
<path id="classpath">
<fileset dir="${lib.dir}" id="libdir">
<include name="**/*.jar" />
<include name="**/*.zip" />
<exclude name="**/excluded/" />
</fileset>
</path>
<target name="init">
<mkdir dir="${build.classes}" />
<mkdir dir="${release.dir}" />
<mkdir dir="${servlet.path}" />
</target>
<target name="clean_build_dir">
<delete dir="${build.classes}" />
<delete dir="${release.dir}" />
<delete dir="${servlet.path}" />
</target>
<target name="clean-all-and-compile-all"
depends="clean_build_dir,compile-all" />
<!--///////////////////////Compile Area - Start ////////////////////////-->
<target name="compile-all" depends="clean_build_dir,init,compile-jsp">
<macro_javac srcdir="${src}" destdir="${build.classes}" />
<macro_javac srcdir="${servlet.path}" destdir="${build.classes}" />
</target>
<!-- ====================================================== -->
<!-- Generate Install Package -->
<!-- ====================================================== -->
<target name="tar-install-32" depends="jar-all">
<macro_tar version="32" />
</target>
<target name="tar-install-64" depends="jar-all">
<macro_tar version="64" />
</target>
<target name="tar-install" depends="tar-install-32,tar-install-64" />
<!-- ====================================================== -->
<!-- Macro definitions -->
<!-- ====================================================== -->
<macrodef name="macro_tar" description="Worker Macro for tar">
<attribute name="version" />
<sequential>
<tar compression="gzip"
longfile="gnu"
destfile="${release.dir}/${ant.project.name}-@{version}.tar.gz">
<tarfileset dir="${release.dir}" mode="664" prefix="/${ant.project.name}/lib">
<include name="*.jar" />
</tarfileset>
<tarfileset dir="${config.dir}" mode="755" prefix="/${ant.project.name}/conf">
<include name="**/*" />
</tarfileset>
<tarfileset dir="${lib.dir}/" mode="755" prefix="/${ant.project.name}/lib">
<include name="**/*" />
</tarfileset>
<!--<tarfileset dir="${cmd.dir}"
prefix="/cfs/bin"
mode="777"
dirmode="777">
<include name="*" />
<exclude name="**/.svn" />
<exclude name="**/py" />
</tarfileset>
<tarfileset dir="${jre.dir}/linux@{version}/${jre.version}"
mode="777"
dirmode="777"
prefix="/cfs/jre">
<include name="**/*" />
</tarfileset>-->
</tar>
</sequential>
</macrodef>
<target name="compile-jsp">
<taskdef classname="org.apache.jasper.JspC" name="jsp-compile">
<classpath refid="classpath" />
</taskdef>
<jsp-compile uriroot="${jsp.path}/datanode"
outputdir="${servlet.path}"
package="org.apache.hadoop.hdfs.server.datanode"
webxml="${webapps.path}/datanode/WEB-INF/web.xml">
</jsp-compile>
<jsp-compile uriroot="${jsp.path}/hdfs"
outputdir="${servlet.path}"
package="org.apache.hadoop.hdfs.server.namenode"
webxml="${webapps.path}/hdfs/WEB-INF/web.xml">
</jsp-compile>
<jsp-compile uriroot="${jsp.path}/job"
outputdir="${servlet.path}"
package="org.apache.hadoop.mapred"
webxml="${webapps.path}/job/WEB-INF/web.xml">
</jsp-compile>
<jsp-compile uriroot="${jsp.path}/task"
outputdir="${servlet.path}"
package="org.apache.hadoop.mapred"
webxml="${webapps.path}/task/WEB-INF/web.xml">
</jsp-compile>
</target>
<!-- ====================================================== -->
<!-- Core jar -->
<!-- ====================================================== -->
<target name="jar-all" depends="compile-all" description="Make jar of cfs">
<jar jarfile="${release.dir}/${ant.project.name}.jar">
<manifest>
<section name="cn/com/cncloud">
<attribute name="Implementation-Title" value="${ant.project.name}" />
<attribute name="Implementation-Version" value="2" />
<attribute name="Implementation-Vendor" value="cncloud.com.cn" />
</section>
</manifest>
<fileset dir="${build.classes}">
<exclude name="src/**" />
</fileset>
</jar>
</target>
<macrodef name="macro_javac" description="Worker Macro for compile">
<attribute name="destdir" />
<attribute name="srcdir" />
<sequential>
<javac encoding="${javac.encoding}"
srcdir="@{srcdir}"
destdir="@{destdir}"
debug="${javac.debug}"
optimize="${javac.optimize}"
target="${javac.version}"
source="${javac.version}"
deprecation="${javac.deprecation}"
includes="**/*">
<compilerarg line="${javac.args}" />
<classpath refid="classpath" />
</javac>
<copy todir="@{destdir}">
<fileset dir="@{srcdir}">
<exclude name="**/*.java" />
</fileset>
</copy>
</sequential>
</macrodef>
</project>
8、首先ant下面的init,然后运行compile-jsp,接着把build目录下面的src目录设置成Use as a source folder,最后运行compile-all
- 大小: 103.8 KB
分享到:
相关推荐
hadoop-0.20.203.0的eclipse插件: hadoop-eclipse-plugin-0.20.203.jar
本文将详细介绍如何在三台虚拟机上安装配置Hadoop-0.20.205.0和HBase-0.90.5,包括单机模式和集群模式的安装配置流程。 #### 二、环境准备 首先,我们需要准备三台虚拟机,并安装CentOS-5.7操作系统。这三台虚拟机...
hadoop 0.20.203.0 api.chm ,自己手工制作的文档
hadoop-eclipse-plugin-0.20.203.0.jar hadoop集成eclipse插件
hadoop-core-0.20.203.0.jar
Hadoop 0.20.205.0 API 官方CHM版,根据Apache官方文档生成的chm版的文档,绝对原汁原味!
hadoop-eclipse-plugin-0.20.203.0 插件无法连接 问题,重新布到eclipse/plugin后启动eclipse需要 -clean一下
加入依赖的 class文件的hadoop eclipse插件,不会再出现异常,大家也可以DIY,网上有简单的教程,只收一个劳务分吧
为了从源码编译Hadoop 2.9.x,我们需要几个关键工具,包括Maven、ProtocolBuffer和FindBugs。以下是对这些工具的详细解释以及如何使用它们来编译Hadoop源码的知识点。 1. **Maven**:Maven是Java项目管理工具,它...
hadoop-eclipse-plugin-0.20.204.0包,非常好用
- 编辑 `/etc/profile.d/hadoop.sh` 文件,添加 Hadoop 的路径。 4. **配置 Hadoop 核心文件:** - 编辑 `core-site.xml` 和 `hdfs-site.xml` 配置文件。 5. **格式化 HDFS:** - 使用 `hdfs namenode -format`...
此外,还包含了“hadoop.dll”和“winutils.exe”,这两个文件是Windows环境下运行Hadoop所必需的,因为Hadoop主要设计在Unix-like系统上,所以在Windows上需要这些特殊的支持文件。 标签“eclipse”指的是Eclipse ...
总结,要在Windows 7上的Eclipse环境中调试Hadoop 2.x,你需要正确配置Java环境,安装Eclipse并设置Hadoop的开发环境,创建远程调试配置,以及处理Windows特有的`hadoop.dll`和`winutils.exe`文件。这个过程需要对...
Hadoop 2.X HDFS源码剖析-高清-完整目录-2016年3月,分享给所有需要的人!
自己整理生成了一套基于HADOOP2.8.2的插件,经测试可用,应该是全网第一个基于HADOOP2.8.2的ECLIPSE插件,我使用的环境JDK1.7 64位,MYECLIPSE2014 或 ECLIPSE4.4 下载包中有配置好的截图照片。
hadoop(0.20.205.0)的eclipse插件java版