1,准备好环境
首现操作系统最好还是LINUX,WINDOWS上搞起来太麻烦
JDK1.5必须的,最好JDK1.6也准备好。以备版本升级的时候需要用
svn 1.5版本的或者以上的
eclipse http://www.eclipse.org/ 上下载 ||| eclipse的svn插件
ant http://ant.apache.org/ 下载
ivy http://ant.apache.org/ivy/ 下载,下载完后放在 ant的lib目录下,因为ivy是ant的一个子工程
forrest http://forrest.apache.org/mirrors.cgi#how
用于编译生成文档的类库
准备好以上环境,就差不多了。
2,下载源代码
注意存放目录:
比方我的目录结构是
/home/txy/work/hadoop (存放common)
/home/txy/work/hadoop/hdfs (存放hdfs)
/home/txy/work/hadoop/mapred (存放mapred)
可以执行以下命令:
cd /home/txy/work
svn co http://svn.apache.org/repos/asf/hadoop/common/trunk hadoop
cd /home/txy/work/hadoop/
svn co http://svn.apache.org/repos/asf/hadoop/hdfs/trunk/ hdfs
cd /home/txy/work/hadoop/
svn co http://svn.apache.org/repos/asf/hadoop/mapreduce/trunk
mapred
为什么要这样的目录结构呢?原因具体可以看hadoop/bin/hadoop-config.sh,看懂了之后当然也可以随意修改路径了
3,编译源代码,并发布到maven 的本地库
分别进入到上面三个目录中,进行编译:
cd /home/txy/work/hadoop/
ant package -Djava5.home=/home/txy/software/jdk1.5.0_07 -Dforrest.home=/home/txy/software/apache-forrest-0.8
cd /home/txy/work/hadoop/hdfs/
ant package -Djava5.home=/home/txy/software/jdk1.5.0_07 -Dforrest.home=/home/txy/software/apache-forrest-0.8
cd /home/txy/work/hadoop/
mapred
/
ant package -Djava5.home=/home/txy/software/jdk1.5.0_07 -Dforrest.home=/home/txy/software/apache-forrest-0.8
这里的java5.home 和 forrest.home随各自电脑上安装的实际路径为准。
发布到本地maven 库在以上各目录中执行:
ant mvn-install 就可以了,那么我们写 程序的时候就可以用maven把这个库引进来了。
4,导入eclipse
方法一:
创建eclipse工程在创建之前,现设置:project --》build Automaticaly 勾掉,不要让它自动build
new --》java project --》create project from existing source--》 选择CO下来的目录 --》finish
导入之后,右键各工程的build.xml --》 build...--》
如果build common: use the eclipse-files and compile-core-test targets
如果build hdfs: use the targets compile, compile-hdfs-test, and eclipse-files
如果build MapRedues, use the targets compile, compile-mapreduce-test, and eclipse-files
方法二:
命令行 ant eclipse-files执行就可以了,然后eclipse中File-->import-->exsiting projects into workspace就可以了,不过建议还是不要build Automaticaly,要不然太麻烦了。
这样源代码就导入进来了,可以查看和修改了。
以上内容也可以参见:http://wiki.apache.org/hadoop/EclipseEnvironment
开发mapReduce程序的eclipse插件:
这个eclipse插件编译的问题还是没搞定,纠结中,看了官方网站是说:
首先在家目录下添加
eclipse-plugin.build.properties
在文件中写入:eclipse.home=/path/to/eclipse
然后再执行ant package就会编译生成 eclipse插件了。
但事实上会报错。。。用官方网站上已经编译好的插件,版本又和主干对不上的。
自己在机器上跑了下,还是不用hadoop插件了,主要配置正确,启动个hadoop就可以了。
分享到:
相关推荐
2. **导入Hadoop项目**:将现有的Hadoop MapReduce项目导入Eclipse工作空间,便于管理和维护。 3. **编辑和编译源码**:利用Eclipse强大的代码编辑和调试功能,高效地编写和测试MapReduce代码。 4. **运行和调试作业...
本篇将详细介绍如何编译Zookeeper源代码并导入Eclipse进行开发。 首先,你需要准备以下环境: 1. Java Development Kit (JDK):确保安装了JDK 8或以上版本,因为Zookeeper源代码需要Java 8或更高版本来编译。 2. ...
总的来说,编译Hadoop 2.2的Eclipse插件是一个涉及环境配置、源码编译、插件安装和测试的过程。熟悉这些步骤将有助于提升Hadoop开发者的工作效率,让他们在Eclipse中更加流畅地进行大数据应用的开发。
3. **下载Hadoop源码包**:访问Hadoop官网或GitHub下载最新的Hadoop源代码包。 4. **安装Eclipse**:根据个人需求选择合适的Eclipse版本进行安装。 #### 三、编译过程 ##### 1. 导入项目 - 将`src/contrib/...
4. **构建与编译**:Hadoop源码使用Maven进行构建和管理依赖。通过查看`pom.xml`文件,我们可以了解项目结构和依赖关系。要编译源码,需要熟悉Maven命令,如`mvn clean install`,这会生成可执行的二进制文件。 5. ...
3. **源码编译**:使用未配置的源码包意味着开发者需要自行配置构建环境,包括设置正确的Java版本、添加依赖库、配置构建工具(如Maven或Ant)等,然后通过执行构建脚本(通常是mvn install或ant build)生成可执行...
Eclipse是一个开放源码的Java集成开发环境,适用于各种类型的应用程序开发,包括Hadoop。推荐使用Java开发工具集(JDT)版本的Eclipse,因为Hadoop主要是用Java编写的。 接下来,我们需要为Eclipse安装Hadoop相关的...
3. **编译Hadoop**:使用Maven进行编译,执行`mvn clean install`命令。这个过程会编译源代码,生成可执行的JAR文件。注意,这个过程中可能会遇到依赖问题,需要根据错误提示解决。 4. **Eclipse插件集成**:Hadoop...
### CentOS7 下安装 Eclipse 并编译 Hadoop2.x 的详细步骤 #### 一、准备工作:安装 CentOS7 为了在 CentOS7 操作系统下搭建 Hadoop2.x 的编译环境,我们首先需要通过 VMware 虚拟机安装 CentOS7。 **步骤如下:*...
- 导入源码:在Eclipse中选择“File” -> “Import”,然后选择“Existing Projects into Workspace”,导入下载的源码。 3. **编译插件**: - 配置构建路径:确保所有依赖库已添加到项目的构建路径中,这可能...
3. **导入项目**:在Eclipse中导入Hadoop源码工程。 4. **编译插件**:使用Maven的`mvn install`命令来编译整个项目,这将生成一个可部署到Eclipse的插件。 5. **安装插件**:将生成的插件文件复制到Eclipse的插件...
在Windows 7操作系统中,使用Eclipse开发Hadoop应用程序的过程涉及多个步骤,涵盖了从环境配置到实际编程的各个层面。以下是对这个主题的详细讲解: 首先,我们需要了解Hadoop和Eclipse的基础。Hadoop是一个开源的...
为了编译Flume源码,打开命令行,导航至Flume源码根目录,然后运行`mvn clean install`命令。这个过程会下载所有依赖库,编译源代码,并将编译后的JAR文件放置到`target`目录下。如果编译过程中没有错误,这意味着源...