参考:
http://hadoop.hadoopor.com/thread-941-1-1.html
http://trac.nchc.org.tw/cloud/wiki/waue/2010/0211
可能有时候因为eclipse版本或者操作系统版本的问题使得hadoop 提供的 eclipse plugin不太好用。可以自己生成
1.修改$HADOOP_HOME/src/contrib/build-contrib.xml
增加一行:<property name="eclipse.home" location="/home/gushui/eclipse"/>
上句后面的/home/gushui/eclipse由自己的$ECLIPSE_HOME代替
2.修改 $HADOOP_HOME/src/contrib/eclipse-plugin/src/java/org/apache/hadoop/eclipse/launch/HadoopApplicationLaunchShortcut.java
注释掉原来的//import org.eclipse.jdt.internal.debug.ui.launcher.JavaApplicationLaunchShortcut;
改为import org.eclipse.jdt.debug.ui.launchConfigurations.JavaApplicationLaunchShortcut;
3.执行:
cd $HADOOP_HOME
ant compile
ln -sf $HADOOP_HOME/docs $HADOOP_HOME/build/docs
ant package
4.在执行最后一句的时候会遇到问题:build.xml:908: 'java5.home' is not defined. Forrest requires Java 5. Please pass -Djava5.home=<base 5="" distribution> to Ant on the command-line.
说没有define java5的home目录,因为我装的是java6
去下一个java5: sudo apt-get install sun-java5-jdk
再去下一个apache-forrest-0.8:
http://forrest.apache.org/mirrors.cgi For UNIX operating systems: apache-forrest-0.8.tar.gz
解压后,(如我放在 /home/gushui/src/apache-forrest-0.8)
则重新执行命令:ant package -Djava5.home=/usr/lib/jvm/java-1.5.0-sun-1.5.0.19 -Dforrest.home=/home/gushui/src/apache-forrest-0.8
注意上面的java5路径和apache-forrest路径要根据你自己的安装路径而设定
ok,应该会在$HADOOP_HOME/build/contrib/eclipse-plugin/hadoop-0.20.3-dev-eclipse-plugin.jar
修改名字为hadoop-0.20.2-eclipse-plugin.jar,搞定。至于为什么要修改我也不太清楚,版本本身是0.20.2的,它却跳出来0.20.3。
5.注意几点:
(1)把这个jar包放到eclipse 的plugins目录下。重启eclipse。我的貌似不行,用了最笨的办法,把eclipse删掉再重新解压tar文件重装,后面可以了
(2)zz,我的也是这样:
如果你的eclipse 的 run as -> run on hadoop 功能按了還是沒有反應的話,請先執行 run as -> java application ,再 run as -> run on hadoop 就可以了
分享到:
相关推荐
1. **直接在Eclipse中创建Hadoop项目**:无需手动配置复杂的环境,只需几步操作即可生成符合Hadoop运行规范的项目结构。 2. **可视化集群管理**:查看和管理Hadoop集群的节点状态,包括数据节点、任务节点等,方便...
1. **项目创建**:在Eclipse中创建Hadoop项目,自动生成MapReduce项目的结构,包括输入、输出目录以及Mapper和Reducer类模板。 2. **资源管理**:插件提供了对Hadoop集群资源(如HDFS文件)的管理,可以直接在IDE中...
1. **项目创建与管理**:用户可以在Eclipse中直接创建Hadoop MapReduce项目,插件会自动生成必要的项目结构和模板代码,便于快速入门。 2. **资源管理**:插件允许用户浏览和管理HDFS(Hadoop Distributed File ...
《Hadoop Eclipse Plugin详解及其2.7.7版本的使用》 Hadoop Eclipse Plugin是一款强大的...在实际应用中,开发者可以根据自己的需求和Hadoop集群的版本选择合适的Hadoop Eclipse Plugin版本,以实现最佳的开发效果。
《Hadoop Eclipse Plugin 2.2.0:整合Hadoop与Eclipse的开发利器》 在大数据处理领域,Hadoop作为开源的分布式计算框架,扮演着至关重要的角色。而Eclipse,作为Java开发者广泛使用的集成开发环境(IDE),提供了...
找不到与hadoop-2.9.2版本对应的插件,手动生成的hadoop-eclipse-plugin-2.9.2版本,
本篇文章将深入探讨如何生成`hadoop-eclipse-plugin-2.x`插件工具代码,以及这个过程涉及到的相关知识点。 首先,我们来看标题中的`生成 hadoop-eclipse-plugin-2.x 插件工具代码`。这意味着我们需要构建一个适用于...
Eclipse是一款广泛使用的Java集成开发环境(IDE),而`hadoop-eclipse-plugin`就是专门为Eclipse设计的插件,旨在简化Hadoop MapReduce应用的开发和调试过程。 这个名为"hadoop-eclipse-plugin-2.6.0.rar"的压缩...
jar包是基于 hadoop 2.8.2 版本编译生成的,需要将jar放到eclipse中的plugins文件夹中
《Hadoop Eclipse Plugin 2.7.3:构建与运行Hadoop项目的新助力》 Hadoop Eclipse Plugin 2.7.3.jar 是一个强大的开发工具,它为Java开发者提供了在Eclipse集成开发环境中直接操作Hadoop项目的可能性。这个插件是专...
《Hadoop Eclipse Plugin 1.0.3:开启大数据开发之旅》 在现代信息技术领域,Hadoop已经成为大数据处理的核心框架之一。它以其分布式、容错性以及可扩展性等特点,吸引了众多企业和开发者投身其中。而Hadoop ...
《Hadoop Eclipse Plugin 2.7.5:集成开发环境的利器》 Hadoop Eclipse Plugin 2.7.5是一款专为Eclipse设计的插件,它为开发人员提供了一个直观且高效的工具,用于在Hadoop集群上创建、编辑、运行和管理MapReduce...
3. **编写MapReduce程序**:使用Hadoop Eclipse Plugin,开发者可以直接在Eclipse中编写Java代码实现Mapper和Reducer类,同时可以利用内置的模板快速生成基础结构。 4. **运行与调试**:在完成代码编写后,通过右键...
"hadoop-eclipse-plugin"就是这样一个工具,它是Eclipse的一个插件,允许开发者在Eclipse环境中直接操作Hadoop集群,进行MapReduce程序的开发、调试和部署。 首先,我们需要了解Hadoop的基本概念。Hadoop由两个主要...
Hadoop-Eclipse-Plugin是Apache Hadoop项目的一个插件,专为Eclipse集成开发环境设计,使得开发者可以在Eclipse中直接编写、调试和运行Hadoop MapReduce程序。这个压缩包包含的是1.0.0版本的插件,并且提供了5个不同...
hadoop-eclipse-plugin-2.9.0,自己生成的,jdk1.8,win10 可用。
插件会自动生成Hadoop配置文件,如`job.xml`,并提供运行和调试作业的功能。 总之,Hadoop Eclipse插件是Hadoop开发者不可或缺的工具,它简化了在Eclipse中的开发流程,通过环境变量`HADOOP_USER_NAME`的正确设置和...
1. **下载插件**:你提到的压缩包文件名为"hadoop2x-eclipse-plugin",这通常包含适用于Hadoop 2.x版本的Eclipse插件。下载并解压缩这个文件,确保你能够找到一个jar文件,这是插件的主要部分。 2. **放置插件**:...
Hadoop-2.8.3-Eclipse-Plugin插件包是专为开发人员设计的一款工具,旨在简化Hadoop生态系统在Eclipse或MyEclipse集成开发环境(IDE)中的使用。这款插件允许开发者直接在IDE内创建、调试和管理Hadoop项目,极大地...
这是用hadoop官方源码生成的hadoop用在windows环境下eclipse 的插件。更新了最新的jar包文件。与资源。