- 浏览: 245995 次
-
文章分类
最新评论
0. 准备
(1)
需要有gcc、autoconf、automake来编译安装google的protocol buffer
http://code.google.com/p/protobuf/downloads/list
(2)
http://protobuf.googlecode.com/files/protobuf-2.4.1.tar.gz
./configure --prefix=/usr/local
make
make check
sudo make install
完成后,检验
$ protoc
Missing input file.
(3) JDK、ANT、Maven(MVN)
1. 在Eclipse中增加SVN插件
在help->install new software
添加
http://subclipse.tigris.org/update/
在window/Open Perspective中就会右SVN的视图
2. 导出代码(该trunk下面右多个project)
svn checkout http://svn.apache.org/repos/asf/hadoop/common/trunk/ hadoop-trunk
3. mvn: build the code to get it ready for importing into Eclipse.
cd haoop-trunk
$ mvn install -DskipTests
$ mvn eclipse:eclipse -DdownloadSources=true -DdownloadJavadocs=true
Note: This may take a while the first time,
as all libraries are fetched from the internet, and the whole build is performed
error:
Failed to execute goal org.codehaus.mojo:exec-maven-plugin:1.2:exec (compile-proto)
on project hadoop-common: Command execution failed. Cannot run program "protoc"
issue: install google's protocol buffer
4. In Eclipse
After the above, do the following to finally have projects in Eclipse ready and waiting for you to go on that scratch-itching development spree:
For Common
File -> Import...
Choose "Existing Projects into Workspace"
Select the hadoop-common-project directory as the root directory
Select the hadoop-annotations, hadoop-auth, hadoop-auth-examples and hadoop-common projects
Click "Finish"
File -> Import...
Choose "Existing Projects into Workspace"
Select the hadoop-assemblies directory as the root directory
Select the hadoop-assemblies project
Click "Finish"
To get the projects to build cleanly:
* Add target/generated-test-sources/java as a source directory for hadoop-common
* You may have to add then remove the JRE System Library to avoid errors due to access restrictions
For HDFS
File -> Import...
Choose "Existing Projects into Workspace"
Select the hadoop-hdfs-project directory as the root directory
Select the hadoop-hdfs project
Click "Finish"
For MapReduce
File -> Import...
Choose "Existing Projects into Workspace"
Select the hadoop-mapreduce-project directory as the root directory
Select the hadoop-mapreduce-project project
Click "Finish"
Note: in the case of MapReduce the testjar package is broken. This is expected since it is a part of a testcase that checks for incorrect packaging. This is not to be worried about.
To run tests from Eclipse you need to additionally do the following:
Under project Properties, select Java Build Path, and the Libraries tab
Click "Add External Class Folder" and select the build directory of the current project
发表评论
-
大数据方面的文章
2013-07-29 17:01 868http://bbs.e-works.net.cn/forum ... -
Apache Pig中文教程(进阶)
2013-05-13 17:18 1767引自http://www.codelast.com/?p=42 ... -
hadoop视频
2013-05-10 09:35 803http://pan.baidu.com/share/li ... -
Apache Pig的一些基础概念及用法总结(1
2013-05-08 16:01 1107引自http://www.codelast.com/?p=3 ... -
hadoop动态增加删除节点
2013-04-28 09:54 1191在master的conf/hdfs-site.xml中加入 ... -
hadoop 比较好的博客
2013-04-27 17:35 733http://dongxicheng.org 好的书 h ... -
Hadoop错误一的解决猜测
2013-04-26 10:29 843如果出现:java.lang.NullPointerExc ... -
Reduce作业运行时错误:Too many fetch-failures
2013-04-24 21:19 5794root@ubuntu:/usr/local/hadoop# ... -
MultipleOutputFormat和MultipleOutputs
2013-01-04 17:26 991引自http://www.cnblogs.com/liangz ... -
hadoop各种输入方法(InputFormat)汇总
2013-01-04 17:02 1424引自http://www.blogjava.net/shenh ... -
Hadoop运行报错: java.lang.ClassNotFoundException解决方法
2012-12-27 16:44 12812在创建自定义的Mapper时候,编译正确,但上传到集群执 ... -
hadoop-1.1.0 rpm + centos 6.3 64 + JDK7 搭建全分布式集群的方法
2012-12-22 20:45 1257引自 http://blog.csdn.net/ireland ... -
HADOOP中DATANODE无法启动
2012-12-22 20:43 963摘要:该文档解决了多次格式化文件系统后,datanode ... -
Hadoop HDFS 编程
2012-12-18 17:38 878引自http://blog.csdn.net/lmc ... -
HDFS之SequenceFile和MapFile
2012-12-17 11:37 955引自http://blog.csdn.net/javam ... -
Hadoop -【IO专题-序列化机制】
2012-12-17 10:32 1095引自http://blog.sina.com.cn/s/ ... -
hadoop问题Type mismatch in value from map解决方法
2012-12-13 10:49 874hadoop问题Type mismatch in ... -
hadoop hbase svn site
2012-12-13 10:49 1000hadoop hbase svn site ... -
hadoop项目svn地址
2012-12-11 18:11 1060http://svn.apache.org/repos/asf ... -
Hadoop实例WordCount程序一步一步运行
2012-12-11 16:32 1010虽说现在用Eclipse下开发Hadoop程序很方便了,但是命 ...
相关推荐
在IT行业中,Eclipse是一款广泛使用的Java集成开发环境(IDE),而Hadoop是Apache软件基金会开源的大数据处理框架。为了在Eclipse中进行Hadoop相关的开发工作,我们需要配置特定的环境和工具。以下是对"eclipse连接...
首先,需要安装 Eclipse 3.3.2 和 Hadoop 0.20.2-eclipse-plugin.jar 插件,插件可以在 Hadoop 0.20.2/contrib/eclipse-plugin 目录下找到。将插件复制到 Eclipse/plugins 目录下,重启 Eclipse。 二、打开 ...
本文将详细介绍如何在Eclipse中配置Hadoop插件,包括安装插件、配置MapReduce环境、使用Eclipse对HDFS内容进行修改、创建MapReduce工程、在Eclipse中运行WordCount程序等步骤。 一、安装插件 要在Eclipse中配置...
本文将详细讲解如何在CentOS 6.5操作系统上配置Hadoop-eclipse插件,以便在Eclipse环境中进行Hadoop项目的开发和调试。 首先,我们需要在Eclipse中安装Hadoop-eclipse插件。这个插件使得开发者可以直接在Eclipse中...
在本主题中,我们将深入探讨如何使用Eclipse IDE(版本4.2,也称为Juno)来编译Hadoop 1.0.3项目。Eclipse是一款强大的Java开发工具,而Hadoop则是一个分布式计算框架,广泛应用于大数据处理。通过集成Eclipse的插件...
在编写MapReduce程序时,可以方便地导入Hadoop库,编写Mapper和Reducer类,同时,Eclipse会提供语法高亮和代码补全功能。 五、运行与调试 1. 运行MapReduce任务:在项目中右键选择"Run As" -> "Hadoop Job",...
7. **文件名称列表"eclipse开发hadoop项目相关插件"**:这个文件可能包含了Eclipse中用于开发Hadoop项目的插件安装包或者相关配置文件,用户需要将其解压并按照上述步骤进行安装或导入到Eclipse中。 总之,通过上述...
标题 "eclipse 运行hadoop工具包" 涉及到的是在Eclipse集成开发环境中运行Hadoop项目的方法。Eclipse是一款广泛使用的Java IDE,而Hadoop是Apache开源项目,主要用于大数据处理和分析。通过特定的插件,Eclipse能够...
Eclipse Hadoop2.7插件是专门为Java开发者设计的一款工具,它允许用户在流行的集成开发环境(IDE)Eclipse中直接进行Hadoop项目的开发、调试和管理。这个插件极大地简化了Hadoop应用程序的创建过程,使得开发人员...
- 使用Eclipse创建Java项目,导入Hadoop的相关库,如`hadoop-core.jar`和`hadoop-client.jar`。 - 编写MapReduce程序,实现Mapper和Reducer类,以及Job配置。 - 调试代码,利用Eclipse的调试工具查看执行流程,...
Hadoop Eclipse是Hadoop开发环境的插件,用户在创建Hadoop程序时,Eclipse插件会自动导入Hadoop编程接口的jar文件,这样用户就可以在Eclipse插件的图形界面中进行编码、调试和运行Hadop程序,也能通过Eclipse插件...
- `hadoop-mapreduce`:MapReduce的实现,包括JobTracker(在YARN中已被ResourceManager替代)、TaskTracker(被NodeManager替代)以及相关的 Shuffle和Sort过程。 通过对这些源码的深入研究,你不仅可以掌握Hadoop...
总之,要在Windows下的Eclipse环境中成功运行MapReduce程序,关键在于正确配置Hadoop环境,导入所有必要的jar包,并理解如何设置和提交MapReduce作业。这个过程可能需要一些时间和实践,但一旦配置完成,将为高效...
然后是Hive,它是基于Hadoop的数据仓库工具,允许用户使用SQL(HiveQL)对存储在Hadoop中的大型数据集进行数据查询和分析。Hive将SQL语句转换为MapReduce任务在Hadoop集群上执行。 集成Eclipse与这些组件的步骤如下...
Hadoop2.7.1源码(可直接导入Eclipse)
3. **导入项目**:在Eclipse中导入Hadoop源码工程。 4. **编译插件**:使用Maven的`mvn install`命令来编译整个项目,这将生成一个可部署到Eclipse的插件。 5. **安装插件**:将生成的插件文件复制到Eclipse的插件...
此时,Eclipse 应该能够连接到 Hadoop,并在 `Project Explorer` 面板中显示 HDFS 的目录和文件结构。 **2.4 解决权限问题** - 如果首次尝试删除文件失败,提示权限不足等问题,可以通过修改 `hdfs-site.xml` 文件...
3. **创建Hadoop项目**:在Eclipse的“文件”菜单中选择“新建” -> “其他”,在弹出的对话框中找到Hadoop相关选项,创建Hadoop MapReduce项目。 4. **编写MapReduce代码**:在创建的项目中,编写MapReduce程序,...
为了在Eclipse中方便地开发、测试和调试Hadoop项目,开发者通常需要安装特定的Hadoop插件。本压缩包提供的是针对Eclipse连接Hadoop的不同版本插件,适用于不同版本的Eclipse,因为每个Eclipse版本可能需要兼容的插件...