`

windows7+eclipse+hadoop2.5.2环境配置(转)

阅读更多
转自:http://www.cnblogs.com/huligong1234/p/4137133.html

windows7+eclipse+hadoop2.5.2环境配置




一.hadoop集群环境配置
参考我的前一篇文章(ubuntu + hadoop2.5.2分布式环境配置 http://www.cnblogs.com/huligong1234/p/4136331.html)


但本人配置时还修改了如下内容(由于你的环境和我的可能不一致,可以在后面出现相关问题后再进行修改):
a.在master节点上(ubuntu-V01)修改hdfs-site.xml加上以下内容
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>

旨在取消权限检查,原因是为了解决我在windows机器上配置eclipse连接hadoop服务器时,配置map/reduce连接后报以下错误,org.apache.hadoop.security.AccessControlException: Permission denied:


b.同样在master节点上(ubuntu-V01)修改hdfs-site.xml加上以下内容
<property>
<name>dfs.web.ugi</name>
<value>jack,supergroup</value>
</property>

原因是运行时,报如下错误 WARN org.apache.hadoop.security.ShellBasedUnixGroupsMapping: got exception trying to get groups for user jack
应该是我的windows的用户名为jack,无访问权限
更多权限配置可参看官方说明文档:
HDFS权限管理用户指南http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_permissions_guide.html

配置修改完后重启hadoop集群:
hadoop@ubuntu-V01:~/data$./sbin/stop-dfs.sh
hadoop@ubuntu-V01:~/data$./sbin/stop-yarn.sh
hadoop@ubuntu-V01:~/data$./sbin/start-dfs.sh
hadoop@ubuntu-V01:~/data$./sbin/start-yarn.sh


二.windows基础环境准备
windows7(x64),jdk,ant,eclipse,hadoop

1.jdk环境配置
jdk-6u26-windows-i586.exe安装后好后配置相关JAVA_HOME环境变量,并将bin目录配置到path

2.eclipse环境配置
eclipse-standard-luna-SR1-win32.zip解压到D:\eclipse\目录下并命名eclipse-hadoop
下载地址:http://developer.eclipsesource.com/technology/epp/luna/eclipse-standard-luna-SR1-win32.zip
3.ant环境配置
apache-ant-1.9.4-bin.zip解压到D:\apache\目录下,配置环境变量ANT_HOME,并将bin目录配置到path
下载地址:http://mirror.bit.edu.cn/apache//ant/binaries/apache-ant-1.9.4-bin.zip

4.下载hadoop-2.5.2.tar.gz
http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.5.2/hadoop-2.5.2.tar.gz

5.下载hadoop-2.5.2-src.tar.gz
http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.5.2/hadoop-2.5.2-src.tar.gz

6.下载hadoop2x-eclipse-plugin
https://github.com/winghc/hadoop2x-eclipse-plugin

7.下载hadoop-common-2.2.0-bin
https://github.com/srccodes/hadoop-common-2.2.0-bin

分别将hadoop-2.5.2.tar.gz、hadoop-2.5.2-src.tar.gz、hadoop2x-eclipse-plugin、hadoop-common-2.2.0-bin下载解压到F:\hadoop\目录下


8.修改本地hosts文件,加入如下内容:
192.168.1.112 ubuntu-V01

三、编译hadoop-eclipse-plugin-2.5.2.jar配置
1.添加环境变量HADOOP_HOME=F:\hadoop\hadoop-2.5.2\
追加环境变量path内容:%HADOOP_HOME%/bin

2.修改编译包及依赖包版本信息
修改F:\hadoop\hadoop2x-eclipse-plugin-master\ivy\libraries.properties
hadoop.version=2.5.2
jackson.version=1.9.13

3.ant编译
F:\hadoop\hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin>
ant jar -Dversion=2.5.2 -Declipse.home=D:\eclipse\eclipse-hadoop\eclipse -Dhadoop.home=F:\hadoop\hadoop-2.5.2

编译好后hadoop-eclipse-plugin-2.5.2.jar会在F:\hadoop\hadoop2x-eclipse-plugin-master\build\contrib\eclipse-plugin目录下


四、eclipse环境配置
1.将编译好的hadoop-eclipse-plugin-2.5.2.jar拷贝至eclipse的plugins目录下,然后重启eclipse
2.打开菜单Window--Preference--Hadoop Map/Reduce进行配置,如下图所示:

3.显示Hadoop连接配置窗口:Window--Show View--Other-MapReduce Tools,如下图所示:


4.配置连接Hadoop,如下图所示:


查看是否连接成功,能看到如下信息,则表示连接成功:


五、hadoop集群环境添加测试文件
(如果已有则无需配置)

a.dfs上创建input目录
hadoop@ubuntu-V01:~/data/hadoop-2.5.2$bin/hadoop fs -mkdir -p input

b.把hadoop目录下的README.txt拷贝到dfs新建的input里
hadoop@ubuntu-V01:~/data/hadoop-2.5.2$bin/hadoop fs -copyFromLocal README.txt input


六、创建一个Map/Reduce Project
1.新建项目 File--New--Other--Map/Reduce Project 命名为MR1,
然后创建类org.apache.hadoop.examples.WordCount,从hadoop-2.5.2-src中拷贝覆盖
(F:\hadoop\hadoop-2.5.2-src\hadoop-mapreduce-project\hadoop-mapreduce-examples\src\main\java\org\apache\hadoop\examples\WordCount.java)

2.创建log4j.properties文件
在src目录下创建log4j.properties文件,内容如下:
log4j.rootLogger=debug,stdout,R
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%5p - %m%n
log4j.appender.R=org.apache.log4j.RollingFileAppender
log4j.appender.R.File=mapreduce_test.log
log4j.appender.R.MaxFileSize=1MB
log4j.appender.R.MaxBackupIndex=1
log4j.appender.R.layout=org.apache.log4j.PatternLayout
log4j.appender.R.layout.ConversionPattern=%p %t %c - %m%n
log4j.logger.com.codefutures=DEBUG

3.解决java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)异常问题
(由于你的环境和我的可能不一致,可以在后面出现相关问题后再进行修改)
拷贝源码文件org.apache.hadoop.io.nativeio.NativeIO到项目中
然后定位到570行,直接修改为return true;
如下图所示:


七、windows下运行环境配置
(如果不生效,则需要重启机器)

需要hadoop.dll,winutils.exe
我是直接拷贝F:\hadoop\hadoop-common-2.2.0-bin-master\bin目录下内容覆盖F:\hadoop\hadoop-2.5.2\bin


八、运行project
在eclipse中点击WordCount.java,右键,点击Run As—>Run Configurations,配置运行参数,即输入和输出文件夹
hdfs://ubuntu-V01:9000/user/hadoop/input hdfs://ubuntu-V01:9000/user/hadoop/output
如下图所示:


注意:如果output目录已经存在,则删掉或换个名字,如output01,output02 。。。


另外,出现问题可以多看日志(http://ubuntu-v01:8088/logs/)



参看资料:

Win7中使用Eclipse连接虚拟机中的Ubuntu中的Hadoop2.4经验总结
http://www.aboutyun.com/thread-7784-1-1.html

hadoop2.2 eclipse连接hdfs(hadoop)
http://www.aboutyun.com/thread-8190-1-1.html

新手指导:Windows上使用Eclipse远程连接Hadoop进行程序开发
http://www.aboutyun.com/thread-6001-1-1.html

windows eclipse运行mapreduce遇到权限问题该如何解决
http://www.aboutyun.com/thread-7660-1-1.html

hadoop开发方式总结及操作指导
http://www.aboutyun.com/thread-6950-1-1.html

我遇到的hadoop错误和解决方法汇总
http://heipark.iteye.com/blog/786302

HDFS权限管理用户指南
http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_permissions_guide.html
分享到:
评论

相关推荐

    eclipse开发hadoop2.5.2所用到都jar

    标题 "eclipse开发hadoop2.5.2所用到的jar" 指的是在Eclipse中进行Hadoop 2.5.2开发时所需的特定版本的JAR文件集合。这些JAR文件通常包括以下几个部分: 1. Hadoop Common:这是Hadoop的基础模块,包含了一般用途的...

    hadoop2.5.2window下eclipse环境搭建

    ### hadoop2.5.2在Windows下的Eclipse环境搭建详解 #### 一、Hadoop简介 Hadoop是由Apache基金会所开发的一个开源分布式计算框架,主要用于处理和存储大规模数据集。它通过分布式文件系统(HDFS)和MapReduce编程...

    hadoop-eclipse2.5.2、hadoop-eclipse2.6.0、hadoop-eclipse2.6.5

    Eclipse是流行的Java集成开发环境(IDE),而Hadoop-Eclipse插件是将Hadoop与Eclipse结合的工具,允许开发者在Eclipse中直接创建、运行和调试Hadoop MapReduce程序。这些文件"hadop-eclipse-plugin-2.5.2.jar"、...

    安装hadoop使用Eclipse的插件

    总的来说,Hadoop Eclipse plugin 2.5.2极大地简化了Hadoop开发流程,让开发者能够在熟悉的Eclipse环境中高效地进行工作。通过这个插件,你可以更专注于代码逻辑,而不是集群管理的复杂性。对于学习和实践Hadoop的...

    hadoop-eclipse-plugin

    同时,正确配置Hadoop的环境变量和Eclipse插件的连接参数也是必不可少的步骤。 6. **优化与进阶** 随着Hadoop的发展,除了基本的MapReduce编程模型,还有Pig、Hive、Spark等更高级的数据处理工具。开发者可以结合...

    windows 32位eclipse远程hadoop开发环境搭建

    搭建Windows 32位环境下Eclipse远程Hadoop开发环境是一个复杂的过程,涉及到多个软件的安装配置以及环境变量的设置。以下是对整个搭建过程的知识点进行详细说明。 首先,搭建开发环境需要明确使用的操作系统、开发...

    hadoop-eclipse-plugin.rar

    使用Hadoop Eclipse Plugin进行开发时,开发者需要安装对应的Hadoop版本,并在Eclipse中配置好Hadoop的环境变量。一旦配置完成,就可以通过Plugin创建新的Hadoop项目,编写MapReduce程序,然后直接在Eclipse内进行...

    实验2-在Hadoop平台上部署WordCount程序-孙淼1

    8. **Eclipse集成开发环境**:可能使用Eclipse进行Hadoop程序的开发和调试,这需要熟悉Eclipse的项目配置和Hadoop相关的插件。 实验报告撰写需注意以下几点: - 报告应该清晰、整洁,语言表达准确。 - 数据和程序...

    配置mapreduce开发环境(简单易懂,轻松上手)

    - 下载`Hadoop-eclipse-Plugin-2.5.2.jar`插件,并将其放置在MyEclipse安装目录下的`plugins`文件夹内。 - 重启MyEclipse后,在“Project Explorer”窗口中可以看到新增的“DFS Locations”项,表明插件已成功加载...

    实验二 1

    在进行实验前,确保已安装好VMware WorkStation,并配置好虚拟机环境,包括Hadoop集群的安装和配置。 实验步骤大致如下: 1. 在Eclipse中新建一个MapReduce项目。 2. 编写Map类,实现`Mapper接口`,处理输入数据,...

    Spark项目计划书v1.0版2

    - 多台服务器组成Spark集群,配置应满足大规模数据处理需求。 - 存储设备:高速SSD硬盘,保证数据读写速度。 2.4.3 开发工具 - IntelliJ IDEA或Eclipse IDE用于Scala开发 - Jupyter Notebook或Spark Notebook用于...

Global site tag (gtag.js) - Google Analytics