`
stephen80
  • 浏览: 106291 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop02 有不少变化,直接在windows,eclipse 环境下

阅读更多
windows 在eclipse 下run wordcount;
需要:
1. 安装cygwin
2. 把 cygwin/bin 放到 windows 环境变量 path

hadoop start up
1。下载 ,tar
2。修改 con/hadoop-env.sh , java_home
3. bin/hadoop 显示帮助
4。运行 word count
  mkdir testinput
  cp conf/*.xml testinput
  bin/hadoop jar hadoop-*-examples.jar grep testinput testoutput 'dfs[a-z.]+'
  cat testoutput/*

bin/hadoop  jar hadoop-streaming.jar   -input input    -output output     -mapper /bin/cat     -reducer /bin/wc



bin/hadoop pipes -conf src/examples/pipes/conf/word.xml -input input -output cppwordcount




hadoop contrib 开发环境
1。 装 ant:
   设置 ant_home
2. svn checkout 
   svn checkout http://svn.apache.org/repos/asf/hadoop/core/trunk/ hadoop-core-trunk
3. ant

9. 执行unit test
  ant -Dtestcase=TestConfiguration test-core
  太慢


6. ssh 准备 (linux)
  ssh-keygen -t rsa -P ‘’
  cat ~/。ssh/id_rsa.pub >> ~/.ssh/authorized_keys

8. 启动eclipse : ,new java project

9. 把ant.jar ,搞过来

9.1 <property>
<name>hadoop.job.ugi</name>
<value>user,users</value>
  </property>

10。run wordCount ,  program parameter : input ,output
   jvm -Xms256m -Xmx256m
   run






配置cluster:
配置 conf/hadoop-env.sh , java_home
   conf/core-site :
     8     <property>
  9         <name>hadoop.tmp.dir</name>
10          <value>/home/jianqi/usep/tmp</value>
11     </property>
12     <property>
13         <name>fs.default.name</name>
14         <value>hdfs://localhost:54310</value>
15      </property>

   conf/hdfs-site:
     6 <configuration>
  7     <property>
  8         <name>dfs.replication</name>
  9         <value>1</value>
10    </property>
 
  conf/mapreduce-site
    8     <property>
  9         <name>mapred.job.tracker</name>
10         <value>hdfs://localhost:54311</value>
11     </property>

5. format hdfs
bin/hadoop namenode -format


linux eclipse 也放弃了。
分享到:
评论

相关推荐

    Hadoop2.7.3 Window10 hadoop.dll winutils.exe

    以上就是在Windows 10环境下使用Eclipse开发Hadoop 2.7.3的基本步骤,特别是关于`hadoop.dll`和`winutils.exe`的使用。需要注意的是,配置过程中可能会遇到一些问题,如权限问题、端口冲突等,解决这些问题通常需要...

    hadoop3.3.3-winutils

    hadoop基于linux开发和布署运行,故不能将hadoop环境原始运行在windows上。 操作系统环境差异说明 因为模拟linux环境,所以在linux原生环境中就不需要他了 在windows环境中需要配置 如何配置: 配置到运行环境当前目录...

    搭建Hadoop大数据处理环境.pdf

    最后,开发工具方面,Eclipse IDE是一个广泛使用的Java开发环境,也可以用来进行Hadoop项目的源码编译。无论是Linux还是Windows,开发者都需要掌握源码编译技术,以便于调试和优化Hadoop程序。 在搭建Hadoop环境的...

    ecplise远程连接hadoop--hdfs java api操作文件.pdf

    由于Hadoop是为Unix/Linux环境设计的,当在Windows环境下进行开发时,需要一些特殊的配置来使得Hadoop能够在Windows上运行。这包括将winutils.exe、hadoop.dll文件复制到宿主机的Hadoop安装目录下的bin目录中。这些...

    配置mapreduce开发环境(简单易懂,轻松上手)

    - 下载`Hadoop-eclipse-Plugin-2.5.2.jar`插件,并将其放置在MyEclipse安装目录下的`plugins`文件夹内。 - 重启MyEclipse后,在“Project Explorer”窗口中可以看到新增的“DFS Locations”项,表明插件已成功加载...

    eclipse

    Eclipse 的核心理念是“平台无关性”,它可以在多种操作系统上运行,包括Windows、Mac OS X和各种Linux发行版。 **Eclipse 的主要组件和功能** 1. **工作台(Workbench)**: Eclipse 的工作台是用户交互的主要界面...

    HDFSJavaAPI操作.pdf

    本文将详细介绍如何在 Windows 环境下通过 Java API 来操作 HDFS。 #### 二、搭建开发环境 ##### 1. 安装与配置 Eclipse - **解压 Eclipse**:首先需要下载 Eclipse 的压缩包,并将其解压到硬盘上的任意位置...

    JDK1.6安装及与JDK-1.5版本共存

    例如,在某些特定环境下,可能既需要使用JDK1.5(Java Development Kit 1.5)也需要使用JDK1.6。本文档将详细介绍如何在同一台机器上安装JDK1.6,并实现它与已存在的JDK1.5版本共存。 #### 二、准备工作 1. **下载...

    零基础学Java Web开发

    ### 零基础学Java Web开发 #### 一、Java语言概述 **1.1 Java语言简介** ...通过学习Java语言的基础及其在Web开发中的应用,不仅可以提高自身的编程技能,还能更好地适应当前快速变化的技术环境。

    10大理由!入行IT为啥建议你首选JAVA

    通过Java虚拟机(JVM),Java实现了“Write Once, Run Anywhere”(WORA)的理念,允许开发者编写一次代码就能在不同的操作系统(如Windows、Linux、Mac OS等)和硬件平台上运行,大大降低了开发成本和维护难度。...

    探讨计算机软件开发的JAVA编程语言应用 (2).zip

    Java编程语言在计算机软件开发中的应用广泛且深入,它的出现极大地推动了软件工程的发展。本文将深入探讨Java在软件开发中的重要性、特点、优势以及实际应用案例。 首先,Java是一种面向对象的编程语言,由Sun ...

    Java

    14. 大数据处理:Apache Hadoop和Spark等大数据处理框架大量使用Java,使得Java在大数据领域也有广泛应用。 15. 微服务架构:随着微服务概念的流行,Java的Spring Boot和Spring Cloud框架成为构建分布式微服务的...

Global site tag (gtag.js) - Google Analytics