`

部署自己写的map/reduce程序的方法

阅读更多
部署自己写的map/reduce程序的方法

【1】:首先就是打包了。需要把的程序( class文件)、配置目录(conf/)、jar包 放在同一级目录 ,下面是 build.xml
<?xml version="1.0" encoding="UTF-8"?>

<project name="mapreducetest" default="dist">

<property name="name" value="mapreducetest" />
<property name="version" value="0.1" />
<property name="build" value="build" />
<property name="build.classes" value="${build}/classes" />
<property name="dist" value="dist" />
<property name="src" value="src" />
<property name="lib" value="lib" />
<property name="conf" value="conf" />

<path id="project.class.path">
<fileset dir="${lib}">
<include name="*.jar" />
</fileset>
</path>

<target name="init">
<delete dir="${build}" />
<delete dir="${dist}" />
<mkdir dir="${build}" />
<mkdir dir="${build.classes}" />
<mkdir dir="${dist}" />
</target>

<target name="compile" depends="init">
<javac debug="true" srcdir="${src}" destdir="${build.classes}">
<classpath refid="project.class.path" />
</javac>
</target>

<target name="dist" depends="compile">
<copy todir="${build.classes}">
<fileset dir="${src}">
<include name="**/*.xml" />
<include name="**/*.dtd" />
<include name="**/*.properties" />
<include name="**/*.vm" />
<include name="**/*.xsd" />
</fileset>
<fileset dir="${lib}">
<include name="*.jar"/>
</fileset>

</copy>
<mkdir dir="${dist}" />
<jar jarfile="${dist}/${name}.jar" index="true">
<fileset dir="${build.classes}">
<include name="**" />
</fileset>
<fileset dir="${conf}">
<include name="**" />
</fileset>
<manifest>
<attribute name="Built-By" value="${author}" />
<section name="main">
<attribute name="Specification-Version" value="${version}" />
<attribute name="Implementation-Title" value="main" />
<attribute name="Implementation-Version" value="${version} ${TODAY}" />
</section>
</manifest>
</jar>
</target>
<target name="clean">
<delete dir="${build}" />
<delete dir="${dist}" />
</target>

</project>
【2】 : 把/dist/mapreducetest.jar 拷贝到指定的目录 --- ( hadoop@user-desktop:~/hadoop-0.19.2$ ) 接下来就是运行了。
【3】 : bin/hadoop jar mapreducetest.jar com.mapreduce.demo.DB.ReadAccess /hadoop/readout  如果能看到下面东东。就说明你的map/reduce运行成功了。
10/07/07 15:39:58 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same.
10/07/07 15:40:02 INFO mapred.JobClient: Running job: job_201007071102_0002
10/07/07 15:40:03 INFO mapred.JobClient:  map 0% reduce 0%
10/07/07 15:40:08 INFO mapred.JobClient:  map 50% reduce 0%
10/07/07 15:40:10 INFO mapred.JobClient:  map 100% reduce 0%
10/07/07 15:40:15 INFO mapred.JobClient:  map 100% reduce 100%
10/07/07 15:40:16 INFO mapred.JobClient: Job complete: job_201007071102_0002
10/07/07 15:40:16 INFO mapred.JobClient: Counters: 14
10/07/07 15:40:16 INFO mapred.JobClient:   File Systems
10/07/07 15:40:16 INFO mapred.JobClient:     HDFS bytes written=80
10/07/07 15:40:16 INFO mapred.JobClient:     Local bytes read=134
10/07/07 15:40:16 INFO mapred.JobClient:     Local bytes written=330
10/07/07 15:40:16 INFO mapred.JobClient:   Job Counters
10/07/07 15:40:16 INFO mapred.JobClient:     Launched reduce tasks=1
10/07/07 15:40:16 INFO mapred.JobClient:     Launched map tasks=2
10/07/07 15:40:16 INFO mapred.JobClient:   Map-Reduce Framework
10/07/07 15:40:16 INFO mapred.JobClient:     Reduce input groups=6
10/07/07 15:40:16 INFO mapred.JobClient:     Combine output records=0
10/07/07 15:40:16 INFO mapred.JobClient:     Map input records=6
10/07/07 15:40:16 INFO mapred.JobClient:     Reduce output records=6
10/07/07 15:40:16 INFO mapred.JobClient:     Map output bytes=116
10/07/07 15:40:16 INFO mapred.JobClient:     Map input bytes=6
10/07/07 15:40:16 INFO mapred.JobClient:     Combine input records=0
10/07/07 15:40:16 INFO mapred.JobClient:     Map output records=6
10/07/07 15:40:16 INFO mapred.JobClient:     Reduce input records=6

【4】 : 命令查看输出
bin/hadoop fs -cat /hadoop/readout/part-00000| head -13
分享到:
评论
1 楼 yangxuanlun 2011-12-14  
你好,本人比较愚钝,看了你的帖子,还是没搞懂怎么部署自己的mapreduce。希望能故详细解释。比如,1:那个build.xml是不是就是hadoop安装目录下面的那个build.xml,要在那个里面修改那些地方:2,把那些class,jar放在同一个目录。这同一个目录是固定的那个目录还是自己随便定义一个目录呢?3,把/dist/mapreducetest.jar 拷贝到同一个目录指的是那个目录?4,是不是应该把那些jar同时拷贝到所有的节点呢?希望能尽快得到您的答复。我的邮箱yangxuanlun@163.com。谢谢。

相关推荐

    hadoop中map/reduce

    《hadoop搭建与eclipse开发环境设置.docx》则可能涵盖Hadoop集群的安装部署过程,以及如何在Eclipse中配置Hadoop开发环境,如导入Hadoop相关的库,设置编译路径,以及调试MapReduce程序的方法。 《eclipse.docx》...

    大数据技术基础实验报告-MapReduce编程.doc

    然后,通过在Eclipse的右下角的Map/Reduce Locations面板中创建新的Hadoop位置,与Hadoop集群建立连接。这样可以直接查看HDFS中的文件,而无需使用命令行工具。 MapReduce编程的核心在于`Mapper`和`Reducer`阶段。`...

    MapReduce Tutorial

    ### MapReduce 教程 #### 一、目的 本文档旨在全面介绍 Hadoop Map/Reduce 框架的所有用户界面...通过本文档的学习,读者应该能够理解 Map/Reduce 的工作原理,并能够编写简单的 Map/Reduce 应用程序来解决实际问题。

    hadoop 1.2.1 api 最新chm 伪中文版

    Hadoop Map/Reduce是一个使用简易的软件框架,基于它写出来的应用程序能够运行在由上千个商用机器组成的大型集群上,并以一种可靠容错的方式并行处理上T级别的数据集。 一个Map/Reduce 作业(job) 通常会把输入的...

    基于Hadoop的云计算模型

    3. **编写Map/Reduce程序**:根据具体的业务逻辑编写Map和Reduce函数,实现数据的处理和分析。 4. **提交作业**:通过Hadoop命令或API提交Map/Reduce作业,让集群执行相应的计算任务。 5. **监控和维护**:在作业...

    大数据技术基础实验报告-MapReduce编程 (2).docx

    3. **编写MapReduce代码**:在生成的WordCount类中,实现`map()`和`reduce()`方法,完成对输入数据的处理和结果的生成。 4. **运行MapReduce程序**:配置好运行配置,将项目部署到Hadoop集群上,执行MapReduce任务...

    hadoop,map,reduce,hdfs

    它通过两个主要阶段实现:**Map阶段**和**Reduce阶段**。MapReduce的工作流程如下: 1. **Splitting**:输入数据被分成小块,每个块称为一个split。 2. **Mapping**:每个split被传递给映射函数,映射函数对输入数据...

    Linux和Win下配置eclipse开发hadoop

    10. **运行和调试**: 在Eclipse中可以直接运行和调试Hadoop程序,通过Eclipse的Run As菜单选择Map/Reduce Job。 **二、Windows环境下配置Eclipse开发Hadoop** 1. **安装Java**: Windows上同样需要Java环境,下载并...

    云计算、Cloud computing 、map-reduce

    Reduce阶段则负责收集和整合Map阶段的结果,完成最终的计算。MapReduce简化了大规模数据处理的过程,使得开发者能够专注于业务逻辑,而无需过多关注底层分布式系统的复杂性。 “云计算基础设施和体系架构”是理解...

    Idea运行MapperReduce本地环境配置(win10).rar

    编写MapReduce程序时,需要继承`org.apache.hadoop.mapreduce.Mapper`和`org.apache.hadoop.mapreduce.Reducer`类,实现各自的`map()`和`reduce()`方法。程序完成后,使用Maven或Gradle打包成JAR文件。 运行...

    hadoop开发环境搭建

    - 切换到“Map/Reduce”界面模式,便于进行Hadoop程序的开发。 #### 五、建立与Hadoop集群的连接 在Eclipse中,可以通过以下步骤建立与Hadoop集群的连接: 1. **打开Map/Reduce Locations**:在Eclipse下方窗口...

    FPMR:FPGA 实现 Map Reduce

    ### FPGA 实现 Map Reduce(FPMR):加速与优化 #### 概述 随着机器学习和数据挖掘在计算领域获得越来越多的关注,寻找高效、低功耗且灵活的硬件平台成为了一个紧迫的需求。FPGA(Field Programmable Gate Array)...

    hadoop-eclipse-plugin[2.2.0 + 2.4.1 + 2.6.0 + 2.7.3]

    3. **创建MapReduce项目**:在Eclipse中新建一个Java项目,然后将其标记为Map/Reduce Project,这样就可以在项目中编写MapReduce程序了。 4. **编写代码**:使用Java编写Map和Reduce类,实现业务逻辑。 5. **运行...

    hadoop-eclipse-plugin含WINDOWS下调试文档

    1. 在Eclipse中,通过“Window” -&gt; “Preferences” -&gt; “Hadoop Map/Reduce”菜单打开Hadoop配置界面。 2. 添加新的Hadoop配置,输入集群的NameNode和JobTracker的IP地址或主机名,以及对应的端口号。 3. 如果你的...

    hadoop-eclipse-plugin-2.7.3.jar

    3. 部署与运行:通过右键点击项目,选择“Run As” -&gt; “Map/Reduce Job”,插件会自动将程序提交到Hadoop集群运行。 4. 浏览HDFS:在Eclipse中可以直接查看Hadoop分布式文件系统的文件和目录结构,便于数据的上传和...

Global site tag (gtag.js) - Google Analytics