`
iceflyingfox
  • 浏览: 52316 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop学习日记二 运行程序

阅读更多

昨天搭建好了hadoop的环境,现在执行hadoop的例子验证一下。

 

在NameNode下建立两个文件

 

 

root@wenbo00:/home/wenbo# echo 'Hello world bye world' > file01
root@wenbo00:/home/wenbo# echo 'hello hadoop goodbye hadoop' > file02

 

在hdfs中建立一个input目录

 

 

root@wenbo00:/home/wenbo# hadoop fs -mkdir input

 

将刚才建好的两个文件复制到input目录下

 

 

root@wenbo00:/home/wenbo# hadoop fs -copyFromLocal file0* input

 

执行以下命令可以看到复制结果

 

 

root@wenbo00:/home/hadoop-1.0.1# hadoop fs -ls input/
 

看到的结果为

 

 

Found 2 items
-rw-r--r--   1 root supergroup         22 2012-03-13 19:44 /user/root/input/file01
-rw-r--r--   1 root supergroup         28 2012-03-13 19:44 /user/root/input/file02
 

执行hadoop自带的worldcount例子,并将结果输出到output目录中

 

 

root@wenbo00:/home/wenbo# hadoop jar /home/hadoop-1.0.1/hadoop-examples-1.0.1.jar wordcount input output

 

可以看到以下的输出log

 

 

****hdfs://wenbo00:9000/user/root/input
12/03/13 19:47:21 INFO input.FileInputFormat: Total input paths to process : 2
12/03/13 19:47:22 INFO mapred.JobClient: Running job: job_201203131940_0001
12/03/13 19:47:23 INFO mapred.JobClient:  map 0% reduce 0%
12/03/13 19:47:37 INFO mapred.JobClient:  map 50% reduce 0%
12/03/13 19:47:40 INFO mapred.JobClient:  map 100% reduce 0%
12/03/13 19:47:52 INFO mapred.JobClient:  map 100% reduce 100%
12/03/13 19:47:57 INFO mapred.JobClient: Job complete: job_201203131940_0001
12/03/13 19:47:57 INFO mapred.JobClient: Counters: 30
12/03/13 19:47:57 INFO mapred.JobClient:   Job Counters
12/03/13 19:47:57 INFO mapred.JobClient:     Launched reduce tasks=1
12/03/13 19:47:57 INFO mapred.JobClient:     SLOTS_MILLIS_MAPS=19732
12/03/13 19:47:57 INFO mapred.JobClient:     Total time spent by all reduces waiting after reserving slots (ms)=0
12/03/13 19:47:57 INFO mapred.JobClient:     Total time spent by all maps waiting after reserving slots (ms)=0
12/03/13 19:47:57 INFO mapred.JobClient:     Rack-local map tasks=1
12/03/13 19:47:57 INFO mapred.JobClient:     Launched map tasks=2
12/03/13 19:47:57 INFO mapred.JobClient:     Data-local map tasks=1
12/03/13 19:47:57 INFO mapred.JobClient:     SLOTS_MILLIS_REDUCES=14004
12/03/13 19:47:57 INFO mapred.JobClient:   File Output Format Counters
12/03/13 19:47:57 INFO mapred.JobClient:     Bytes Written=49
12/03/13 19:47:57 INFO mapred.JobClient:   FileSystemCounters
12/03/13 19:47:57 INFO mapred.JobClient:     FILE_BYTES_READ=79
12/03/13 19:47:57 INFO mapred.JobClient:     HDFS_BYTES_READ=264
12/03/13 19:47:57 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=64654
12/03/13 19:47:57 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=49
12/03/13 19:47:57 INFO mapred.JobClient:   File Input Format Counters
12/03/13 19:47:57 INFO mapred.JobClient:     Bytes Read=50
12/03/13 19:47:57 INFO mapred.JobClient:   Map-Reduce Framework
12/03/13 19:47:57 INFO mapred.JobClient:     Map output materialized bytes=85
12/03/13 19:47:57 INFO mapred.JobClient:     Map input records=2
12/03/13 19:47:57 INFO mapred.JobClient:     Reduce shuffle bytes=85
12/03/13 19:47:57 INFO mapred.JobClient:     Spilled Records=12
12/03/13 19:47:57 INFO mapred.JobClient:     Map output bytes=82
12/03/13 19:47:57 INFO mapred.JobClient:     CPU time spent (ms)=3000
12/03/13 19:47:57 INFO mapred.JobClient:     Total committed heap usage (bytes)=336404480
12/03/13 19:47:57 INFO mapred.JobClient:     Combine input records=8
12/03/13 19:47:57 INFO mapred.JobClient:     SPLIT_RAW_BYTES=214
12/03/13 19:47:57 INFO mapred.JobClient:     Reduce input records=6
12/03/13 19:47:57 INFO mapred.JobClient:     Reduce input groups=6
12/03/13 19:47:57 INFO mapred.JobClient:     Combine output records=6
12/03/13 19:47:57 INFO mapred.JobClient:     Physical memory (bytes) snapshot=384741376
12/03/13 19:47:57 INFO mapred.JobClient:     Reduce output records=6
12/03/13 19:47:57 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=1573851136
12/03/13 19:47:57 INFO mapred.JobClient:     Map output records=8

 

最终计算结果为8个单词

 

可以查看output中的输出查看以下

 

利用以下命令可以查看output文件夹下的生成文件

 

 

root@wenbo00:/home/hadoop-1.0.1# hadoop fs -ls output

 结果为

 

 

Found 3 items
-rw-r--r--   1 root supergroup          0 2012-03-13 19:47 /user/root/output/_SUCCESS
drwxr-xr-x   - root supergroup          0 2012-03-13 19:47 /user/root/output/_logs
-rw-r--r--   1 root supergroup         49 2012-03-13 19:47 /user/root/output/part-r-00000

 part-r-00000中存放了执行的结果

 

 

root@wenbo00:/home/hadoop-1.0.1# hadoop fs -cat output/part-r-00000

 

结果为

 

 

Hello   1
bye     1
goodbye 1
hadoop  2
hello   1
world   2

 

共8个单词,执行成功。

分享到:
评论

相关推荐

    Hadoop系统安装运行与程序开发

    Hadoop系统安装运行与程序开发的知识点涵盖以下几个方面: 1. 单机Hadoop系统安装基本步骤 首先,安装单机Hadoop系统分为在Linux操作系统下直接安装以及在Windows下安装Linux虚拟机两种方式。在Linux环境下,通常...

    HADOOP学习

    ### HADOOP学习知识点 #### 一、Hadoop概述与历史 - **Hadoop官方网站**:作为学习Hadoop的第一步,官方站点提供了丰富的资源和技术文档,包括最新的版本更新和技术动态等。 - **起源与发展**:Hadoop项目起源于...

    Hadoop学习资料

    Hadoop作为开源分布式系统基础架构,由Apache基金会开发,允许用户在不了解分布式底层细节的情况下开发分布式程序,充分利用集群的威力进行高速运算和存储。它解决了大数据存储和处理的问题,尤其适合处理非结构化...

    实验2-在Hadoop平台上部署WordCount程序-孙淼1

    2. **JAVA JDK安装**:在Linux环境下安装和配置Java Development Kit (JDK) 是运行和开发Hadoop程序的必要条件。实验要求学生熟悉这一过程。 3. **多台主机虚拟化**:通过VirtualBox或类似工具创建多台虚拟机,模拟...

    Hadoop学习笔记

    Hadoop学习笔记,自己总结的一些Hadoop学习笔记,比较简单。

    Hadoop示例程序WordCount运行及详解

    Hadoop示例程序WordCount运行及详解 Hadoop平台上进行WordCount是非常重要的,掌握了WordCount可以更好地理解Hadoop的map-reduce编程模型。本文将详细讲解Hadoop平台上WordCount的运行和实现。 基于Hadoop的map-...

    最新Hadoop学习笔记

    在开始Hadoop的学习之前,首先要搭建一个运行环境。这通常涉及以下几个步骤: 1. 安装Java:Hadoop依赖Java运行环境,确保系统安装了JDK并设置好环境变量。 2. 下载Hadoop:从Apache官方网站获取最新稳定版Hadoop,...

    java及hadoop学习资料

    2. **异常处理**:Java的异常处理机制是其强项之一,学习如何通过try-catch-finally语句块来捕获和处理程序运行时可能遇到的问题。 3. **集合框架**:了解ArrayList、LinkedList、HashMap、HashSet等集合类的使用,...

    Hadoop 学习笔记.md

    Hadoop 学习笔记.md

    深入理解Hadoop(第二版)

    本书详细地讲述了Hadoop生态圈中最为重要的几个组件。不仅介绍了Hadoop涉及的分布式理论基础知识,还着重讲解Hadoop系统的工程实践应用。为了深入浅出地讲述Hadoop各个组件的运行机理,作者使用了贴切的实战用例

    Hadoop入门学习文档

    #### 二、Hadoop框架 ##### 2.1 Hadoop简介 - **定义**:Hadoop是由Apache基金会开发的分布式系统基础架构,用于处理大规模数据集。 - **目标**:解决海量数据的存储和分析计算问题。 - **生态体系**:广义上的...

    大数据技术之-03-Hadoop学习-Hadoop运行模式及常见错误及解决方案.docx

    大数据技术之 Hadoop 运行模式及常见错误及解决方案 Hadoop 运行模式是大数据技术中的一个重要概念,它决定了 ...了解 Hadoop 的三种运行模式和相应的配置和解决方案,对于开发和生产环境的 Hadoop 应用程序非常重要。

    Hadoop学习总结和源码分析

    “Hadoop学习总结之五:Hadoop的运行痕迹.doc”可能涉及监控和日志记录,这是理解Hadoop系统运行状态和问题排查的重要手段。通过监控Hadoop集群的性能指标,如CPU利用率、内存使用情况、磁盘I/O等,可以优化系统配置...

    Ch4-Hadoop系统安装运行与程序开发1

    【Hadoop系统安装运行与程序开发】是学习大数据技术的基础环节,主要涵盖了四个核心部分:单机Hadoop系统安装、集群Hadoop系统安装、Hadoop集群远程作业提交与执行以及Hadoop MapReduce程序开发。本章节详细介绍了...

    Hadoop学习路线图

    有计划的安排大数据的学习之路,可以在对Hadoop的学习规划上有一个更清晰的目标!

    hadoop在windows上运行需要winutils支持和hadoop.dll等文件

    在描述中提到的"hadoop2.7.7安装依赖文件",这通常包括Hadoop的二进制发行版、配置文件、文档以及可能需要的其他依赖。对于Hadoop 2.7.7版本,你需要解压提供的压缩包,然后进行以下步骤来配置和启动Hadoop: 1. **...

    hadoop组件程序包.zip

    总结,"hadoop组件程序包.zip"是一个为Hadoop初学者量身定制的学习资源,通过深入学习和实践,初学者可以全面掌握Hadoop的核心组件及其工作原理,为未来在大数据领域的探索和发展打下坚实基础。

    hadoop运行wordcount实例

    - 执行 `bin/hadoop jar hadoop-0.20.2-examples.jar wordcount input output` 来运行 WordCount 程序,其中 `input` 是 HDFS 上的输入目录,`output` 是输出结果的目录。 6. **查看输出结果**: - 使用 `bin/...

    Hadoop集群-WordCount运行详解

    在linux环境下部署的Hadoop集群-WordCount运行详解。

    大数据之Hadoop学习教程+笔记合计_超详细完整.zip

    大数据之Hadoop学习教程+笔记合计_超详细完整.zip

Global site tag (gtag.js) - Google Analytics