`
huanglz19871030
  • 浏览: 248763 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

Hadoop介绍及运行wordcount实例

 
阅读更多

     Hadoop 是Apache 下的一个项目,由HDFS、MapReduce、HBase、Hive 和ZooKeeper等成员组成。其中,HDFS 和MapReduce 是两个最基础最重要的成员。
      HDFS 是Google GFS 的开源版本,一个高度容错的分布式文件系统,它能够提供高吞吐量的数据访问,适合存储海量(PB 级)的大文件(通常超过64M),其原理采用Master/Slave 结构。NameNode 维护集群内的元数据,对外提供创建、打开、删除和重命名文件或目录的功能。DataNode 存储数据,并提负责处理数据的读写请求。DataNode定期向NameNode 上报心跳,NameNode 通过响应心跳来控制DataNode。
      InfoWord 将MapReduce 评为2009 年十大新兴技术的冠军。MapReduce 是大规模数据(TB 级)计算的利器,Map 和Reduce 是它的主要思想,来源于函数式编程语言,它的原理如下:Map 负责将数据打散,Reduce负责对数据进行聚集,用户只需要实现map 和reduce 两个接口,即可完成TB 级数据的计算,常见的应用包括:日志分析和数据挖掘等数据分析应用。另外,还可用于科学数据计算,如圆周率PI 的计算等。
      Hadoop MapReduce 的实现也采用了Master/Slave 结构。Master 叫做JobTracker,而Slave叫做TaskTracker。用户提交的计算叫做Job,每一个Job 会被划分成若干个Tasks。JobTracker负责Job 和Tasks 的调度,而TaskTracker负责执行Tasks。

      通过上面hadoop的简单介绍以及上篇hadoop部署配置的介绍,下面运行一个hadoop的简单实例wordcount:

 

一、运行hadoop :

 

       进入hadoop/bin,首先格式化文件系统:$ hadoop namenode –format
       启动Hadoop:$ start-all.sh
       用jps 命令查看进程:$ jps

 

、查看集群状态:

      $ hadoop dfsadmin -report

      Hadoop 的web 方式查看:http://192.168.0.4:50070

 

三、运行wordcount.java 程序


(1)先在本地磁盘建立两个输入文件file01 和file02:
$ echo “Hello World Bye World” > file01
$ echo “Hello Hadoop Goodbye Hadoop” > file02
(2)在hdfs 中建立一个input 目录:$ hadoop fs –mkdir input
(3)将file01 和file02 拷贝到hdfs 中:
$ hadoop fs –copyFromLocal /home/hexianghui/soft/file0* input
(4)执行wordcount:
$ hadoop jar hadoop-0.20.1-examples.jar wordcount input output
(5)完成之后,查看结果:
$ hadoop fs -cat output/part-r-00000
Bye 1
Goodbye 1
Hadoop 2
Hello 2
World 2

 

可能出现的问题及相应的解决方法:


1、如果防火墙未关,可能出现如下错误:
File  /home/hexianghui/tmp/mapred/system/jobtracker.info could only be
replicated to 0 nodes, instead of 1
。用jps 查看进程都正常,用web 查看live nodes
为0. 说明datanode 没有正常启动,但datanode 进程实际是启动了。
解决方法:关闭防火墙:$ sudo ufw disable
另一种可能:把safemode 置于off 状态:$ hadoop dfsadmin –safemode leave

分享到:
评论

相关推荐

    hadoop运行wordcount实例

    ### Hadoop运行WordCount实例详解 #### 一、Hadoop简介与WordCount程序的重要性 Hadoop 是一个由Apache基金会所开发的分布式系统基础架构。它能够处理非常庞大的数据集,并且能够在集群上运行,通过将大数据分割...

    Hadoop环境搭建及wordcount实例运行.pdf

    Hadoop环境搭建及wordcount实例运行.pdf

    hadoop-1.2.1运行WordCount

    ### Hadoop-1.2.1 运行WordCount实例详解 #### 一、环境准备与搭建 在开始运行WordCount实例之前,首先确保已经按照之前的步骤完成了Hadoop-1.2.1环境的搭建。这包括但不限于安装JDK、配置Hadoop环境变量以及设置...

    Hadoop环境搭建与WordCount实例浅析.pdf

    【Hadoop环境搭建与WordCount实例浅析】 Hadoop是一个分布式计算框架,广泛应用于大数据处理。要搭建Hadoop环境并实现WordCount实例,你需要遵循以下步骤: 1. **环境准备**: - 首先,你需要一个Linux操作系统...

    eclipse hadoop插件安装 运行WordCount

    3. **WordCount示例**:解释如何在Eclipse中创建和运行WordCount程序,提供了一个理解Hadoop MapReduce编程模型的实例。 4. **文档与截图**:提供的文档和截图帮助用户更好地理解每个步骤,确保能够顺利完成安装和...

    ubuntu运行hadoop的wordcount

    ### Ubuntu上运行Hadoop WordCount实例详解 #### 一、环境搭建与配置 在Ubuntu系统上部署并运行Hadoop WordCount实例,首先需要确保已经安装了Hadoop环境,并且版本为hadoop-0.20.2。此版本较旧,主要用于教学或...

    Hadoop环境搭建及wordcount实例运行.docx

    。。。

    Java实现Hadoop下词配对Wordcount计数代码实现

    通过这个Wordcount实例,我们可以学习到Hadoop MapReduce的基本工作原理,同时也可以了解到如何在Java中编写Hadoop程序。这只是一个基本的应用,实际的Hadoop项目可能会涉及更复杂的逻辑和优化,如分块、分区、压缩...

    Hadoop的WordCount实例代码

    总之,Hadoop的WordCount实例是学习和理解分布式计算的一个重要起点,它展示了如何利用Hadoop框架进行数据处理,同时也为更复杂的分布式应用程序开发提供了基础。通过对WordCount的深入研究,我们可以更好地理解和...

    cygwin+eclipse搭建hadoop开发环境,运行wordcount

    "Hadoop环境搭建及wordcount实例运行"文档将带你了解Hadoop的基本工作流程,通过运行经典的WordCount程序来实践。WordCount是Hadoop入门的经典例子,它统计文本文件中每个单词出现的次数。你将学习如何创建MapReduce...

    WordCount2_hadoopwordcount_

    在标题中的"WordCount2_hadoopwordcount_"可能指的是Hadoop WordCount的第二个版本,通常是在Hadoop 2.x环境下运行。这个程序的核心任务是对输入文本进行分词,统计每个单词出现的次数,并将结果输出。在这个过程中...

    hadoop demo wordcount

    学习Hadoop WordCount实例,你可以深入了解以下知识点: 1. Hadoop环境搭建:包括安装Hadoop,配置Hadoop集群(单机或伪分布式),以及设置Hadoop环境变量。 2. MapReduce编程模型:理解Map和Reduce函数的工作原理...

    hadoop的wordcount实例代码

    Hadoop的WordCount实例代码解析 Hadoop的WordCount实例代码是Hadoop MapReduce编程模型的经典示例,通过对大文件中的单词出现次数的统计,展示了MapReduce编程模型的基本思想和实现细节。 Hadoop MapReduce编程...

    hadoop的wordcount简单实例

    这是一个wordcount的一个简单实例jar包,仅仅用来做测试。 map类:org.apache.hadoop.wordcount.WordCountMapReduce$WordCountMapper reduce类 org.apache.hadoop.wordcount.WordCountMapReduce$WordCountReducer

    hadoop之wordcount例程代码

    接下来,我们将深入探讨Hadoop的WordCount实例及其背后的原理。 首先,我们要理解Hadoop的核心组件——HDFS(Hadoop Distributed File System)和MapReduce。HDFS是Hadoop的分布式文件系统,将大文件分割成多个块并...

    hadoop学习之wordCount以及文件上传demo,经测试通过

    通过WordCount实例,我们可以了解Hadoop的分布式计算原理;通过文件上传,我们能掌握HDFS的读写操作。这些知识对于任何想要进入Hadoop领域的开发者来说都是至关重要的起点。在实际应用中,开发者可以根据需求对这些...

    Hadoop集群中WordCount示例

    通过上述介绍,我们可以了解到在Hadoop集群中运行WordCount程序的基本流程。尽管WordCount示例非常简单,但它却是理解Hadoop工作原理的一个很好的起点。对于想要深入学习Hadoop的开发者来说,掌握WordCount程序是...

    Hadoop经典如门代码实例教程wordCount项目源码

    代码是基于windows系统下搭建eclipse+hadoop2.8.3开发实例。使用eclipse直接导入代码使用的前提是,需要在本地配置要hadoop2.8.3,本代码亲测可用,能够详细地统计出dataNode下面的file3.txt文件中单词的个数。

Global site tag (gtag.js) - Google Analytics