`
xiaoluobo6666
  • 浏览: 13745 次
  • 性别: Icon_minigender_1
  • 来自: 湖南
文章分类
社区版块
存档分类
最新评论

由官方文档看hadoop的单机与伪分布运行

 
阅读更多
hadoop众所周知,在单击上运行时,有两种运行模式:直接的单击运行模式,和在单击上使用多个守护线程模拟分布的伪分布运行模式。这两天配了一下hadoop,在此,就他们之间运行时的过程与区别表达一下我的看法。

从官方文档上的配置看起
1.单击模式
单机模式的操作方法,文档如下:
[
默认情况下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。

下面的实例将已解压的 conf 目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。
$ mkdir input
$ cp conf/*.xml input
$ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+'
$ cat output/*

]
可见,在单击模式中,首先创建了一个input目录($ mkdir input),然后,将原始数据(为hadoop自带的一些xml文件,即conf目录下的文件)拷贝至input目录下($ cp conf/*.xml input),
接着,启动hadoop的 hadoop-*-examples.jar类,当然,这是中文文档对应的0.19.2版的hadoop对应的自带jar包,而我配置时,对应的jar包则为:hadoop-examples-0.20.203.0.jar,因版本而异。在这一句中($ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+'),同样给出了四个参数:grep,input,ouput,'dfs[a-.]+',分别依次代表:调用时,对应jar包下调用的类,输入文件目录(第一步已创建),输出文件目录(没有则会自动创建),要求条件的正则表达式,
最后,显示输出结果($ cat output/*),如果成功,这回在output目录下生成结果文件。


那么,这个单机版到底怎么运行的呢?看源码:hadoop-examples-0.20.203.0.jar
打开:src/examples/org/apache/hadoop/examples/grep.java(被调用类),可见:
[
public static void main(String[] args) throws Exception {
    int res = ToolRunner.run(new Configuration(), new Grep(), args);
    System.exit(res);
  }
]
运行时,直接调用了ToolRunner的方法,同时传入了Config类,与Grep类,与命令行输入参数(args)。这个方法不直观,让我们换个方法来看:同目录下的WordCount.java类

主函数如下:
[
public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length != 2) {...}
   
  Job job = new Job(conf, "word count");
    job.setJarByClass(WordCount.class);
    job.setMapperClass(TokenizerMapper.class);
   ...
    FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
    FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }
]

部分内容已省略
可见:在WC类中,首先创建了一个conf类(配置文件目前还没有配置,我们在伪分布时在分析),接着得到传入参数(otherArgs,对应的是原始数据和输出数据目录),然后,创建一个Job,Job中设置一个Mapper,一个Reducer(大名鼎鼎的MR模型的两部分),在然后,执行Job。而在Job中设置的Mapper和Reducer都是WC类的内部静态类,执行时,相当与调用了Mapper与Reducer中的map与reduce方法,进行了数据处理。


2.伪分布

也是先看官方文档,在官方文档中,给出的伪分布定义如下:

Hadoop可以在单节点上以所谓的伪分布式模式运行,此时每一个Hadoop守护进程都作为一个独立的Java进程运行。

而进行伪分布时,首先要做的:配置XML


Configuration

Use the following:

conf/core-site.xml:

<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://localhost:9000</value>
     </property>
</configuration>


conf/hdfs-site.xml:

<configuration>
     <property>
         <name>dfs.replication</name>
         <value>1</value>
     </property>
</configuration>


conf/mapred-site.xml:

<configuration>
     <property>
         <name>mapred.job.tracker</name>
         <value>localhost:9001</value>
     </property>
</configuration>



配置的这些有什么用呢?什么参数有什们用的(这么多localhost。。。)?其实,我目前也不时很懂,凭自己感觉分析一下吧。
然后设置ssh,能够登录本机。
执行,启动start-all.sh
来,那就看一下start-all.sh中的内容
有这么几句

. "$bin"/hadoop-config.sh

# start dfs daemons
"$bin"/start-dfs.sh --config $HADOOP_CONF_DIR

# start mapred daemons
"$bin"/start-mapred.sh --config $HADOOP_CONF_DIR

可见,又启动了hadoop-config.sh,start-dfs.sh ,start-mapred.sh
总之,在start-all的启动过程中,启动了namenode,datanode,jobtracker,tasktracker等守护线程。
那么这些守护线程又是如何与我们的WD类交互的呢?

再回去看一下WD。。。我们开始时,好像跳过了什么。。对了就是config类。
发现如下静态块


static{
    //print deprecation warning if hadoop-site.xml is found in classpath
    ClassLoader cL = Thread.currentThread().getContextClassLoader();
    if (cL == null) {
      cL = Configuration.class.getClassLoader();
    }
    if(cL.getResource("hadoop-site.xml")!=null) {
      LOG.warn("DEPRECATED: hadoop-site.xml found in the classpath. " +
          "Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, "
          + "mapred-site.xml and hdfs-site.xml to override properties of " +
          "core-default.xml, mapred-default.xml and hdfs-default.xml " +
          "respectively");
    }
    addDefaultResource("core-default.xml");
    addDefaultResource("core-site.xml");
  }

可见,config类中,首先就加载了hadoop-site.xml,当其为空时,加载core-site.xml,mapred-site.xml,hdfs-site.xml这三个xml文件(虽然我愣是没找到他加载的时的源码在那。。。。。),没错,就是我们在开始伪分布时,配置的那三个xml文件。然后,WD
类就能够根据config类,在实行job时,调用对应的守护进程,恩..在伪分布时,就是配置在localhost上的进程,当然,如果将其修改为对应服务器的IP,那不就时真正的分布式了么?

Over.
分享到:
评论

相关推荐

    Hadoop单机伪分布完全分布实验文档

    1. **Hadoop单机伪分布模式**: 单机伪分布模式是Hadoop初学者入门的常见方式,它模拟了分布式环境,但所有进程都在同一台机器上运行。这种模式下,Hadoop的各个组件如NameNode、DataNode、JobTracker和TaskTracker...

    从零起步搭建Hadoop单机和伪分布式开发环境图文教程.

    5. 配置Hadoop单机模式:修改Hadoop配置文件,让Hadoop运行在单机模式。 6. 测试Wordcount示例:运行Hadoop自带的Wordcount示例,验证环境搭建是否成功。 搭建伪分布式开发环境的步骤大致与单机模式相似,但是需要...

    Hadoop安装教程_单机_伪分布式配置

    ### Hadoop安装教程:单机与伪分布式配置详解 #### 一、引言 Hadoop是一种开源的大数据处理框架,广泛应用于数据存储和处理场景。本文档将详细介绍如何在Ubuntu 14.04环境下安装配置Hadoop 2.6.0版本,包括单机模式...

    Hadoop完全分布式配置.txt

    Hadoop的安装分为单机方式、伪分布式方式和完全分布式方式。 a. 单机模式是Hadoop的默认模式。当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件...

    单机版hadoop配置文件

    总结,Hadoop 2.2.0的单机伪分布式配置是一个基础且实用的学习实践,它涵盖了Hadoop的核心概念和操作流程。通过这个配置,你可以在一个可控的环境中体验Hadoop的工作原理,为进一步深入理解和掌握分布式大数据处理...

    Hadoop安装教程_单机_伪分布式配置_CentOS6.4_Hadoop2.6

    根据给定文件的信息,本文将详细介绍如何在 CentOS 6.4 系统中安装 Hadoop 2.6.0,并实现单机模式与伪分布式模式的配置。 ### 环境准备 #### 操作系统环境 - **操作系统**: CentOS 6.4 32位 - **虚拟化平台**: ...

    Hadoop课程实验和报告——Hadoop安装实验报告

    需要注意的是,Hadoop支持三种运行模式:单机单节点模式、单机多节点的伪分布模式和多机多节点分布模式。 二、Hadoop和Eclipse的结合 Hadoop可以与Eclipse集成,以便于项目的开发和调试。首先,需要下载Eclipse,...

    Hadoop安装教程_单机_伪分布式配置_Hadoop2.6.0_Ubuntu141

    【Hadoop安装教程:单机与伪分布式配置详解】 在大数据处理领域,Hadoop是一个广泛使用的开源框架,它允许在廉价硬件集群上处理大规模数据。本文将指导您如何在Ubuntu 14.04 64位系统上安装Hadoop 2.6.0,无论是...

    Hadoop2.2部署文档

    本文档旨在为初学者提供一个清晰、详尽的Hadoop部署流程,包括单机伪分布模式和多节点集群的安装与配置,帮助读者快速理解Hadoop的核心概念和实际操作。 1.2 背景 在Linux环境下部署Hadoop,需要对操作系统有基本的...

    hadoop安装文档

    本文档详细介绍了如何在**Ubuntu Server 11.04**上搭建**Hadoop**的分布式环境,包括Linux环境的搭建、JDK的安装与配置、Hadoop的下载与安装等关键步骤。通过以上步骤,读者可以成功地在自己的环境中搭建起一个功能...

    Hadoop伪分布式搭建配置文件

    本文将详细介绍如何在单机环境下搭建Hadoop的伪分布式模式,这是一种模拟分布式环境的配置,适合学习和测试使用。我们将依据《如何搭建hadoop伪分布式》这篇文章,并结合提供的配置文件来探讨相关知识点。 首先,你...

    hadoop文档, hdfs mapreduce,环境搭建,例子介绍等

    Hadoop的环境搭建可以分为三种模式:单机模式、伪分布式模式和完全分布式模式。 ##### 3.1 单机模式 单机模式下,所有的Hadoop服务都在一台机器上运行。这种方式主要用于开发和测试环境。 - **目的**:让开发者能够...

    hadoop安装

    随着技术的发展,Hadoop 也在不断更新迭代,建议定期查阅官方文档获取最新版本的支持和特性。 #### 四、扩展配置 - **Spark 配置**:安装 Spark 后,可以通过配置使其与 Hadoop 集成,从而利用 Hadoop 的存储能力...

    Hadoop部署及管理内含源码以及说明书可以自己运行复现.zip

    2. "1.Hadoop单机模式安装.md" - 这个文档将详细解释如何在单机环境下安装Hadoop,这是学习Hadoop的第一步。通常会包括下载Hadoop发行版,配置环境变量,修改配置文件(如hadoop-env.sh、core-site.xml、hdfs-site....

    安装Hadoop1.0.4伪分布式的方法.docx

    Hadoop的官方安装指南提供了两种单机安装模式:“standalone”(独立模式)和“pseudo-distributed”(伪分布式模式)。本文将重点介绍伪分布式模式的安装过程。官方文档详细阐述了步骤,但在某些关键点上可能不够...

    hadoop环境部署自动化shell脚本(伪分布式、完全分布式集群搭建).docx

    2. **Hadoop单机版安装**:为单台机器快速安装Hadoop,适合个人学习。 3. **Hadoop伪分布式安装**:在一台机器上模拟多节点环境,方便测试和调试。 4. **Hadoop完全分布式集群安装**:在多台机器上搭建真正的分布式...

Global site tag (gtag.js) - Google Analytics