`

hadoop在windows下的配置与运行(运行环境和开发环境配置)

阅读更多

在Windows下部署hadoop前,都需要安装cygwin软件,那么我们先来看一下,如何安装和配置cygwin

一、cygwin的安装与配置

  1、什么是cygwin
 cygwin是一个在windows平台上运行的unix模拟环境,是cygnus solutions公司开发的自由软件(该公司开发了很多好东西,著名的还有eCos,不过现已被Redhat收购)。它对于学习unix/linux操作环境,或者从unix到windows的应用程序移植,或者进行某些特殊的开发工作,尤其是使用gnu工具集在windows上进行嵌入式系统开发,非常有用。随着嵌入式系统开发在国内日渐流行,越来越多的开发者对cygwin产生了兴趣。
2、cygwin的安装
  (1)下载安装程序,下载地址为: http://www.cygwin.com/setup.exe
   (2)选择必须安装的包,根据实践有如下包必须选择安 装,否则很可能cygwin安装失败!
   Net Category下的OpenSSL,OpenSSH;
   Base Category下的sed;
   Editors Category下的vim,Emacs;
   Devel Category下的subversion,binutils,gcc,gcc-mingw,gdb

(3)点击下一步。一直到完成
   说明:虽然cygwin提供在线安装,个人建议先  完全下载到本地,再进行安装,因为在线安装会出现许多莫名奇妙的问题。

2、cygwin的配置
 (1)配置环境变量
 CLASSPATH= .;C:\Java\jdk1.6.0_11\lib\dt.jar;C:\Java\jdk1.6.0_11\lib\tools.jar
  CYGWIN=ntsec;
JAVA_HOME=C:\Java\JDK1.6.0_11;C:\Java\jre6;
 在PATH环境变量中加入如下路径C:\cygwin\bin;C:\cygwin\usr\i686-pc-cygwin\bin;C:\Java\jdk1.6.0_11\bin;

(2)安装sshd服务
    启动cygwin输入命令:ssh-host-config;
    根据提示进行相应的操作直至安装完成,安装成功后立即启动名称为“CYGWIN sshd”的服务。

(3)配置ssh登录
      执行ssh-keygen命令,然后根据提示按三次回车键,最后输入如下命令:
   cd ~/.ssh/;
   cp id_rsa.pub authorized_keys

至此,cygwin的安装与配置成功,你可以享受cygwin带来的乐趣。

 

二、hadoop多节点的安装与部署


1、下载hadoop;
       本实验用的版本是:hadoop-0.20.1;
2、外部配置
   选中一台机子做为jobTracker,namenode, datanode这个机子为master,这个机器的ip设置为192.168.1.140。另外两台做datanode,TaskTracker为slave,这个机器的ip为192.168.1.141,192.168.1.142

3、为了实现无密码登录ssh服务器,在master机器cygwin的控制台中输入如下命令:
  cd ~/.ssh;
   chmod 600 authorized_keys;
  scp authorized_keys  Administrator@192.168.1.141:~/.ssh/ authorized_keys;
scp authorized_keys  Administrator@192.168.1.142:~/.ssh/ authorized_keys;

假如是所用的客户端计算机是第一次登陆SSH服务器,命令行中会提示“Are you sure you want to continue connecting (yes/no) ?”,只要输入yes即可,SSH服务器会自动将这次的登陆信息存储在/.ssh/known_host文件中。当显示“Fanfare!!! You are successfully logged in to this server!!!”时,说明已经成功登陆到ssh服务器计算机内了,需要注重的是,此时在当前控制台内输入的命令都将在ssh服务器计算机里运行。

4、master机器Hadoop机器环境部署:
  (1)将安装包解压到F:\hadoop\run中;
  (2)修改conf目录下的hadoop-env.sh
     export JAVA_HOME="/cygdrive/c/Java/jdk1.6.0_11"
   (3)修改conf目录下的core-site.xml;

           <property>

                   <name>fs.default.name</name>

                   <value>hdfs://192.168.1.140:9000<value>

                    ......................................

  (4)修改conf目录下的hdfs-site.xml;

         <property>

                   <name>dfs.datanode.handler.count</name>

                   <value>1<value>

                    ......................................

          <property>

                   <name>dfs.replication</name>

                   <value>1<value>

                    ......................................

 (5)修改conf目录下的mapred-site.xml

             <property>

                   <name>mapred.job.tracker</name>

                   <value>192.168.1.140:9001<value>

                    ......................................

 (6)修改conf目录下的masters文件
         输入192.168.1.140
 (7)修改conf目录下的slaves文件
       输入:192.168.1.140
                 192.168.1.141
                 192.168.1.142

(7)配置hadoop在cygwin中的环境
      用vi打开/etc/profile文件,在文件的末尾追加如下代码:
       export HADOOP_HOME=/cygdrive/f/hadoop/run
       export PATH=$PATH:$HADOOP_HOME/bin


(8)格式化一个新的分布式文件系统
    cd $HADOOP_HOME
    bin/hadoop namenode -format
5、slave机器Hadoop机器环境部署
     把master机器上的F:\hadoop拷贝到slave机器上的F盘的根目录下即可。
6、关闭master,slave机器上的Cygwin,然后重启Cygwin。

7、启动master上的hadoop,执行如下命令:
     ssh localhost
     cd $HADOOP_HOME
     bin/start-dfs.sh
     bin/start-mapred.sh
     jps
8、运行wordcount程序
   $ bin/hadoop dfs -put ./test-in input 
  $ bin/hadoop jar hadoop-0.16.0-examples.jar wordcount input output
   $ bin/hadoop dfs -cat output/*
9、停止hadoop进行
    $ bin/stop-all.sh
10、配置hadoop的开发环境
   (1)下载hadoop-0.20.1-eclipse-plugin.jar
   (2)将其复制到Eclipse安装目录下的   plugins子目录下。
   (3)删除org.eclipse.update目录,重启   Eclipse.
  (4) 配置一个Map/Reduce对象,即DFS location ,将Map/Reduce   Master一栏中的host设置为192.168.140,port设置为9001;将DFS Master 一栏中的host设置为192.168.140,port设置为9000;
 (5)运行wordcout程序
     创建一个Map/Reduce  Project,将wordcount.java拷贝到该工程的src目录下,运行程序。
   

 

 

至此,如果以上没有问题的话,hadoop多节点的运行环境与开发环境配置完毕了,你可以开发Map/Reduce程序了。

        

  


分享到:
评论

相关推荐

    hadoop本地windows开发环境配置

    ### hadoop本地Windows开发环境配置 #### 一、Hadoop开发环境配置 为了在Windows环境下进行基于Spark的分布式数据处理,首先需要配置好Hadoop的开发环境。这一步主要是为了确保能够本地提交并运行Hadoop MapReduce...

    hadoop-windows下配置文件

    总之,使用提供的压缩包可以在Windows上快速搭建Hadoop环境,这将帮助用户专注于学习和应用Hadoop,而不是花费大量时间在环境配置上。但是,理解Hadoop的基本配置和工作原理仍然是至关重要的,这对于后续的使用和...

    windows下搭建hadoop开发环境

    在Windows环境下搭建Hadoop开发环境是一项复杂但必要的任务,尤其对于初学者和开发者来说,能够直接在本地系统上运行和调试Hadoop程序是极其有用的。本文将详细介绍如何在Windows上配置Hadoop,以便使用Eclipse进行...

    windows环境下的hadoop3.1.0依赖,winutils

    WinUtils是Hadoop在Windows环境中的一个关键组件,它提供了与Linux上的`hadoop`命令类似的函数,如设置HADOOP_HOME环境变量、配置HDFS和MapReduce等。在安装和配置Hadoop时,我们需要将WinUtils的路径添加到系统PATH...

    hadoop 2.7.4 在 windows下配置文件

    不过,通过一些额外的配置,我们可以在Windows上搭建一个本地Hadoop开发环境。 首先,你需要下载Hadoop 2.7.4的二进制发行版,并解压到你选择的目录。这个压缩包中的文件应该包括了Hadoop的核心组件、MapReduce框架...

    hadoop在windows下环境的配置

    ### Hadoop在Windows下的环境配置知识点详解 #### 一、前言 Hadoop是一个开源软件框架,用于分布式存储和处理大型数据集。虽然Hadoop主要针对Linux平台进行了优化和支持,但在开发阶段,Windows平台也可以作为支持...

    hadoop在windows上运行需要winutils支持和hadoop.dll等文件

    在Windows环境下运行Hadoop,与在Linux系统中的配置有所不同,因为Hadoop原生是为类Unix系统设计的。然而,通过一些额外的工具,如WinUtils,我们可以使Hadoop在Windows上运行。 首先,让我们来理解一下标题中的...

    Hadoop在Windows的依赖资源

    总结来说,要在Windows上成功运行Hadoop,你需要安装和配置Hadoop,解决`winutils.exe`的问题,同时在IDEA这样的集成开发环境中正确配置项目。过程中可能还会遇到其他兼容性问题,但通过查阅文档、社区论坛和官方...

    windows下hadoop2.6开发环境搭建过程说明及插件

    在Windows环境下搭建Hadoop2.6开发环境是一个相对复杂的过程,但通过详细的步骤和注意事项,可以有效地完成。这里我们将深入探讨这个过程,并介绍如何解决可能出现的问题。 首先,我们需要下载Hadoop2.6.0的安装包...

    hadoop在windows上运行的工具

    标题中提到的“hadoop在windows上运行的工具”主要指的是在Windows环境下运行Hadoop所需的特定工具,这些工具确保了Hadoop能够在非Linux系统上正常工作。其中,“libwinutils.lib”是一个动态链接库文件,它包含了在...

    hadoop-3.0.0 windows配置文件

    这个“hadoop-3.0.0 windows配置文件”是专为在Windows操作系统上运行Hadoop 3.0.0版本而设计的。在Windows环境中配置Hadoop通常比在Linux环境下更为复杂,因为Hadoop最初是为Linux开发的。然而,通过正确配置和一些...

    hadoop windows运行环境 bin.rar

    总的来说,"hadoop windows运行环境 bin.rar"提供了在Windows上运行Hadoop的基本组件和配置,使得开发者和学习者可以在非Linux环境中体验和学习Hadoop的分布式计算能力。通过正确配置和使用`winutils.exe`,你可以...

    windows上配置hadoop所需要的winutils和hadoop.dll

    然而,为了在Windows上本地开发或测试Hadoop应用程序,我们需要对环境进行一些特殊的配置,特别是涉及到`winutils`和`hadoop.dll`这两个关键组件。以下是关于这两个组件的详细解释以及如何在Windows上配置它们的步骤...

    windows下Hadoop配置

    Windows 下 Hadoop 配置详解 在本文中,我们将详细介绍 Windows 下 Hadoop 配置的过程。Hadoop 是一款开源的分布式...本文详细介绍了 Windows 下 Hadoop 配置的过程和常见问题,旨在帮助读者更好地理解和配置 Hadoop。

    Windows环境下Hadoop开发环境配置.docx

    【标题】: "Windows环境下Hadoop开发环境配置" 在Windows环境下配置Hadoop开发环境,主要涉及以下几个关键步骤和知识点: 1. **Hadoop集群环境搭建**: 在本例中,使用了三台运行Ubuntu 10.0.4的虚拟机搭建了一个...

    hadoop-2.7.5 windows环境

    以上就是Hadoop 2.7.5在Windows环境下的安装、配置和运行过程。需要注意的是,由于Windows环境与Hadoop的Unix/Linux背景存在差异,可能会遇到权限、路径和网络等问题,需要根据实际情况进行调整。此外,Hadoop在...

    在windows下搭建hadoop2开发环境小案例

    在Windows环境下搭建Hadoop2开发环境是一个常见的任务,尤其对于初学者和开发者来说,了解这一过程至关重要。Hadoop是一个开源的分布式计算框架,它允许在大规模集群上处理和存储大量数据。在这个小案例中,我们将...

    Hadoop_windows运行解决办法

    在Windows环境下运行Hadoop可能对初学者来说是一个挑战,但通过一些特定的配置和步骤,可以成功地在Eclipse开发环境中搭建Hadoop环境。本文将详细介绍如何在Windows上配置和运行Hadoop,以及如何使用Eclipse进行开发...

Global site tag (gtag.js) - Google Analytics