`

Hadoop-2.5.2在Win10上的伪分布式单节点配置

阅读更多

<div class="iteye-blog-content-contain" style="font-size: 14px">

Hadoop-2.5.2可以在win10系统上直接运行,而不需要Cygwin。下面来介绍配置过程:

一、下载Hadoop-2.5.2

http://hadoop.apache.org/releases.html网址中可以找到Hadoop的相关版本点击进行下载

 

二、解压下载后的文件

(如hadoop-2.5.2.tar.gz到指定的目录,例如我的在

D:\hadoop\hadoop-2.5.2下。

 

三、配置相关文件

 1配置hadoop-env.cmd文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop中)

用一种编辑器软件打开并在最后加上如下几句:

 

set HADOOP_PREFIX=D:\hadoop\hadoop-2.5.2
set HADOOP_CONF_DIR=%HADOOP_PREFIX%\etc\hadoop
set YARN_CONF_DIR=%HADOOP_CONF_DIR%
set PATH=%PATH%;%HADOOP_PREFIX%\bin

 

2配置core-site.xml文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop中)

 

<configuration>
   <property>
     <name>hadoop.tmp.dir</name>
     <value>/hadoop/sysdata/tmp</value>
   </property>
   <property>
     <name>fs.default.name</name>
     <value>hdfs://0.0.0.0:19000</value>
   </property>
</configuration>

  

3配置hdfs-site.xml文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop

用一种编辑器软件打开并在内部编辑如下语句:​

<configuration>
    <property>
         <name>dfs.replication</name>
         <value>1</value>
    </property>
    <property>
       <name>dfs.namenode.name.dir</name>
       <value>/hadoop/sysdata/hdfs/name</value>
    </property>
    <property>
       <name>dfs.datanode.data.dir</name>
       <value>/hadoop/sysdata/hdfs/data</value>
    </property>
</configuration>

  

4配置mapred-site.xml文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop下)

用一种编辑器软件打开并在内部编辑如下语句:

<configuration>
   <property>
      <name>mapreduce.job.user.name</name>
      <value>%Administrator%</value>
   </property>
 
   <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
   </property>
  
   <property>
      <name>yarn.apps.stagingDir</name>
      <value>/user/%Administrator%/staging</value>
   </property>
 
   <property>
      <name>mapreduce.jobtracker.address</name>
      <value>local</value>
   </property>
</configuration>

  

5配置yarn-site.xml文件(该文件在e:/hadoop/deploy/etc/hadoop下)

用一种编辑器软件打开并在内部编辑如下内容:

<configuration>
 
<property>
   <name>yarn.server.resourcemanager.address</name>
   <value>0.0.0.0:8020</value>
</property>
 
<property>
   <name>yarn.server.resourcemanager.application.expiry.interval</name>
   <value>60000</value>
</property>
 
<property>
   <name>yarn.server.nodemanager.address</name>
   <value>0.0.0.0:45454</value>
</property>
 
<property>
   <name>yarn.nodemanager.aux-services</name>
   <value>mapreduce_shuffle</value>
</property>
 
<property>
   <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
   <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
 
<property>
   <name>yarn.server.nodemanager.remote-app-log-dir</name>
   <value>/app-logs</value>
</property>
 
<property>
   <name>yarn.nodemanager.log-dirs</name>
   <value>/dep/logs/userlogs</value>
</property>
 
<property>
   <name>yarn.server.nodemanager.remote-app-log-dir</name>
   <value>/app-logs</value>
</property>
 
<property>
   <name>yarn.server.mapreduce-appmanager.attempt-listener.bindAddress</name>
   <value>0.0.0.0</value>
</property>
 
<property>
   <name>yarn.server.mapreduce-appmanager.client-service.bindAddress</name>
   <value>0.0.0.0</value>
</property>
 
<property>
   <name>yarn.log-aggregation.retain-seconds</name>
   <value>-1</value>
</property>
 
<property>
   <name>yarn.application.classpath</name>
   <value>%HADOOP_CONF_DIR,HADOOP_COMMON_HOME%/share/hadoop/common/*,
   %HADOOP_COMMON_HOME%/share/hadoop/common/lib/*,
   %HADOOP_COMMON_HOME%/share/hadoop/hdfs/*,
   %HADOOP_COMMON_HOME%/share/hadoop/hdfs/lib/*,
   %HADOOP_COMMON_HOME%/share/hadoop/mapreduce/*,
   %HADOOP_COMMON_HOME%/share/hadoop/mapreduce/lib/*,
   %HADOOP_COMMON_HOME%/share/hadoop/yarn/*,
   %HADOOP_COMMON_HOME%/share/hadoop/yarn/lib/*</value>
</property>
 
</configuration>

  

至此,所有的配置文件都以完成,下面要进行环境变量的初始化和相关的验证

四、环境变量的初始化及相关启动

1打开cmd命令窗口,先切换到D:盘下。用cd D:\hadoop\hadoop-2.5.2\etc\hadoop目录下,执行hadoop-env.cmd命令即可初始化环境变量了。



 
 

2格式化namenode,执行%HADOOP_PREFIX%\bin\hdfs namenode -format命令即可格式化namenode



  

3启动 hdfs 进程,执行 %HADOOP_PREFIX%\sbin\start-dfs.cmd命令,这时会弹出两个命令窗口,在主窗口内用命令jps即可观察到现在启动的一些节点如下图所示:



 

可能会出现错误:如hadoop_io_nativeio_NativeIO$Windows_access0(Ljava-lang-String;I)Z

解决方法:见http://blog.csdn.net/congcong68/article/details/42043093

4启动yarn进程,执行%HADOOP_PREFIX%\sbin\start-yarn.cmd命令,这时又会弹出两个命令窗口,在主窗口内用命令jps即可观察到现在启动的一些节点如下图所示:

 

 

至此,Hadoopwin7系统下已经配置成功。

 

</div>

 

  • 大小: 51.7 KB
  • 大小: 204.2 KB
  • 大小: 196.9 KB
  • 大小: 141 KB
分享到:
评论
发表评论

文章已被作者锁定,不允许评论。

相关推荐

    hadoop-2.5.2.tar.gz

    总结来说,“hadoop-2.5.2.tar.gz”是Hadoop 2.5.2版本的完整分发包,包含了Hadoop的核心组件、配置文件和文档,适用于搭建、学习和开发分布式大数据处理环境。用户可以通过下载、解压和配置这个压缩包,深入了解和...

    hadoop-eclipse2.5.2、hadoop-eclipse2.6.0、hadoop-eclipse2.6.5

    1. **项目配置**:在Eclipse中可以直接创建Hadoop MapReduce项目,设置Hadoop集群的配置信息,如 Namenode 和 JobTracker 的地址。 2. **资源管理**:通过插件可以浏览HDFS文件系统,上传或下载文件,查看文件属性...

    hadoop2.5.2的本地模式、伪分布式集群、分布式集群和HDFS系统的高可用的环境搭建.docx

    在搭建Hadoop 2.5.2环境的过程中,我们需要经历几个关键步骤,包括本地模式、伪分布式集群和分布式集群的设置,以及HDFS系统的高可用性配置。首先,确保你的系统已经安装了JDK 1.8,因为Hive等组件需要1.7以上的版本...

    hadoop-2.5.2

    用户可以通过解压此文件来获取Hadoop的相关文件,包括配置文件、可执行程序和库文件等,然后在本地或云端环境中部署和运行Hadoop集群。 总的来说,Hadoop 2.5.2是大数据处理领域的重要里程碑,它的出现推动了大数据...

    3、大数据环境-安装Hadoop2.5.2完全分布式傻瓜教程(Virtual5+CentOS6.8).

    这份教程不是独立的完全分布式安装教程,而是在先前已经安装了VirtualBox5和CentOS6.8以及安装了Hadoop2.5.2伪分布式集群教程的基础上进行的。 知识点详细解析如下: 1. 大数据环境和Hadoop基础知识:Hadoop是一个...

    Hadoop-2.4.0+Hbase-0.94.18+Nutch-2.3集群爬虫配置攻略

    在配置文件`core-site.xml`中,需要定义默认文件系统(`fs.defaultFS`)为`hdfs://localhost:9000`,并指定Hadoop临时目录(`hadoop.tmp.dir`)的位置,例如`/opt/hadoop-2.4.0/tmp`。 在`hdfs-site.xml`中,应设置...

    hadoop-2.5.2:1.HDFS源码分析,代码注释参考自《 Hadoop2.x HDFS源码剖析》

    HDFS是一个高容错、高吞吐量的分布式文件系统,它允许在廉价硬件上运行,非常适合处理和存储大量数据。在Hadoop 2.5.2版本中,对HDFS进行了多项优化和改进,使其更加稳定和高效。 本文将重点探讨HDFS的源码分析,...

    CentOS上搭建Hadoop2.5.2_CentOS搭建hadoop_云计算_源码

    通过以上步骤,你可以在CentOS 7.0上成功搭建Hadoop 2.5.2集群,为云计算框架提供基础平台。这个过程涵盖了Linux系统管理、Java环境配置、分布式文件系统HDFS的搭建、资源调度系统YARN的配置以及MapReduce编程模型的...

    安装hadoop集群三台虚拟机

    - **HDFS配置文件(Hdfs-Site.xml)**:用于配置Hadoop分布式文件系统(HDFS)的参数,如名称节点的存储路径、数据节点的数据存储路径等。 ```xml &lt;name&gt;dfs.nameservices &lt;value&gt;hadoop-cluster1 &lt;name&gt;...

    hadoop-ecosystem-docker:Docker集群上的Hadoop开发生态系统

    Hadoop生态系统Docker介绍该项目旨在开发一种方便的工具,该工具可以在Docker容器上快速部署分布式计算和存储平台(Hadoop Ecosystem)。 它可以节省开发人员的时间,并使他们专注于代码工作。 目前,Hadoop生态系统...

    hbase安装,节点添加,移除,常见问题解决

    1. 添加节点:在新节点上完成HBase的安装和配置,然后将该节点加入到Hadoop集群中。更新HBase的`regionservers`文件,添加新节点的主机名。重启HMaster服务,HBase会自动分配工作负载到新节点。 2. 移除节点:在...

    实验2-在Hadoop平台上部署WordCount程序-孙淼1

    实验2的目的是在Hadoop平台上部署WordCount程序,以此来理解和体验云计算的基础应用。这个实验主要涉及以下几个关键知识点: 1. **Linux系统基础**:实验要求学生具备Linux系统的使用知识,包括基本的命令行操作、...

    hbase-2.2.5-bin.tar.gz

    HBase构建于Hadoop文件系统(HDFS)之上,提供高可靠性、高性能、可伸缩的数据存储。它能够支持实时读写,非常适合于大数据应用场景,如实时分析、日志处理等。 在HBase 2.2.5版本中,我们看到的是一个稳定且功能...

    英特尔Hadoop发行版 2.2 管理手册

    - 配置Hadoop分布式文件系统(HDFS)的相关设置。 - **3.5.2 MapReduce组件控制节点的配置** - 配置MapReduce作业调度和处理的参数。 - **3.5.3 Zookeeper节点的配置** - 设置Zookeeper服务,用于协调分布式应用...

    hadoop-ha-docker:Hadoop HA 码头集装箱。 在 docker hub 上作为 jurmoushadoop 可用

    jurmous/hadoop 是 Hadoop 分布式存储引擎,打包在轻量级 docker 中,并以一种方式配置为轻松运行分布式高可用性。套餐详情Java 7(最新的来自 java:7 作为基础容器) Hadoop 2.5.2 重击没有额外打包的操作系统,...

    Hadoop权威指南 第二版(中文版)

     在Apache Hadoop上的TB字节数量级排序  使用Pig和Wukong来探索10亿数量级边的 网络图  测量社区  每个人都在和我说话:Twitter回复关系图  degree(度)  对称链接  社区提取 附录A 安装Apache Hadoop  先决...

    Hadoop权威指南(中文版)2015上传.rar

    在Apache Hadoop上的TB字节数量级排序 使用Pig和Wukong来探索10亿数量级边的 网络图 测量社区 每个人都在和我说话:Twitter回复关系图 (度)degree 对称链接 社区提取 附录A 安装Apache Hadoop 附录B Cloudera’s ...

    hbase安装文档

    本文将详细介绍如何在生产环境中安装HBase,包括所需软件版本的选择,安装步骤以及配置文件的修改,以确保与Hadoop集群的无缝配合。 一、软件选型与下载 在开始安装前,我们需要准备以下软件包: 1. ZooKeeper:...

Global site tag (gtag.js) - Google Analytics