<div class="iteye-blog-content-contain" style="font-size: 14px">
Hadoop-2.5.2可以在win10系统上直接运行,而不需要Cygwin。下面来介绍配置过程:
一、下载Hadoop-2.5.2
在http://hadoop.apache.org/releases.html网址中可以找到Hadoop的相关版本点击进行下载
二、解压下载后的文件
(如hadoop-2.5.2.tar.gz)到指定的目录,例如我的在
D:\hadoop\hadoop-2.5.2下。
三、配置相关文件
1、配置hadoop-env.cmd文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop中)
用一种编辑器软件打开并在最后加上如下几句:
set HADOOP_PREFIX=D:\hadoop\hadoop-2.5.2 set HADOOP_CONF_DIR=%HADOOP_PREFIX%\etc\hadoop set YARN_CONF_DIR=%HADOOP_CONF_DIR% set PATH=%PATH%;%HADOOP_PREFIX%\bin
2、配置core-site.xml文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop中)
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/hadoop/sysdata/tmp</value> </property> <property> <name>fs.default.name</name> <value>hdfs://0.0.0.0:19000</value> </property> </configuration>
3、配置hdfs-site.xml文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop下
用一种编辑器软件打开并在内部编辑如下语句:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/hadoop/sysdata/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/hadoop/sysdata/hdfs/data</value> </property> </configuration>
4、配置mapred-site.xml文件(该文件在D:\hadoop\hadoop-2.5.2\etc\hadoop下)
用一种编辑器软件打开并在内部编辑如下语句:
<configuration> <property> <name>mapreduce.job.user.name</name> <value>%Administrator%</value> </property> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>yarn.apps.stagingDir</name> <value>/user/%Administrator%/staging</value> </property> <property> <name>mapreduce.jobtracker.address</name> <value>local</value> </property> </configuration>
5、配置yarn-site.xml文件(该文件在e:/hadoop/deploy/etc/hadoop下)
用一种编辑器软件打开并在内部编辑如下内容:
<configuration> <property> <name>yarn.server.resourcemanager.address</name> <value>0.0.0.0:8020</value> </property> <property> <name>yarn.server.resourcemanager.application.expiry.interval</name> <value>60000</value> </property> <property> <name>yarn.server.nodemanager.address</name> <value>0.0.0.0:45454</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.server.nodemanager.remote-app-log-dir</name> <value>/app-logs</value> </property> <property> <name>yarn.nodemanager.log-dirs</name> <value>/dep/logs/userlogs</value> </property> <property> <name>yarn.server.nodemanager.remote-app-log-dir</name> <value>/app-logs</value> </property> <property> <name>yarn.server.mapreduce-appmanager.attempt-listener.bindAddress</name> <value>0.0.0.0</value> </property> <property> <name>yarn.server.mapreduce-appmanager.client-service.bindAddress</name> <value>0.0.0.0</value> </property> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>-1</value> </property> <property> <name>yarn.application.classpath</name> <value>%HADOOP_CONF_DIR,HADOOP_COMMON_HOME%/share/hadoop/common/*, %HADOOP_COMMON_HOME%/share/hadoop/common/lib/*, %HADOOP_COMMON_HOME%/share/hadoop/hdfs/*, %HADOOP_COMMON_HOME%/share/hadoop/hdfs/lib/*, %HADOOP_COMMON_HOME%/share/hadoop/mapreduce/*, %HADOOP_COMMON_HOME%/share/hadoop/mapreduce/lib/*, %HADOOP_COMMON_HOME%/share/hadoop/yarn/*, %HADOOP_COMMON_HOME%/share/hadoop/yarn/lib/*</value> </property> </configuration>
至此,所有的配置文件都以完成,下面要进行环境变量的初始化和相关的验证
四、环境变量的初始化及相关启动
1、打开cmd命令窗口,先切换到D:盘下。用cd D:\hadoop\hadoop-2.5.2\etc\hadoop目录下,执行hadoop-env.cmd命令即可初始化环境变量了。
2、格式化namenode,执行%HADOOP_PREFIX%\bin\hdfs namenode -format命令即可格式化namenode
3、启动 hdfs 进程,执行 %HADOOP_PREFIX%\sbin\start-dfs.cmd命令,这时会弹出两个命令窗口,在主窗口内用命令jps即可观察到现在启动的一些节点如下图所示:
可能会出现错误:如hadoop_io_nativeio_NativeIO$Windows_access0(Ljava-lang-String;I)Z
解决方法:见http://blog.csdn.net/congcong68/article/details/42043093
4、启动yarn进程,执行%HADOOP_PREFIX%\sbin\start-yarn.cmd命令,这时又会弹出两个命令窗口,在主窗口内用命令jps即可观察到现在启动的一些节点如下图所示:
至此,Hadoop在win7系统下已经配置成功。
</div>
相关推荐
总结来说,“hadoop-2.5.2.tar.gz”是Hadoop 2.5.2版本的完整分发包,包含了Hadoop的核心组件、配置文件和文档,适用于搭建、学习和开发分布式大数据处理环境。用户可以通过下载、解压和配置这个压缩包,深入了解和...
1. **项目配置**:在Eclipse中可以直接创建Hadoop MapReduce项目,设置Hadoop集群的配置信息,如 Namenode 和 JobTracker 的地址。 2. **资源管理**:通过插件可以浏览HDFS文件系统,上传或下载文件,查看文件属性...
在搭建Hadoop 2.5.2环境的过程中,我们需要经历几个关键步骤,包括本地模式、伪分布式集群和分布式集群的设置,以及HDFS系统的高可用性配置。首先,确保你的系统已经安装了JDK 1.8,因为Hive等组件需要1.7以上的版本...
用户可以通过解压此文件来获取Hadoop的相关文件,包括配置文件、可执行程序和库文件等,然后在本地或云端环境中部署和运行Hadoop集群。 总的来说,Hadoop 2.5.2是大数据处理领域的重要里程碑,它的出现推动了大数据...
这份教程不是独立的完全分布式安装教程,而是在先前已经安装了VirtualBox5和CentOS6.8以及安装了Hadoop2.5.2伪分布式集群教程的基础上进行的。 知识点详细解析如下: 1. 大数据环境和Hadoop基础知识:Hadoop是一个...
在配置文件`core-site.xml`中,需要定义默认文件系统(`fs.defaultFS`)为`hdfs://localhost:9000`,并指定Hadoop临时目录(`hadoop.tmp.dir`)的位置,例如`/opt/hadoop-2.4.0/tmp`。 在`hdfs-site.xml`中,应设置...
HDFS是一个高容错、高吞吐量的分布式文件系统,它允许在廉价硬件上运行,非常适合处理和存储大量数据。在Hadoop 2.5.2版本中,对HDFS进行了多项优化和改进,使其更加稳定和高效。 本文将重点探讨HDFS的源码分析,...
通过以上步骤,你可以在CentOS 7.0上成功搭建Hadoop 2.5.2集群,为云计算框架提供基础平台。这个过程涵盖了Linux系统管理、Java环境配置、分布式文件系统HDFS的搭建、资源调度系统YARN的配置以及MapReduce编程模型的...
- **HDFS配置文件(Hdfs-Site.xml)**:用于配置Hadoop分布式文件系统(HDFS)的参数,如名称节点的存储路径、数据节点的数据存储路径等。 ```xml <name>dfs.nameservices <value>hadoop-cluster1 <name>...
Hadoop生态系统Docker介绍该项目旨在开发一种方便的工具,该工具可以在Docker容器上快速部署分布式计算和存储平台(Hadoop Ecosystem)。 它可以节省开发人员的时间,并使他们专注于代码工作。 目前,Hadoop生态系统...
1. 添加节点:在新节点上完成HBase的安装和配置,然后将该节点加入到Hadoop集群中。更新HBase的`regionservers`文件,添加新节点的主机名。重启HMaster服务,HBase会自动分配工作负载到新节点。 2. 移除节点:在...
实验2的目的是在Hadoop平台上部署WordCount程序,以此来理解和体验云计算的基础应用。这个实验主要涉及以下几个关键知识点: 1. **Linux系统基础**:实验要求学生具备Linux系统的使用知识,包括基本的命令行操作、...
HBase构建于Hadoop文件系统(HDFS)之上,提供高可靠性、高性能、可伸缩的数据存储。它能够支持实时读写,非常适合于大数据应用场景,如实时分析、日志处理等。 在HBase 2.2.5版本中,我们看到的是一个稳定且功能...
- 配置Hadoop分布式文件系统(HDFS)的相关设置。 - **3.5.2 MapReduce组件控制节点的配置** - 配置MapReduce作业调度和处理的参数。 - **3.5.3 Zookeeper节点的配置** - 设置Zookeeper服务,用于协调分布式应用...
jurmous/hadoop 是 Hadoop 分布式存储引擎,打包在轻量级 docker 中,并以一种方式配置为轻松运行分布式高可用性。套餐详情Java 7(最新的来自 java:7 作为基础容器) Hadoop 2.5.2 重击没有额外打包的操作系统,...
在Apache Hadoop上的TB字节数量级排序 使用Pig和Wukong来探索10亿数量级边的 网络图 测量社区 每个人都在和我说话:Twitter回复关系图 degree(度) 对称链接 社区提取 附录A 安装Apache Hadoop 先决...
在Apache Hadoop上的TB字节数量级排序 使用Pig和Wukong来探索10亿数量级边的 网络图 测量社区 每个人都在和我说话:Twitter回复关系图 (度)degree 对称链接 社区提取 附录A 安装Apache Hadoop 附录B Cloudera’s ...
本文将详细介绍如何在生产环境中安装HBase,包括所需软件版本的选择,安装步骤以及配置文件的修改,以确保与Hadoop集群的无缝配合。 一、软件选型与下载 在开始安装前,我们需要准备以下软件包: 1. ZooKeeper:...