参考hadoop文档https://hadoop.apache.org/docs/r2.6.5/hadoop-project-dist/hadoop-common/SingleCluster.html
1、本地模式下运行MapReduce
因hadoop是java编写的,本地模式仅需要配置java环境即可
配置文件etc/hadoop/hadoop-env.sh,设置java路径,既可允许
export JAVA_HOME=/usr/java/latest
ex:
$ mkdir input
$ cp etc/hadoop/*.xml input
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar grep input output 'dfs[a-z.]+'
$ cat output/*
2、在HDFS模式下运行MapReduce
HDFS模式需要namenode和datanode运行方可以正常允许
先配置HDFS访问端口及文件存储位置
core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://域名或ip或主机名:9000</value>//hdfs 对外暴露端口
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoop-${user.name}</value> //文件存储路径
</property>
</configuration>
配置每个文件的副本数量
hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>//副本存储个数
<value>1</value>
</property>
<property>
<name>dfs.nameservices</name> //dfs服务暴露的IP和端口
<value>域名或ip或主机名:9000</value>
</property>
<property>
<name>dfs.namenode.datanode.registration.ip-hostname-check</name>//启动namenode检查服务器
<value>false</value>
</property>
</configuration>
格式化文件系统
bin/hdfs namenode -format
启动namenode
sbin/hadoop-deamon.sh start namenode
启动datanode
sbin/hadoop-deamon.sh start datanode
以下已例子
ex:
bin/hdfs dfs -mkdir -p /usr/sunbin/mapreduce/wordcount/input
bin/hdfs dfs -ls -R /
bin/hdfs dfs -put wcinput/wcinput /usr/sunbin/mapreduce/wordcount/input
//-mkdir -p递归创建文件夹;-ls -R递归查看
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.X.X.jar wordcount /usr/sunbin/mapreduce/wordcount/input /usr/sunbin/mapreduce/wordcount/output
使用bin/yarn也可以执行。
3、通过yarn的调度执行MapReduce
设置yarn的java环境(可改可不改)、
yarn-env.sh
export JAVA_HOME=?
yarn主要是对节点(主机)的管理和对资源的分配,需要对nodemanager,resourcemanager进行配置
yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>0.0.0.0(机器名)</value>
</property>
</configuration>
指定mapreduce的允许方式,这里mapreduce是运行在yarn环境里面
mapred-env.sh(可改可不改)
export JAVA_HOME=?
mapred-site.xml:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
指定允许的节点,在slaves配置机器因为是单节点,所以只写一个。
本机名或0.0.0.0或ip
以下是运行的示例
ex:
sbin/yarn-demon.sh start resourcemanager
sbin/yarn-demon.sh start nodemanager
bin/hdfs dfs -rm -r /usr/sunbin/mapreduce/wordcount/output
bin/yarn jar -rm -r /usr/sunbin/mapreduce/wordcount/output
相关推荐
Hadoop学习笔记,自己总结的一些Hadoop学习笔记,比较简单。
Hadoop 学习笔记.md
**Hadoop学习笔记详解** Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储海量数据。它的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce,两者构成了大数据处理的基础...
《Hadoop学习笔记详解》 Hadoop,作为大数据处理领域中的核心框架,是Apache软件基金会下的一个开源项目,主要用于分布式存储和并行计算。本文将根据提供的Hadoop学习笔记,深入解析Hadoop的关键概念和实战技巧,...
1. HDFS(Hadoop Distributed File System):这是一个高度容错的系统,设计用来运行在廉价的硬件上。HDFS具有高吞吐量的特点,适合于有大量数据的应用程序。HDFS将数据存储为一系列的块,这些块默认大小为128MB,...
云计算,hadoop,学习笔记, dd
我学习hadoop的笔记,并在公司做的报告,给大家共享下
【HADOOP学习笔记】 Hadoop是Apache基金会开发的一个开源分布式计算框架,是云计算领域的重要组成部分,尤其在大数据处理方面有着广泛的应用。本学习笔记将深入探讨Hadoop的核心组件、架构以及如何搭建云计算平台。...
在本篇"Hadoop学习笔记(三)"中,我们将探讨如何使用Hadoop的MapReduce框架来解决一个常见的问题——从大量数据中找出最大值。这个问题与SQL中的`SELECT MAX(NUMBER) FROM TABLE`查询相似,但在这里我们通过编程...
在初学者的角度,理解Hadoop的组成部分以及其架构设计是学习Hadoop的基础。 首先,Hadoop的分布式文件系统(HDFS)是其核心组件之一,它具有高吞吐量的数据访问能力,非常适合大规模数据集的存储和处理。HDFS的设计...
"Hadoop学习笔记整理" 本篇笔记对Hadoop进行了系统的介绍和总结,从大数据的基本流程到Hadoop的发展史、特性、集群整体概述、配置文件、HDFS分布式文件系统等方面都进行了详细的讲解。 一、大数据分析的基本流程 ...
这是自己学习大数据时整理的笔记,希望能够不使用资源分,免费分享!
hadoop学习笔记,分天学习,原创,亲测,放心使用,没问题。
《深入理解Hadoop分布式系统》 ...Hadoop的学习是一个逐步深入的过程,涵盖分布式存储、计算模型、资源调度等多个方面,理解其工作原理和最佳实践,对于在大数据环境中构建高效稳定的系统至关重要。