最近Hadoop社区最火热的事情莫过于Hortonworks公布了Hadoop最新版本(0.23.0),它标志着Hadoop新时代的到来。本文作为系列文章的第一篇,将结合Hadoop-0.20.*的特点,以及Hadoop核心理念,分析Hadoop新版本的特征。
1、Hadoop 0.20.*的局限性
1)扩展性问题。可以随着数据量进行水平扩展,而元数据服务器不能扩展。 2)随着文件数目的增长,元数据服务器的压力变大。据统计,2.5亿个文件在NameNode中Namespace占据 的大概64GB的内存空间。 3)文件操作的吞吐率受到单个元数据服务器的限制。目前,Hadoop 0.20.*版本可以达到120k readops/sec,6000 writeops/sec. 4)隔离性的问题。0.20.*版本中,一个NameNode对应着唯一的Namespace,所有文件、应用、用户公用同一的名字空间。存在访问权限控制的问题,不利于在HDFS在公有云环境下的应用。(ps:图1为0.20.*版本下HDFS架构图)图1 Hadoop0.20.* HDFS architecture
1)集群资源利用率较低。整个集群资源按照固定Slot为单位进行资源分配,没有考虑MapTask、ReduceTask任务的特点和逻辑关系进行不同的配置。 2)仅支持MapReduce编程模型。在Hadoop框架内实现PageRank、Logical Regression等迭代算法,需要将算法映射成MapReduce的组合、或者使用Pig、Casscading、Hive等应用层的逻辑描述,不能从模型本身去表达,算法性能受到了影响(10x slower)。 (ps:图2为0.20.*版本下MapReduce执行架构图)图2 Hadoop MapReduce执行流程图
1)JobTracker的负载较重。JobTracker负责作业和任务的初始化、以及提供TaskTracker的RPC Server、任务的调度等任务。因此,JobTracker一旦故障,所有执行的任务的状况丢失。
2)扩展性问题。JobTracker目前最多支持4000nodes、40000个concurrent tasks。2、Hadoop核心理念
- HDFS分为NameNode,DataNode。NameNode维护了名字空间(Namespace),fileName与Block映射关系,以及DataNode交互信息。DataNode是存储Block的位置,为客户端提供读取block内容的接口。
- HDFS DataNode随着数据量的大小可以实现动态扩展,配合start-balance.sh可以自由地实现节点上线和下线。
- Hadoop执行框架要遵循“计算向数据迁移”的要求。这也意味着节点上需要同时部署DataNode和任务执行节点。
- 工作节点通过RPC与中心节点交互。(NameNode与DataNode,0.20.*版本的JobTracker与TaskTracker,以及0.23的Resource Manager 与Node Manager),工作节点与中心节点的链接变成一种动态的绑定的方式进行,可以灵活支持工作节点的加入和退出。
3、Hadoop-0.23的New Features
1) Namespace与block Management解耦。 Hadoop0.20.*仅有一个NameNode,整个系统使用统一的NameSpace,系统所有对于文件的操作都要经过唯 一的Namenode来进行,造成了NameNode负载过重。图3为Namespace和Block Storage的关系图。 图3 Namespace和Block Storage
Hadoop0.23支持多个Namespace,每个NameNode都对应一个NameSpace。配置人员可以根据应用的特点,选择合适的Namespace划分的方式。所有的DataNode被全部的NameNode共享,也就是每一个NameNode中Namespace下的文件可以分散在任意的DataNode上。系统提供了一个公共的Block pools隔离了Namespace与Block交互。图4为HDFS Federation Architecture
图4 HDFS Federation Architecture
- MapReduce NextGen aka YARN
1)编程模型与运行时框架解耦。 Hadoop0.20.*运行时框架分为JobTracker和TaskTracker,JobTracker负责MapTask和ReduceTask的初始化、调度和资源分配。TaskTracker负责MapTask和ReduceTask的执行。运行环境已经烙上了MapReduce编程模型的Map->sort[->combine]->partition->shuffle->merge->reduce过程...这个运行时环境都在围绕这个过程准备,然而这种方式是hadoop在分布式计算领域扩大发展的最大瓶颈,因为如果要在Hadoop执行的任务,就需要根据不同的类型计算映射成一个或者多个MapReduce过程,而这些过程在处理迭代、更新频繁的应用时就显得过于繁琐。 Hadoop0.23最大的亮点,个人认为将JobTracker的MapReduce编程模型从运行时环境中剥离,MapReduce变成了Hadoop的编程库。从而,在运行时环境之上灵活开发MapReduce、DAG、Iterative MR等编程模型,实现对于多种应用场景的支持。
图5 Hadoop YARN Architecture
2)运行时环境的扩展性与单点故障问题。 运行时环境的扩展性是支持更多的工作节点,同时运行更多的任务。Hadoop之前版本由于是JobTracker不仅管理集群内资源分配,还要管理任务的调度,造成整个系统扩展性不强,并且JobTracker成为作为脆弱的一环。由于在JobTracker需要繁忙的信息交互,并且所有信息仅保留一份,宕机之后运行作业的信息丢失,这已经成为制约Hadoop继续扩大规模的重要影响因素。 Hadoop0.23为了解决扩展性的问题,为每一个job启动一个Application life-cycle management,负责job内任务的初始化、调度和监控,分担之前所有Job集中管理的JobTracker的负荷,Resource Manager仅仅做集群资源的管理。 Hadoop0.23为了解决单点故障问题。一是如上所说把之前作业内部任务的管理分离出去,减轻中心节点的负载。二是使用ZooKeeper集群缓存Resource Manager的状态信息,保证关键数据的可靠性,当重启之后,保证重要数据不丢失。4、参考资料
转至http://blog.sina.com.cn/s/blog_4a1f59bf01010i9r.html
分享到:
相关推荐
hadoop-0.23.0 eclipse-plugin
hadoop-annotations-3.1.1.jar hadoop-common-3.1.1.jar hadoop-mapreduce-client-core-3.1.1.jar hadoop-yarn-api-3.1.1.jar hadoop-auth-3.1.1.jar hadoop-hdfs-3.1.1.jar hadoop-mapreduce-client-hs-3.1.1.jar ...
标题中的"apache-hadoop-3.1.0-winutils-master.zip"是一个针对Windows用户的Hadoop工具包,它包含了运行Hadoop所需的特定于Windows的工具和配置。`winutils.exe`是这个工具包的关键组件,它是Hadoop在Windows上的一...
Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...
Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop ...
赠送jar包:hadoop-mapreduce-client-jobclient-2.6.5.jar; 赠送原API文档:hadoop-mapreduce-client-jobclient-2.6.5-javadoc.jar; 赠送源代码:hadoop-mapreduce-client-jobclient-2.6.5-sources.jar; 赠送...
赠送jar包:hadoop-yarn-client-2.6.5.jar; 赠送原API文档:hadoop-yarn-client-2.6.5-javadoc.jar; 赠送源代码:hadoop-yarn-client-2.6.5-sources.jar; 赠送Maven依赖信息文件:hadoop-yarn-client-2.6.5.pom;...
1. `hadoop.dll`:这是一个动态链接库文件,用于在Windows环境中提供Hadoop的相关功能。 2. `winutils.exe`:如前所述,这是Windows上的一个关键工具,用于执行Hadoop相关的系统任务,如设置HDFS的权限和管理本地...
hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包
Hadoop-Eclipse-Plugin 2.8.0的出现,反映了Hadoop生态系统从Hadoop 1到Hadoop 2的重大转变,尤其是在资源管理和任务调度方面的改进。同时,这也意味着对于那些已经习惯了Eclipse或MyEclipse的开发者来说,他们无需...
Hadoop-Eclipse-Plugin-3.1.1是一款专为Eclipse集成开发环境设计的插件,用于方便地在Hadoop分布式文件系统(HDFS)上进行开发和调试MapReduce程序。这款插件是Hadoop生态系统的组成部分,它使得Java开发者能够更加...
赠送jar包:hadoop-mapreduce-client-common-2.6.5.jar; 赠送原API文档:hadoop-mapreduce-client-common-2.6.5-javadoc.jar; 赠送源代码:hadoop-mapreduce-client-common-2.6.5-sources.jar; 赠送Maven依赖信息...
Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar
在这个特定的兼容包中,我们可以看到两个文件:flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar(实际的兼容库)和._flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar(可能是Mac OS的元数据文件,通常...
Hadoop 2.7.3 Windows64位 编译bin(包含winutils.exe, hadoop.dll),自己用的,把压缩包里的winutils.exe, hadoop.dll 放在你的bin 目录 在重启eclipse 就好了
1. 解压`hadoop-common-2.6.0-bin-master.zip`到你选择的目录,例如`C:\hadoop\hadoop-2.6.0`。 2. 打开系统属性,进入“高级”选项卡,点击“环境变量”按钮。 3. 在系统变量部分,找到名为`Path`的变量,点击...
hadoop-eclipse-plugin-3.1.3,eclipse版本为eclipse-jee-2020-03
《Spark 3.2.0 与 Hadoop 3 的集成——无 Hive 版本解析》 Spark,作为大数据处理领域的重要工具,以其高效的内存计算和分布式数据处理能力备受青睐。Spark 3.2.0 是一个重要的版本更新,它在性能、稳定性和功能上...
Apache Flink 是一个流行的开源大数据处理框架,而 `flink-shaded-hadoop-2-uber-2.7.5-10.0.jar.zip` 文件是针对 Flink 优化的一个特殊版本的 Hadoop 库。这个压缩包中的 `flink-shaded-hadoop-2-uber-2.7.5-10.0....
赠送jar包:hbase-hadoop2-compat-1.2.12.jar; 赠送原API文档:hbase-hadoop2-compat-1.2.12-javadoc.jar; 赠送源代码:hbase-hadoop2-compat-1.2.12-sources.jar; 赠送Maven依赖信息文件:hbase-hadoop2-compat-...