`
coderplay
  • 浏览: 575106 次
  • 性别: Icon_minigender_1
  • 来自: 广州杭州
社区版块
存档分类
最新评论

HDFS的一致性分析

阅读更多
这篇文章去年4月左右写的, 一直留在我的草稿箱, 一直没有写完

在分析HDFS的一致性之前, 我们先得解决HDFS客户端行为的几个问题。

1. 为什么HDFS不支持多个writer同时写一个文件,即不支持并发写?
首先谈一谈HDFS产生的历史。HDFS是根据Google的GFS论文所实现的, 初期时它的主要设计目标是为了存储MapReduce所操作的大型数据集。我们知道在Hadoop中, 每道Mapreduce作业的写操作一般发生在reduce阶段(如果是只含map的作业,则在map阶段)。一般情况下, 各个reducer的结果将分别写入一个HDFS文件当中。此处可能会产生一个疑问: 为什么不是所有reducer的结果写入同一个HDFS文件呢? 显然, 多个reducer对同一文件执行写操作,即多个writer同时向HDFS的同一文件执行写操作, 这需要昂贵的同步机制不说, 最重要的是这种做法将各reducer的写操作顺序化, 不利于各reduce任务的并行。 因此, HDFS没有必要支持多个writer, 单个writer就可以满足Hadoop的需要。

2. 为什么HDFS在后期加上了对文件追加(append)操作的支持?
我们知道HDFS在0.19.0版以前是不支持文件追加操作的。HDFS设计文档上写着: HDFS的应用程序需要对文件实行一次性写,多次读的访问模式。文件一旦建立,然后写入,关闭, 不需要再更改。这样的假定简化了数据一致性问题并使高数据吞吐量成为可能。MapReduce程序或者网络爬虫程序就很适合使用这样的模型。当然未来计划支持增量写。
https://issues.apache.org/jira/browse/HADOOP-1700
http://lucene.472066.n3.nabble.com/HDFS-appending-writes-status-td648274.html#a648274

3. 为什么追加操作也只能是单个writer?
社区有人希望HDFS能实现原子追加操作, 因为GFS实现了原子追加。但Owen O'malley认为原子追加对于文件系统的设计和文件系统的用户接口来说,都不是件好事。而且, 他们(指Google)在MapReduce之前就已经给GFS加上了原子追加操作。编写MapReduce可以比使用原子追加更好地服务于大多数应用程序。Owen O'malley原文:"My personal inclination is that atomic append does very bad things to both the design of the file system and the user interface to the file system. Clearly they added atomic append to GFS before they had MapReduce. It seems like most applications would be better served by implementing in MapReduce rather than using atomic append anyways..."

以下是对Google工程师关于GFS2.0设计的一段采访问内容
http://queue.acm.org/detail.cfm?id=1594206
QUINLAN At the time, [RecordAppend] must have seemed like a good idea, but in retrospect I think the consensus is that it proved to be more painful than it  was worth. It just doesn't meet the expectations people have of a file system, so they end up getting surprised. Then they had to figure out work-arounds.
那时候,记录追加看上去像是一个不错的主意, 但是回顾以往,我们达成这样的一致: 事实证明它带来的痛苦比带来的好处多。它不符合文件系统用户的期望,所以


MCKUSICK In retrospect, how would you handle this differently?

QUINLAN I think it makes more sense to have a single writer per file.

MCKUSICK All right, but what happens when you have multiple people wanting to append to a log?
好的,  那多个用户需要追加一个日志怎么办?

QUINLAN You serialize the writes through a single process that can ensure the replicas are consistent.
你序列化写操作至单个进程,此进程可以确保副本是保持一致的。

4. 像HDFS这种应用,在一致性上要保证的是什么?
HDFS作为一个文件系统,应当保证文件内容的顺序性.



HDFS加上追加操作会给一致性带来哪些挑战?
在特定时间里,文件最末块的各副本可能会有不同的字节数。HDFS要提供什么样的读一致,以及怎么保证一致性,即使碰到故障。

HDFS的一致性基础

当客户端读取某DataNode上的副本时,此DataNode并不会让其所有接收到的字节对客户端可见。
每个RBW副本维持两个计数器:
1. BA: 下游DataNode已经应答的字节数。即DataNode使其对任何reader可见的那些字节。以下,我们可以用副本的可见长度代指它。
2. BR: 为此块接收到的字节数,包括已经写入至块文件的字节以及缓存在DataNode的字节。
假设初始时管线内所有DataNode有(BA, BR) = (a, a)。则客户端向管线推入一个b字节的包并且在客户端没收到此包的应答之前不向管线推入其它包,有:
1. 完成1.a后, DataNode将其(BA, BR)变为(a, a+b)
2. 完成3.a后, DataNode将其(BA, BR)变为(a+b, a+b).
3. 当代表操作成功的应答发回客户端时,管线上的所有DataNode都有(BA, BR) = (a+b, a+b).
一条具有N个DataNode管线,DN0, …, DNi, …,DNN-1。其中DN0代表管线上的第一个DataNode,即最接近writer的那个DataNode,它在任意指定时间t都有如下属性:



HDFS提供怎么样的写一致性?


HDFS提供怎么样的读一致性?

分享到:
评论
1 楼 langyu 2011-08-25  
我觉着HDFS的这些业务特征还是由GFS的两条设计需求来决定的:1.大文件。2. 写一次读多次。最终目标目的还是为了大文件的高吞吐量。

而HDFS是开源实现,规避了GFS由DN主导的lease机制,我觉着可能是实现起来太复杂了吧。

相关推荐

    HDFS可靠性策略

    HDFS 提供了主备 NameNode 实时切换机制,可以搭建 HA 高可用,两个 NameNode 同时存在,一主一备,两个 NameNode 元数据保持高度一致性。一旦主 NameNode 出现问题,马上切换到备用 NameNode。 其他高可靠性机制 ...

    Hadoop之HDFS源代码分析 pdf

    ZooKeeper是一个分布式协调服务,用于解决分布式系统中的一致性问题。HBase是一个基于列的分布式数据库,提供快速随机访问和大规模数据分析。HDFS是一个高吞吐量的分布式文件系统,是GFS的开源实现。 在Hadoop中...

    HDFS存储系统技术分析

    “一次写入,多次读取”的模型,保证了数据一致性;以及对大规模数据处理的优化,适应于低成本硬件环境,易于扩展。此外,HDFS支持shell命令行操作,便于用户交互,并且其Java实现使其能跨平台运行。 为了监控HDFS...

    Hadoop源代码分析之HDFS篇.

    5. **数据一致性**:在多用户并发写入和读取的情况下,HDFS如何保证数据的一致性和正确性? 6. **容错和扩展性**:HDFS如何处理硬件故障,以及如何随着集群规模的扩大而扩展? 7. **MapReduce与HDFS的交互**:在...

    Hadoop源码分析HDFS数据流

    在整个数据流过程中,HDFS 使用了 pipeline 机制来确保数据的可靠性和一致性。每个 DataNode 都负责处理数据流,并将数据备份到下一个 DataNode,直到最后一个 DataNode。同时,每个 DataNode 都会将写入数据的响应...

    kafka_hdfs_consumer

    在实际操作中,`kafka_hdfs_consumer`可能还会利用Zookeeper进行协调,保证消费的顺序性和一致性,以及使用Hadoop的MapReduce或Spark等框架进行更复杂的批处理和数据分析。整个流程需要考虑到数据量大、实时性高和...

    高可用性的HDFS:Hadoop分布式文件系统深度实践

    3.1.5 元数据一致性机制 3.2 使用说明 第4章 Hadoop的Backup Node方案 4.1 Backup Node概述 4.1.1 系统架构 4.1.2 使用原则 4.1.3 优缺点 4.2 运行机制分析 4.2.1 启动流程 4.2.2 元数据操作情景分析 4.2.3 日志池...

    hdfs官方文档 Hadoop分布式文件系统:结构与设计.pdf

    Hadoop分布式文件系统(HDFS)是为处理大规模数据集而设计的一种高容错性的分布式存储系统。HDFS源于Apache Nutch项目,是Hadoop项目...通过流式数据访问和简单的一致性模型,HDFS成为了大数据分析领域的重要基础设施。

    分布式文件系统HDFS的分析.pdf

    总之,HDFS是一个高度可扩展、容错性强的分布式文件系统,它通过简化数据一致性模型,有效地提升了大数据存储和处理的性能。HDFS能够满足大规模数据处理场景下的存储需求,并且由于其高可靠性、易扩展性和简便性,...

    HDFS源码解析

    同时,通过 Lease 管理机制,保证文件的并发控制和一致性。 通过阅读和理解Hadoop源码分析-HDFS部分.pdf文档,我们可以更深入地理解这些组件的工作原理,掌握HDFS在处理大数据时的内部机制。这对于我们优化HDFS的...

    hadoop的HDFS

    这种设计简化了文件系统的复杂性,增强了数据一致性。 6. NameNode高可用:为了防止单点故障,Hadoop引入了备用NameNode(Secondary NameNode),定期合并编辑日志(edits log)和fsimage,提供对NameNode的热备份...

    基于Python爬虫和HDFS的招聘信息采集与存储系统.zip

    此外,系统在设计时应考虑数据清洗和预处理环节,因为网络爬取的数据往往包含噪声和不一致性。例如,某些招聘信息可能使用非标准格式或包含特殊字符,需要在导入HDFS前进行标准化处理。同时,为了保证系统的稳定运行...

    Hadoop源代码分析之HDFS篇

    - 目录树和文件名的更新操作则通过操作日志来记录,以保证数据的一致性和恢复能力。 - 数据块到DataNode列表的映射关系,这些信息不是永久存储的,而是通过DataNode的定期报告来动态维护。 #### DataNode设计详解 ...

    hdfs.dll hdfs.lib

    在IT行业中,Hadoop是一个广泛使用的开源框架...你需要在各种场景下测试你的客户端,包括正常操作、网络故障恢复、数据一致性检查等。通过模拟不同的故障情况,你可以验证你的客户端是否能够优雅地处理异常并恢复服务。

    对象存储服务OBSA-HDFS使用指南1

    这种集成的优势在于,用户可以利用OBS的高可用性、弹性扩展性和全球一致性访问来优化大数据处理的性能和成本。 然而,值得注意的是,华为对此文档内容不做任何明示或默示的声明或保证,因此在使用过程中可能会遇到...

Global site tag (gtag.js) - Google Analytics