`
ycyxb104
  • 浏览: 26613 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

谷歌三大论文之---Google File System

阅读更多

Google0306年发表了著名的三大论文——GFSBigTableMapReduce,用来实现一个大规模的管理计算系统。

今天先来谈谈GFS。因为论文里大段大段的文字加上专业术语读起来对我来说还是有一定困难的,这几篇论文我粗略地看了一遍,然后查询了一些资料,把我的理解以及把论文里一些原文提取出来整合了一下。把每个知识点单独列出来再分为更小的知识点,这样觉得比较容易理解。如果什么地方有理解错误的话,也请大家见谅。

 

谷歌之所以现在能称霸世界搜索引擎市场,最重要的技术就是GFSGFSgoogle分布式存储的基石,其他存储系统,比如Googlebigtablemegastorepercolator均直接或者间接的构建在GFS上。Google File System那么被人称道的原因就是它是Google集群技术的核心。

一、GFS的设计目标

Google File System是一个面向密集应用的,可伸缩的大规模分布式文件系统以满足其庞大的储存需求GFS与之前的分布式文件系统具有以下不同

1、组件失效被认为是常态事件,而不是意外事件

Google的一个应用至少有成百上千台服务器正在运转,同时也有一定数量级的用户进行访问,而系统不能保证时时刻刻每台服务器都运转正常,任意时刻下某个服务器都有可能因为人为操作的失误、程序的bug、操作系统的bug、硬件或者网络的问题,导致组件失效。即使昂贵的硬件设备也不能完全阻止这种情况发生,所以GFS使用多个廉价的磁盘驱动器来组成存储设备。为了对抗组件的失效,GFS中包含了监视、错误侦测、容错以及自动修复的机制。

2、系统存储一定量的大文件,数GB的文件非常普遍

因为GFS处理的都是大规模的数据集,以后面对的基本是数百GB级别的数据,所以设计的假设条件和参数,比如I/O操作和Block的尺寸都需要重新考虑。虽然GFS支持对以KB计算的小文件进行处理,但是这样做效率并不高。

3、系统的工作负载的读操作主要有两种:大规模的流式读取和小规模的随机读取。

大规模的流式读取通常一次读取1MB甚至更多的数据。来自同一个客户机的连续操作通常是读取同一个文件中的连续的一个区域。小规模的随机读取通常是在文件某个随即位置读取几个KB的数据。

所以,如果应用程序对性能非常关注,通常的做法是把小规模的随机读取操作合并并且排序,之后按顺序批量读取,这样就避免了在文件中前后来回移动读取位置。

4、绝大部分文件的修改是采用在文件尾部追加数据,而不是覆盖原有数据的方式。

Google应用中对大部分文件的修改,不是覆盖原有数据,而是在文件尾追加新数据。对文件的随机写是几乎不存在的,一个文件一旦被写好,只是被连续地读取。对于海量文件的访问模式,客户端对数据块缓存已经没有意义。

5、应用程序和文件系统的API的协同设计提高了系统的灵活性

Google希望通过简化GFS的一致性模型来简化文件系统,而不是给应用程序太多压力。由于同时读写数据的客户端很多,因此使用最小的同步开销来实现的原子的多路追加数据操作是必不可少的,所以数据的追加操作是性能优化和原子性保证的主要考量因素。

6、高性能的稳定网络带宽远比低延迟重要。

大多数的应用程序都是高速地处理大量数据,而对每一次的读写操作没有严格的时间要求。 目标程序(客户端)绝大部分要求能够高速率的、大批量的处理数据,高性能稳定的网络带宽比延迟更重要。 

7GFS提供了快照操作

GFS中的快照功能是非常强大的,可以非常快的对文件或者目录进行拷贝,并且不影响当前的操作(读、写、复制)。快照也能以很低的成本创建一个文件或者目录树的拷贝。

 

二、GFS架构

一个GFS集群包含了一个单独的Master节点(Master)、多台Chunk服务器Chunkserver),并且同时被多个客户端Client)访问。

Master:管理元数据、整体协调系统活动

ChunkServer:存储维护数据块,读写文件数据

Client:向Master请求元数据,并根据元数据访问对应ChunkServerChunk

  

1、GFS文件的存储方法

GFS存储的文件都被分割成固定大小的块(Chunk),之后Master服务器会给每个Chunk分配一个不变的、全球唯一的64Chunk标识。Chunk服务器把Chunklinux文件的形式保存在本地硬盘上,并根据指定的Chunk标识来读写Chunk数据。

出于可靠性考虑,每个Chunk都会复制到多个Chunk服务器上(缺省时为3个)。

2、Master节点职责

(1)管理所有文件系统的元数据,如名字空间(namespace)、访问控制信息、文件和Chunk的映射信息、以及当前Chunk的位置信息。

(2)管理系统范围内的活动,如Chunk租用(lease)管理、孤立Chunk的回收、以及ChunkChunk服务器之间的迁移。

(3)使用心跳信息周期地和每个Chunk服务器通讯,发送指令到各个Chunk服务器并接受Chunk服务器的状态信息。

3、客户端

(1)GFS客户端和Master节点的通信只获取元数据,所有的数据操作都是由客户端直接和Chunk服务器进行交互的。

(2)GFS客户端代码以库的形式被链接到客户端程序里,客户端代码实现了GFS文件系统的API接口函数、应用程序与Master节点和Chunk服务器的通讯、以及对数据进行读写操作。

(3)客户端缓存数据几乎没有什么用处,因为大部分程序要么以流的方式读取一个巨大文件,要么工作集太大根本无法被缓存。但是客户端会缓存元数据

 

三、GFS架构各模块

单一Master节点:

单一的Master节点可以通过全局的信息精确定位Chunk的位置以及进行复制决策。

另外,我们必须减少对Master节点的读写,避免Master节点成为系统的瓶颈。

客户端并不通过Master节点读写文件数据。反之,客户端向Master节点读写文件数据。反之,客户端向Master节点询问它应该联系的Chunk服务器。客户端将这些元数据信息缓存一段时间,后续的操作将直接和Chunk服务器进行数据读写操作。

 

客户端读取数据流程:

首先,客户端把文件名和程序指定的字节偏移,根据固定的Chunk大小,转换成文件的Chunk索引。

其次,它把文件名和Chunk索引发送给Master节点。

然后Master节点将相应的Chunk标识和副本的位置信息发还给客户端。客户端用文件名和Chunk索引作为key缓存这些信息。

最后,客户端发送请求到其中一个副本处,一般会选择最近的。

 

Chunk尺寸:

由于GFS主要面向大文件存储和大规模读写操作,所以其选择了远大于一般文件系统的64MBChunk尺寸。 

好处

(1)减少了客户端与Master节点通讯的需求。

(2)客户端可以与一个Chunk进行多次操作,这样就可以通过Chunk服务器保持较长的TCP连接,减少网络负载。

(3)可以减少Master节点需要保存的元数据的数量。

坏处

(1)易产生数据碎片。

(2)小文件占用Chunk少,对小文件的频繁访问会几种在少数ChunkServer上,从而产生小文件访问热点。

可能解决的方案:

(1)增大小文件复制参数。

(2)客户端间互传数据。

 

元数据存储方式:

命名空间、文件和Chunk的对应关系的存储方式:

内存:真实数据;

磁盘:定期Checkpoint(压缩B树)和上次CheckPoint后的操作日志;

多机备份:Checkpoint文件和操作日志。

Chunk位置信息的存储方式:

内存:真实数据

磁盘:不持久存储

 

Master不会持久保存Chunk位置信息,系统启动和新Chunk服务器加入时向各个Chunk服务器轮训它们所存储的Chunk信息。而且通过周期性的心跳信息监控Chunk服务器状态(数据同步问题一并解决)。

 

内存中的数据结构:

所有元数据保存在内存中,所以Master服务器的操作速度非常快。并且,Master服务器可以在后台简单而高效地周期性扫描自己保存的全部信息。

将元数据全部保存在内存中的方法有潜在问题:Chunk的数量以及整个系统的承载能力都受限于Master服务器所拥有的内存大小。但是在实际应用中,这并不是一个严重的问题。Master服务器只需要不到64个字节的元数据就能够管理一个64MBChunk

 

四、一致性模型

我的理解是Master对于namespace的修改具有原子性,namespace在逻辑上可以理解为一张查找表,可以将路径名与元数据相映射。

比如说,当两个用户在应用程序中同时同一块文件区域写入了数据,或者一个用户和另外一名用户在同一时刻同一块文件区域分别进行了读写操作,为了确保数据的读写正确,必须要保证数据的一致性。

  

文件状态:

一致的(串行/并行追加写:如果所有客户端,无论从哪个副本读取,独到的数据都一样。

已定义的(串行随机写):如果对文件的数据修改之后,region是一致的,并且客户端能够看到写入操作全部的内容

一致但未定义(并行随机写):并行修改操作成功完成之后,所有的客户端看到同样的数据,但是无法读到任何一次写入操作写入的数据。

不一致(修改失败)file region内包含了来自多个修改操作的、混杂的数据片段或者不同的客户在不同的时间会看到不同的数据。

 

数据修改操作分为写入或者记录追加两种。写入操作把数据卸载应用程序指定的文件偏移位置上。即使有多个修改操作并行执行时,记录追加操作至少可以把数据原子性的追加到文件中一次,但是偏移位置是由GFS选择的。

GFS返回给客户端一个偏移量,表示了包含写入记录的、已定义的region的起点。

经过了一系列的成功的修改操作之后,GFS确保被修改的file region是已定义的,并且饱含最后一次修改操作写入的数据。GFS通过以下措施确保上述行为:

(1)Chunk的所有副本的修改操作顺序一致

(2)使用Chunk的版本号来检测副本是否因为它所在的Chunk服务器宕机而错过了修改操作而导致其失效。

 

对失效副本的处理:

失效的副本不会再进行任何修改操作,Master服务器也不再返回这个Chunk副本的位置信息给客户端。它们会被垃圾收集系统尽快回收。

 

即使在修改操作成功执行很长时间之后,组件的失效也可能损坏或者删除数据。GFS通过Master服务器和所有Chunk服务器的定期“握手”来找 到失效的Chunk服务器,并且使用Checksum来校验数据是否损坏。一旦发现问题,数据要尽快利用有效的副本进行恢复。只有当一个Chunk的所有副本在GFS检测到错误并采取应对措施之前全部丢失,这个Chunk不可逆转的丢失。在一般情况下GFS的反应时间(译者注:指Master节点检测到错误并采取应对措施) 是几分钟。即使在这种情况下,Chunk也只是不可用了,而不是损坏了:应用程序收到明确的错误信息而不是损坏的数据。

 

从程序实现的角度来说使用以下机制可以更好地实现一致性:

(1)采用追加写入而不是覆盖的方式

(2)checkingpoint机制(每条数据追加写入的时候都包含一些额外的检验信息)

(3)写时自检验自表示记录等等方式

 

 

五、系统交互

设计这个系统的一个重要的原则是,最小化所有操作和Master节点的交互。

1、租约(lease)和变更顺序

Master收到变更操作请求后

(1)选择一个Chunk副本发放定时租约作为主Chunk并返回给客户端;

(2)客户端与主Chunk进行通信进行变更操作;

(3)租约超时前,对该Chunk的变更操作都由主Chunk进行序列化控制。

 

2、数据流

   (1)
数据流和控制流分开。

(2)控制流从客户机到主Chunk、然后再到所有二级副本。

(3)数据沿着一个Chunk服务器链数序以管道方式推送。

(4)每台机器都尽量的在网络拓扑中选择一台还没有接收到数据的、离自己最近的机器(通过IP)作为目标推送数据。

(5)利用基于TCP连接的、管道式数据推送方式来最小化延迟。

 

3、记录追加的过程

(1)Master与Chunk副本建立一个lease。

(2)根据建好的租约,客户机将数据推送给主Chunk以及每一个Chunk副本。

(3)发送请求给主Chunk。

(4)主Chunk根据分配的序列号向Chunk副本中写数据。

追加操作会使Chunk超过尺寸

填充当前Chunk

通知二级副本做同样操作;

通知客户机向新Chunk追加;

追加操作不会使Chunk超过尺寸

Chunk追加数据;

通知二级副本写在相同位置上;

成功 返回偏移; 失败 再次操作。

(5)回复客户机追加操作成功。

 

4、快照

使用COW技术,瞬间完成。快照实现的过程:

(1)收回文件所有Chunk的租约;

(2)操作元数据完成元数据拷贝;

(3)客户端要写入该文件的Chunk时,Master通知该Chunk所在ChunkServer进行本地拷贝;

(4)发放租约给拷贝Chunk

(5)返回拷贝Chunk的位置信息。

 

六、Master节点设计

Master节点执行所有的名称空间操作。此外,它还管理着整个系统里所有Chunk的副本:它决定Chunk的存储位置,创建忻Chunk和它的副本,协调各种各样的系统活动以保证Chunk被完全复制,在所有的Chunk服务器之间进行负载均衡,回收不再使用的存储空间。

 

1、名称空间管理和锁

保证Master节点上的并行操作以正确的顺序执行。文件操作需获得父目录读锁和目标文件/目录写锁。

 

2、副本的位置

Chunk跨机架分布:

两大目标:

(1)最大化数据可靠性和可用性

(2)最大化网络带宽利用率

 

3、创建,重新复制,重新负载均衡

(1)创建操作,主要考虑:

平衡硬盘使用率;

限制单ChunkServer短期创建次数(创建开销虽小,但每次创建往往意味着大量的后续写入);

跨机架分布。

(2)重复制,即有效副本不足时,通过复制增加副本数。优先考虑:

副本数量和复制因数相差多的;

live(未被删除)文件的;

阻塞客户机处理的Chunk进行重复制。策略与创建类似。

(3)重负载均衡,通过调整副本位置,平衡格机负载。策略与创建类似。新ChunkServer将被逐渐填满。

 

七、垃圾回收

GFS在文件删除后不会立刻回收可用的物理空间。

1、当一个文件被应用程序删除时,Master节点像对待其它修改操作一样,立刻把删除操作以日志的方式记录下来。

2、Master节点并不马上回收资源,而是把文件名改为一个包含删除时间戳、隐藏的名字。(设为隐藏文件)

3、Master节点对文件系统命名空间做常规扫描的时候,它会删除所有三天前的隐藏文件。

4、当隐藏文件被从名称空间中删除,Master服务器内存中保存的这个文件的相关元数据才会被删除。

5、Chunk服务器在和Master节点交互的心跳信息中,报告它拥有的Chunk子集的信息,Master节点回复Chunk服务器哪些ChunkMaster节点保存的元数据中已经不存在了。Chunk服务器可以任意删除这些Chunk的副本。

 

好处

与创建失败的无效Chunk一致的处理方式;

批量执行开销分散,Master相对空闲时进行;

删除操作一定时间内可逆转。

坏处

不便于用户进行 存储空间调优。

解决方案

再次删除加速回收,不同命名空间不同复制回收策略。

 

过期检测:Master维护Chunk级别版本号,新租约增加Chunk版本号,并通知所有副本更新版本号,过期Chunk会因版本号过旧被检测。

 

八、容错机制设计

1、高可用性

(1)组件快速恢复

(2)Chunk复制

(3)Master服务器复制

Checkpoint和操作日志多机备份;

Master进程失效重启,硬件失效则新机器重启Master进程;

影子”Master,通过操作日志模仿Master操作,元数据版本稍慢。作用 分担一定负载、失效期暂时接管。

 

2、数据完整性

每个Chunk服务器必须独立维护Checksum来校验自己的副本的完整性。原因:

(1)Chunk服务器比较副本开销大;

(2)追加操作造成的的byte级别不一致,导致无法通过比较副本判断完整性。

 

Checksum校验的开销:

(1)Checksum读取开销;

(2)Checksum校验计算开销。

 

Checksum对读操作的性能影响:

Checksum对读操作的性能影响很小,可以基于几个原因来分析一下。因为大部分的读操作都至少要读取几个块,而我们只需要读取一小部分额外的相关数据进行椒盐,

GFS客户端代码通过每次把读取操作都对齐在Checksum block的边界上,进一步减少了这些额外的读取操作的负面影响。

 

九、总结

这篇论文前前后后看了大概一个星期,尽量写的让自己好读懂一些。

 

GFS支持了必需提供超大文件量与超大流量的 Google 搜寻引擎服务,许多 Google 应用软件或云服务的基础,可以说是云时代的杀手级技术。 

 

后面将会继续深入了解BigTableMapReduce

  • 大小: 32.5 KB
  • 大小: 19.8 KB
  • 大小: 25.3 KB
  • 大小: 32.9 KB
6
1
分享到:
评论
1 楼 djlijian 2015-06-11  
淘宝的TFS和腾旭的TFS

相关推荐

    Google_file_system-论文-中文版

    Google文件系统(Google File System,简称GFS)是一项由Google设计并实现的分布式文件系统,旨在为大规模数据密集型应用提供支持。该系统能够在廉价硬件上运行,并提供灾难冗余能力,以确保高可用性和高性能。 ###...

    Google-File-System中文版_1.0.zip

    这个系统在2003年首次公开了其技术细节,通过一篇名为《The Google File System》的论文。GFS的设计目标是为了解决互联网搜索引擎和其他大数据应用的需求,提供高可用性、高吞吐量和容错能力。中文版的GFS文档可能...

    谷歌Bigtable File-System MapReduce论文

    谷歌的三篇经典论文——Bigtable、File-System和MapReduce,对现代大数据处理和分布式系统的发展产生了深远影响。这三篇文章分别详细介绍了谷歌在数据存储、文件系统和大规模并行计算上的创新解决方案。 首先,让...

    Google三篇论文--中英文版.zip

    标题中的"Google三篇论文--中英文版.zip"指的是Google公司发布的三篇关于大规模数据处理的重要学术论文的中文和英文版本。这些论文是大数据处理领域里程碑式的工作,为后续的云计算和分布式计算技术奠定了基础。 1....

    Google-File-System中文版

    Google File System (GFS) 是由Google设计并实现的一种分布式文件系统,旨在解决大规模数据密集型应用中的存储需求。GFS能够在廉价的硬件设备上运行,并且提供高可靠性和高性能的服务。 #### 二、设计理念与特点 #...

    google file system 论文中文翻译版

    ### Google File System (GFS) 关键知识点 #### 摘要与背景 - **设计与实现**:GFS是一个面向大规模数据密集型应用的、可伸缩的分布式文件系统,旨在通过廉价的通用硬件提供高可靠性和高性能的服务。 - **应用场景...

    Google写的云计算三篇巨作:BigTable,MapReduce,Google File System

    在云计算领域,Google无疑是引领潮流的巨头之一,其在2000年代初期发表的三篇论文——"The Google File System"(GFS)、"MapReduce: Simplified Data Processing on Large Clusters"和"Bigtable: A Distributed ...

    The Google File System中文版

    根据提供的文件信息,下面将详细阐述关于Google File System(GFS)中文版的知识点。 ### 标题知识点 #### Google File System中文版 - **分布式文件系统概念**:GFS是一种面向大数据存储和处理的分布式文件系统。...

    谷歌三大论文(GFS,big Table,map reduce)

    谷歌的三大论文——“分布式文件系统GFS”、“大规模数据管理Bigtable”和“并行计算模型MapReduce”——是大数据处理领域的里程碑式工作,它们为现代云计算和大数据技术奠定了基础。这三篇论文详细阐述了谷歌如何...

    Google-Bigtable中文版-1.0 Google-File-System中文版 Google-MapReduce

    Hadoop创始人Goug Cutting根据这三篇论文开发出Hadoop中的HDFS,MapReduce,以及Yarn。三篇论文是Hadoop大数据的开端,可以说Google是Hadoop的思想之源。可以根据这三篇论文去了解底层源码。

    Google大数据三大经典论文(包含英文版和中文版)

    2. **GFS(Google文件系统)**:另一篇由Google的Sanjay Ghemawat、Howard Gobioff和Shun-Tak Leung于2003年撰写的论文名为《The Google File System》。GFS是一个高度容错、高吞吐量的分布式文件系统,设计用于支持...

    谷歌三大论文

    这三篇论文分别是《MapReduce:大规模数据集的并行计算》、《Bigtable:一个结构化数据的分布式存储系统》和《The Google File System》(GFS)。让我们详细探讨这些论文中的核心概念和知识点。 首先,我们来看...

    Google三大论文

    - `Google-File-System中文版_1.0.pdf`:这是GFS论文的中文翻译版,帮助中文读者理解GFS的设计理念和实现方式。 - `Google-MapReduce中文版_1.0.pdf`:同理,这是MapReduce论文的中文翻译,便于中文学习者掌握...

    Google大数据必看三篇论文中文版

    Google大数据必看三篇论文中文版,内含Google-Bigtable中文版_1.0.pdf、Google-File-System中文版_1.0.pdf、Google-MapReduce中文版_1.0.pdf,学大数据必看的三篇谷歌论文中文版,需要的朋友点击下载

    The_Google_File_System_中文版论文

    ### 关于《The Google File System》中文版论文的...综上所述,《The Google File System》中文版论文详细介绍了GFS的设计理念、关键技术以及其实现细节,为理解和实现大规模分布式文件系统提供了宝贵的经验和指导。

    Google三大论文中英文全高清

    《Google三大论文》是大数据领域的经典文献,涵盖了Google在数据处理和存储方面的重要创新。这三篇论文分别命名为“Bigtable:一个结构化数据的分布式存储系统”、“MapReduce:大规模数据集的并行计算”以及...

    谷歌大数据三论文(中英合集)

    谷歌大数据三论文,即《MapReduce: Simplified Data Processing on Large Clusters》、《The Google File System》和《Bigtable: A Distributed Storage System for Structured Data》,是大数据处理领域里程碑式的...

    Google Mapreduce,GFS,Bigtable--Google三大核心技术论文

    在IT行业中,Google是技术创新的巨头,其三大核心技术——MapReduce、GFS(Google File System)和Bigtable,对大数据处理和云计算领域产生了深远影响。这些技术是Google为解决自身大规模数据处理问题而研发的,并...

    谷歌分布式领域三大论文合集(GFS、MapReduce、BigTable)

    1. 2003年,Google发布Google File System论文,这是一个可扩展的分布式文件系统,用于大型的、分布式的、对大量数据进行访问的应用。它运行于廉价的普通硬件上,提供容错功能。从根本上说:文件被分割成很多块,...

Global site tag (gtag.js) - Google Analytics