`
臻是二哥
  • 浏览: 188217 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
博客专栏
Group-logo
Java技术分享
浏览量:0
社区版块
存档分类
最新评论

HDFS可靠性措施

阅读更多

HDFS可靠性措施

一、冗余备份:数据存储在这些HDFS中的节点上,为了防止因为某个节点宕机而导致数据丢失,HDFS对数据进行冗余备份,至于具体冗余多少个副本,在dfs.replication中配置。

二、副本存放:仅仅对数据进行冗余备份还不够,假设所有的备份都在一个节点上,那么该节点宕机后,数据一样会丢失,因此HDFS要有一个好的副本存放策略,该策略还在开发中。目前使用的是,以dfs.replication=3为例,在同一机架的两个节点上各备份一个副本,然后在另一个机架的某个节点上再放一个副本。前者防止该机架的某个节点宕机,后者防止某个机架宕机。

三、心跳监测:DataNode节点定时向NameNode节点发送心跳包,以确保DataNode没有宕机。如果宕机,会采取相应措施,比如数据副本的备份。

四、数据完整性监测:NameNode在创建HDFS文件时,会计算每个数据的校验和并储存起来。当客户端从DataNode获取数据时,他会将获取的数据的校验和与之前储存的校验和进行对比。

五、空间回收:HDFS中删除的文件会首先被放入到/trash中,/trash文件夹中的内容是被删除文件最后的副本,该文件夹会被定时清空。该文件夹中不存在的文件就彻底不存在了。

六、安全模式:HDFS启动时,会进入安全模式,此时不允许写操作。这时,NameNode会收到所有DataNode节点的数据块报告,在确认安全之后,系统自动退出安全模式。

七、核心文件备份:HDFS的核心文件是映像文件和事务日志,系统支持对这两个文件的备份,以确保NameNode宕机后的恢复

<!--EndFragment-->
0
1
分享到:
评论

相关推荐

    大数据--Hadoop HDFS

    - **可靠性**:Hadoop的设计能够容忍节点故障,确保数据的可靠性和可用性。 - **可扩展性**:支持水平扩展,即可以通过简单地增加更多的机器来提升系统的整体性能。 - **活跃社区**:拥有一个充满活力的开源社区,...

    基于HDFS的视频播放

    每个块会被复制到多台机器上,以确保数据可靠性。 2. **流式访问**:HDFS设计时考虑了流式数据访问,适合视频播放这种连续读取大量数据的场景。通过HTTP或HTTPS协议,可以实现对HDFS上文件的读取,使得客户端可以...

    高可用性的HDFS:Hadoop分布式文件系统深度实践

    1.3 HDFS HA原因分析及应对措施 1.3.1 可靠性 1.3.2 可维护性 1.4 现有HDFS HA解决方案 1.4.1 Hadoop的元数据备份方案 1.4.2 Hadoop的SecondaryNameNode方案 1.4.3 Hadoop的Checkpoint ode方案 1.4.4 Hadoop的...

    Hadoop存储系统HDFS的文件是分块存储.docx

    - **块复制**:为了确保数据的可靠性和容错能力,HDFS通常会在不同的DataNode上复制文件块,一般默认的复制因子为3。这意味着每个文件块都会在集群中被复制三次,分布在不同的节点上。 #### NameNode与DataNode的...

    Hadoop可靠性报告-百度分享

    **HDFS可靠性概述** HDFS设计的主要目标是处理大规模的非结构化数据,提供高吞吐量的数据访问。它采用分布式存储的方式,将数据分割成多个块,并在多个节点上复制,确保即使有节点故障,数据仍然可以访问。HDFS适合...

    HDFS Design

    因此,HDFS的设计充分考虑到了硬件故障的可能性,并采取了多种措施来确保系统的稳定性和可靠性。 **2.2 流式数据访问** 对于许多应用程序而言,读取大文件的效率远比随机访问小文件更为重要。HDFS的设计重点在于...

    HDFS design

    为了保证数据的高可用性和可靠性,HDFS会将每个数据块复制多份,并将这些副本分散存储在不同的数据节点上。通常情况下,每个数据块会被复制三份。 ##### 5.1 数据块放置:最初的步骤 在HDFS中,数据块的初始放置...

    大数据知识、面试题 HDFS、Mapreduce、hive

    ### 大数据技术核心知识点详解 #### HDFS 文件系统 **1.1 HDFS 文件写入过程** HDFS(Hadoop Distributed File System)是...通过以上措施,Kafka可以有效地减少甚至消除数据丢失的风险,提高系统的可靠性和稳定性。

    阿里云 专有云企业版 V3.8.0 文件存储HDFS 技术白皮书 20190621.pdf

    HDFS的设计核心在于可靠性和可扩展性。它将大文件分割成多个块,并将这些块复制到不同的节点上,以确保数据的冗余和容错能力。同时,HDFS支持水平扩展,允许添加更多的硬件资源来提高存储容量和性能。 2. **系统...

    HDFS block丢失,导致hadoop进入安全模式的解决方案

    在Hadoop分布式文件系统(HDFS)中,当系统检测到文件块(Block)丢失时,为了保护数据完整性并避免进一步的数据损失,Hadoop会自动进入安全模式(Safe Mode)。在这种模式下,HDFS只允许读取操作,禁止任何写入或修改操作...

    阿里云 专有云企业版 V3.9.0 文件存储HDFS 安全白皮书 20191017.pdf

    阿里云专有云企业版V3.9.0文件存储HDFS安全白皮书主要探讨了...以上是对阿里云专有云企业版V3.9.0文件存储HDFS安全白皮书核心内容的概述,这些安全措施和策略旨在构建一个安全、可靠且符合法规要求的企业级云存储环境。

    基于Flume的美团日志收集系统.pdf

    "基于Flume的美团日志收集系统" 一、日志收集系统简介 日志收集系统是大数据的基石,负责收集业务日志数据,供离线和在线的分析系统使用。...同时,本文还对 Flume-NG 可靠性方面的措施进行了详细的介绍和分析。

    大数据安全防护体系建设方案.ppt

    HDFS 资源池数据源系统镜像是指使用 HDFS 资源池来存储和管理大数据,通过镜像技术来确保数据的一致性和可靠性。FTP server 集群是指使用 FTP server 集群来管理和传输大数据,确保数据的安全传输和存储。 HDFS ...

    Hadoop分布式文件系统的模型分析.pdf

    HDFS的主要优势在于能够处理海量数据并具有高可扩展性、高可靠性和高性能。HDFS广泛应用于云计算平台和分布式存储解决方案中,而目前对HDFS的研究多数集中在技术细节和实际应用效果上,缺乏系统设计理论层次上的研究...

    Hadoop的核心技术研究或概述

    保障可靠性的措施 为了确保数据的可靠性和高可用性,HDFS采用了多种机制: - **冗余备份**:将文件划分为固定大小的数据块,默认大小为64MB(可配置),并通过复制机制实现数据冗余。 - **副本存放策略**:副本的...

    分布式集群存储技术在网络高清视频监控中的应用.pdf

    8. 分布式文件系统:采用如HDFS等高容错、高可靠性和高可扩展性的分布式文件系统,实现数据的分布式存储和高效管理。 分布式集群存储技术的进步,不仅推动了网络高清视频监控的发展,还为未来更广泛领域的数据存储...

    Hadoop分布式文件系统使用指南

    这种设计使得HDFS能够高效地处理大规模数据集,同时提供高容错性和数据冗余,确保数据的持久性和可靠性。 #### 文件存储与读取机制 在HDFS中,文件被切分为固定大小的数据块,默认大小为128MB(早期版本为64MB),...

    ieee-hadoop

    - **数据冗余与可靠性**:为了提高数据的可靠性和容错性,HDFS默认将每个数据块复制三次存储在不同的DataNodes上。 - **小文件处理**:对于小文件处理问题,Hadoop通过将多个小文件合并成较大的数据块来提高存储效率...

    基于Hadoop的校园网盘的设计与实现.docx

    - 高可靠性:数据在多个节点上复制,提高数据的可靠性。 - 高可扩展性:可以轻松添加更多节点以应对数据量的增长。 - 高获取性:支持流式数据访问,适合大数据处理。 - 高吞吐率:优化了大量数据读写操作,提高整体...

Global site tag (gtag.js) - Google Analytics