`
大涛学长
  • 浏览: 110844 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Apache Flink 进阶(三):Checkpoint 原理解析与应用实践

阅读更多
大家好,今天我将跟大家分享一下 Flink 里面的 Checkpoint,共分为四个部分。首先讲一下 Checkpoint 与 state 的关系,然后介绍什么是 state,第三部分介绍如何在 Flink 中使用state,第四部分则介绍 Checkpoint 的执行机制。
Checkpoint 与 state 的关系
Checkpoint 是从 source 触发到下游所有节点完成的一次全局操作。下图可以有一个对 Checkpoint 的直观感受,红框里面可以看到一共触发了 569K 次 Checkpoint,然后全部都成功完成,没有 fail 的。



state 其实就是 Checkpoint 所做的主要持久化备份的主要数据,看下图的具体数据统计,其 state 也就 9kb 大小 。



什么是 state
我们接下来看什么是 state。先看一个非常经典的 word count 代码,这段代码会去监控本地的 9000 端口的数据并对网络端口输入进行词频统计,我们本地行动 netcat,然后在终端输入 hello world,执行程序会输出什么?



答案很明显,(hello, 1) 和 (word,1)
那么问题来了,如果再次在终端输入 hello world,程序会输入什么?
答案其实也很明显,(hello, 2) 和 (world, 2)。为什么 Flink 知道之前已经处理过一次 hello world,这就是 state 发挥作用了,这里是被称为 keyed state 存储了之前需要统计的数据,所以帮助 Flink 知道 hello 和 world 分别出现过一次。
回顾一下刚才这段 word count 代码。keyby 接口的调用会创建 keyed stream 对 key 进行划分,这是使用 keyed state 的前提。在此之后,sum 方法会调用内置的 StreamGroupedReduce 实现。



什么是 keyed state
对于 keyed state,有两个特点:
只能应用于 KeyedStream 的函数与操作中,例如 Keyed UDF, window state
keyed state 是已经分区/划分好的,每一个 key 只能属于某一个 keyed state
对于如何理解已经分区的概念,我们需要看一下 keyby 的语义,大家可以看到下图左边有三个并发,右边也是三个并发,左边的词进来之后,通过 keyby 会进行相应的分发。例如对于 hello word,hello 这个词通过 hash 运算永远只会到右下方并发的 task 上面去。



什么是operator state
又称为 non-keyed state,每一个 operator state 都仅与一个 operator 的实例绑定。
常见的 operator state 是 source state,例如记录当前 source 的 offset
再看一段使用 operator state 的 word count 代码:



这里的fromElements会调用FromElementsFunction的类,其中就使用了类型为 list state 的 operator state。根据 state 类型做一个分类如下图:



除了从这种分类的角度,还有一种分类的角度是从 Flink 是否直接接管:
Managed State:由 Flink 管理的 state,刚才举例的所有 state 均是 managed state
Raw State:Flink 仅提供 stream 可以进行存储数据,对 Flink 而言 raw state 只是一些 bytes
在实际生产中,都只推荐使用 managed state,本文将围绕该话题进行讨论。
如何在 Flink 中使用 state
下图就前文 word count 的 sum 所使用的StreamGroupedReduce类为例讲解了如何在代码中使用 keyed state:



下图则对 word count 示例中的FromElementsFunction类进行详解并分享如何在代码中使用 operator state:



Checkpoint 的执行机制
在介绍 Checkpoint 的执行机制前,我们需要了解一下 state 的存储,因为 state 是 Checkpoint 进行持久化备份的主要角色。
Statebackend 的分类
下图阐释了目前 Flink 内置的三类 state backend,其中MemoryStateBackend和FsStateBackend在运行时都是存储在 java heap 中的,只有在执行 Checkpoint 时,FsStateBackend才会将数据以文件格式持久化到远程存储上。而RocksDBStateBackend则借用了 RocksDB(内存磁盘混合的 LSM DB)对 state 进行存储。



对于HeapKeyedStateBackend,有两种实现:
支持异步 Checkpoint(默认):存储格式 CopyOnWriteStateMap
仅支持同步 Checkpoint:存储格式 NestedStateMap
特别在 MemoryStateBackend 内使用HeapKeyedStateBackend时,Checkpoint 序列化数据阶段默认有最大 5 MB数据的限制
对于RocksDBKeyedStateBackend,每个 state 都存储在一个单独的 column family 内,其中 keyGroup,Key 和 Namespace 进行序列化存储在 DB 作为 key。



Checkpoint 执行机制详解
本小节将对 Checkpoint 的执行流程逐步拆解进行讲解,下图左侧是 Checkpoint Coordinator,是整个 Checkpoint 的发起者,中间是由两个 source,一个 sink 组成的 Flink 作业,最右侧的是持久化存储,在大部分用户场景中对应 HDFS。
第一步,Checkpoint Coordinator 向所有 source 节点 trigger Checkpoint;。



第二步,source 节点向下游广播 barrier,这个 barrier 就是实现 Chandy-Lamport 分布式快照算法的核心,下游的 task 只有收到所有 input 的 barrier 才会执行相应的 Checkpoint。



第三步,当 task 完成 state 备份后,会将备份数据的地址(state handle)通知给 Checkpoint coordinator。



第四步,下游的 sink 节点收集齐上游两个 input 的 barrier 之后,会执行本地快照,这里特地展示了 RocksDB incremental Checkpoint 的流程,首先 RocksDB 会全量刷数据到磁盘上(红色大三角表示),然后 Flink 框架会从中选择没有上传的文件进行持久化备份(紫色小三角)。



同样的,sink 节点在完成自己的 Checkpoint 之后,会将 state handle 返回通知 Coordinator。



最后,当 Checkpoint coordinator 收集齐所有 task 的 state handle,就认为这一次的 Checkpoint 全局完成了,向持久化存储中再备份一个 Checkpoint meta 文件。



Checkpoint 的 EXACTLY_ONCE 语义
为了实现 EXACTLY ONCE 语义,Flink 通过一个 input buffer 将在对齐阶段收到的数据缓存起来,等对齐完成之后再进行处理。而对于 AT LEAST ONCE 语义,无需缓存收集到的数据,会对后续直接处理,所以导致 restore 时,数据可能会被多次处理。下图是官网文档里面就 Checkpoint align 的示意图:



需要特别注意的是,Flink 的 Checkpoint 机制只能保证 Flink 的计算过程可以做到 EXACTLY ONCE,端到端的 EXACTLY ONCE 需要 source 和 sink 支持。
Savepoint 与 Checkpoint 的区别
作业恢复时,二者均可以使用,主要区别如下:
SavepointExternalized Checkpoint用户通过命令触发,由用户管理其创建与删除Checkpoint 完成时,在用户给定的外部持久化存储保存标准化格式存储,允许作业升级或者配置变更当作业 FAILED(或者CANCELED)时,外部存储的 Checkpoint 会保留下来用户在恢复时需要提供用于恢复作业状态的 savepoint 路径用户在恢复时需要提供用于恢复的作业状态的 Checkpoint 路径
本文作者:唐云(茶干)
原文链接
本文为云栖社区原创内容,未经允许不得转载。
分享到:
评论

相关推荐

    flink零基础入门.pdf

    Apache Flink 进阶(三):Checkpoint 原理剖析与应用实践 30 Apache Flink 进阶(四):Flink on Yarn/K8s 原理剖析及实践 41 Apache Flink 进阶(五):数据类型和序列化 60 Apache Flink 进阶(六):Flink 作业...

    Apache Flink:Flink性能调优与最佳实践.docx

    Apache Flink:Flink性能调优与最佳实践.docx

    Apache Flink:FlinkSQL从入门到实践详解

    内容概要:介绍了 Apache Flink 中的 FlinkSQL ,详细讲述了其基本特性和进阶应用技巧。通过实际的例子演示了 FlinkSQL 如何简化数据流处理流程,使其更易于理解和操作。主要内容涵盖了 SQL 接口与数据流 API 的区别...

    Flink原理与实践-PPT课件.rar

    "**Flink原理与实践-PPT课件.rar**" 这个标题表明,这个压缩包包含的是一份关于Apache Flink的PPT教学资料,主要讲解了Flink的基础理论和实际应用。Flink是大数据处理领域的一个流处理框架,它以实时处理和低延迟...

    Apache Flink:Flink与Kafka集成应用技术教程.docx

    Apache Flink:Flink与Kafka集成应用技术教程.docx

    Learning Apache Flink电子版

    This book will be your definitive guide to batch and stream data processing with Apache Flink. The book begins by introducing the Apache Flink ecosystem, setting it up and using the DataSet and ...

    不仅仅是流计算:Apache Flink实践

    本文将深入探讨Apache Flink的核心概念、关键特性以及在实际应用中的实践策略。 一、Apache Flink概述 Apache Flink源于德国柏林工业大学的研究项目Stratosphere,后成为Apache Software Foundation的顶级项目。...

    Introduction to Apache Flink

    Chapter 1 Why Apache Flink?  Consequences of Not Doing Streaming Well  Goals for Processing Continuous Event Data  Evolution of Stream Processing Technologies  First Look at Apache Flink  Flink ...

    Declarative Data Processing With Java in Apache Flink

    ### Declarative Data Processing with Java in Apache Flink #### Apache Flink简介 Apache Flink 是一个分布式的流处理引擎,支持大规模数据处理任务。它提供了一系列丰富的API,包括Java、Scala以及Python等语言...

    Apache Flink:详细入门.docx

    Apache Flink 是一个面向分布式数据流处理和批量数据处理的开源计算平台,它能够基于同一个 Flink 运行时(Flink Runtime),提供支持流处理和批处理两种类型应用的功能。 Flink 的特点 1. 流处理特性:支持高吞吐...

    flink学习资料(包含网盘视频地址)

    Flink学习资料压缩包提供了全面了解和掌握Apache Flink这一大数据处理框架的资源。Flink是一种开源流处理和批处理系统,它在实时数据处理领域表现出色,具有低延迟、高吞吐量以及状态管理等特性。以下是压缩包内可能...

    FlinkSQL实战:HBase的结合应用

    而当下FlinkSQL的火热程度不用多说,FlinkSQL也为HBase提供了connector,因此HBase与FlinkSQL的结合非常有必要实践实践。当然,本文假设用户有一定的HBase知识基础,不会详细去介绍HBase的架构和原理,本文着重介绍...

    藏经阁-Apache Flink技术进阶.pdf

    Apache Flink 是一个开源的流处理框架,专为低延迟、高吞吐量和精确一次的状态一致性而设计。王峰,花名“莫问”,作为阿里巴巴的资深技术专家,他领导着实时计算北京团队,负责支持阿里巴巴集团的实时计算业务以及...

    Flink技术原理

    **Flink技术原理** Flink是一种开源的流处理框架,主要设计用于实时数据处理和分析。作为大数据领域的重要工具,Flink提供了低延迟、高吞吐量的数据处理能力,能够应对大规模数据流的挑战。本教程将从基础概念出发...

    Apache Flink实践

    Apache Flink 在滴滴出行的应用与实践............................................................11 字节跳动 Jstorm 到 Apache Flink 的迁移实践...............................................20 Apache ...

    【S2】Apache Flink实践-重新定义计算 .rar

    本实践指南将深入探讨Flink的核心特性和实际应用,帮助读者理解和掌握这一强大的工具。 首先,我们需要理解Flink的核心概念。Flink设计的主要目标是提供一个统一的平台,用于处理批处理和流处理任务,实现“无界”...

    Apache Flink:Flink连接器与外部系统集成教程.docx

    Apache Flink:Flink连接器与外部系统集成教程.docx

Global site tag (gtag.js) - Google Analytics