随着业务规模的扩张,企业系统变得越来越复杂,在这种复杂的分布式系统架构下,难免会出现远程调用失败,消息发送失败,并发 bug 等等问题,这些问题最终会导致系统间的数据不一致,导致用户体验受损,用户利益受损,对平台来说就是产生资损。因此如何持续保障系统的业务稳定性对于企业来说是一个很重要的课题,本文旨在介绍一些常见业务应用场景下的业务数据一致性保障最佳实践。
离线or在线,事前or事后
-------------
应对业务数据不一致问题的常规操作是,配置定时任务,在每个固定时间点去拉取历史一段时间的数据出来进行比对,判断是否有数据故障出现,比如利用hadoop做一些批处理MapReduce作业,这种离线计算的方式时效性比较差,对于电商系统或者对于实时性要求较高的系统来说,问题发现的越晚损失也就越大,所以我们需要一种在线的校验模式来实时发现数据不一致问题。
在线的校验模式指的是每出现一笔数据就进行一次比对,这种比对方式还可以分为事前和事后比对。
* 事前比对是一种业务强耦合的校验方式,我们在业务系统代码中进行类似 AOP 的操作,横插一段校验代码,如果校验发现问题,则阻断这次业务操作,这种模式虽然时效性很高,能够保证每一笔数据的正确性,但是因为和业务耦合的太重,很容易出现一些灾难性的问题,比如校验代码的性能差或者异常处理不正确,会直接导致业务操作受阻,影响正常业务活动。
* 事后校验严格上来说不能算是实时校验,因为校验的时间点滞后于真实的业务动作发生时间点,这算是一种准实时校验,这种校验的好处在于,可以和业务解耦,不阻断业务的正常进行,还能较为"实时"的发现数据不一致问题,并且在一些特殊场景下(比如异步业务,下面会介绍)只能使用事后校验,缺点也很明显,就是时效性相比于事前校验来说会比较差。
这里在啰嗦一句,可能读到这里,有些人会问,既然是业务动作发生之后再进行校验,它的意义还有多大呢?的确相比于事前校验来说,他并不能保证每一笔数据都正确,但是在实际操作中,像电商这种场景下,我们进行业务功能迭代,会经过日常环境 -> 预发环境 -> Beta测试 -> 线上环境的流程,尤其是在预发环境和 Beta 测试的情况下,一般会进行一些线上引流或者模拟数据测试,特点是量小,即使发生问题也只是局部不会引起灾难,那在这种场景下,事后校验的意义就显得很大,可以提前验证功能和数据的正确性,又不会对线上造成强耦合的影响;在功能完全上线后,事后校验的作用在于及时发现数据不一致问题,避免问题的进一步扩散。
综上所述,对于业务数据校验时效性不是那么高的场景下,离线校验是一种比较合适的方式,开发接入成本都较低,对于业务数据校验时效性有一些要求的场景下,事后校验是一种比较适合的方式,对于业务校验时效性要求非常严格,并且能够投入较多资源的情况下,事前校验比较适合。
数据一致性检测实践案例
-----------
### 案例一:会员系统
某店铺会员入会业务,需要结合店铺系统、打标系统、会员系统进行入会退会操作,如下图所示:
![lADPDgQ9rMQbY_fNARPNAgU_517_275_jpg_620x10000q90g](https://yqfile.alicdn.com/7c9af83435ff829b7f161eb22fcfb3366db4edc7.jpeg)
在这个业务场景中,买家在店铺会员页发起入会申请,入会成功对外发送会员入会metaq消息,下游业务系统根据这个metaq消息,为该用户打上一个标签,用户在下单的时候就根据这个标签判断是否有优先购买的权利。既然有入会就有退会,退会同样发起metaq消息给用户进行去标操作。所以不管入会还是退会,业务上要求店铺系统的会员状态(入会还是退会)必须和用户系统的标签状态一致(有或者没有),一旦发现数据不一致,一个已经退会的用户如果还有用户会员标签,该用户就可以购买这个限购商品,这样就会造成商家资损。因此必须有对账业务对数据一致性进行强保证,一旦发现数据不一致,必须要通知相关人员进行数据核对,如有问题则进行数据订正。
这个案例在对账系统的选择上有如下几个要求:
1. 实时:必须当天尽快处理。
2. 可以报警
3. 必须支持不同领域模型。
4. 接口调用需要有一定的延迟,以便下游系统处理完所有流程之后再校验。
5. 由于入会、退会metaq可能会有丢失或者乱序的情况,因此不可以根据该消息进行对账。
在这个业务场景下,我们可以看到,业务是异步的,会员系统发起入会操作后,并不是立刻就能在用户系统打标的,所以实时的事前校验并不适合这个场景,因为在会员系统发起入会操作的时候在用户系统中还查不到这个打标状态,需要延迟一段时间去查,所以只能用事后校验来做。
我们在这个场景的做法是:拉取店铺会员数据库的实时binlog日志数据,给到校验系统,校验系统解析日志数据拿到要打标的会员id,并且延时一段时间后去会员系统查询这个会员的入会状态,和日志中的状态进行一致性比对,发现不一致则进行告警。
### 案例二:新老库迁移
当新老系统需要进行更替的时候,经常会涉及到数据迁移,由于数据量非常大,而且不允许停机,所以迁移一定是一个循序渐进的过程,整个过程会分成两个部分,第一个部分是双写,保证新增数据两边同步。第二步是开始做存量数据迁移,通过后台任务慢慢跑。在这个过程中可能会出现部分字段没有同步,更新数据顺序错乱导致数据内容不一致的问题,所以需要对迁移进行数据的一致性检查,及时发现数据问题进行订正或者bug修复。
由于我们的目的是将数据迁移到新系统,所以数据校验触发条件就是新系统有数据写入,这里可能有人会问如果老系统同步失败呢,那么新系统就不会有数据写入,就触发不了校验。这里就存在校验边界的问题,即我们假设同步系统是一定会同步成功的,如果同步失败的话不允许跳过会一直尝试重试同步,所以这里如果发生同步失败,同步会暂停并且打印出同步错误日志,这个就不是校验系统的问题了,我们会通过同步的进度或者同步日志来观察到这个现象。
所以我们在这个场景的做法是:接收新库的数据库变更binlog日志数据,解析日志内容,通过这条数据id去查询旧库的对应数据,进行数据内容的比对。由于双写的存在,一条数据可能会变更多次,这里就要求我们的校验必须是较为实时的进行,否则就会出现拿到的日志数据内容是旧的(这条数据又发生了更新),导致查询老库的数据出现不一致的问题,其实算是一种误报。
![lADPDgQ9rMQbY_rNAZvNAcU_453_411_jpg_620x10000q90g](https://yqfile.alicdn.com/6aef9c7e02c5202dddf3b9a690287db0d1c5542c.jpeg)
随着业务规模的扩张,企业系统变得越来越复杂,在这种复杂的分布式系统架构下,难免会出现远程调用失败,消息发送失败,并发 bug 等等问题,这些问题最终会导致系统间的数据不一致,导致用户体验受损,用户利益受损,对平台来说就是产生资损。因此如何持续保障系统的业务稳定性对于企业来说是一个很重要的课题,本文旨在介绍一些常见业务应用场景下的业务数据一致性保障最佳实践。
离线or在线,事前or事后
-------------
应对业务数据不一致问题的常规操作是,配置定时任务,在每个固定时间点去拉取历史一段时间的数据出来进行比对,判断是否有数据故障出现,比如利用hadoop做一些批处理MapReduce作业,这种离线计算的方式时效性比较差,对于电商系统或者对于实时性要求较高的系统来说,问题发现的越晚损失也就越大,所以我们需要一种在线的校验模式来实时发现数据不一致问题。
在线的校验模式指的是每出现一笔数据就进行一次比对,这种比对方式还可以分为事前和事后比对。
* 事前比对是一种业务强耦合的校验方式,我们在业务系统代码中进行类似 AOP 的操作,横插一段校验代码,如果校验发现问题,则阻断这次业务操作,这种模式虽然时效性很高,能够保证每一笔数据的正确性,但是因为和业务耦合的太重,很容易出现一些灾难性的问题,比如校验代码的性能差或者异常处理不正确,会直接导致业务操作受阻,影响正常业务活动。
* 事后校验严格上来说不能算是实时校验,因为校验的时间点滞后于真实的业务动作发生时间点,这算是一种准实时校验,这种校验的好处在于,可以和业务解耦,不阻断业务的正常进行,还能较为"实时"的发现数据不一致问题,并且在一些特殊场景下(比如异步业务,下面会介绍)只能使用事后校验,缺点也很明显,就是时效性相比于事前校验来说会比较差。
这里在啰嗦一句,可能读到这里,有些人会问,既然是业务动作发生之后再进行校验,它的意义还有多大呢?的确相比于事前校验来说,他并不能保证每一笔数据都正确,但是在实际操作中,像电商这种场景下,我们进行业务功能迭代,会经过日常环境 -> 预发环境 -> Beta测试 -> 线上环境的流程,尤其是在预发环境和 Beta 测试的情况下,一般会进行一些线上引流或者模拟数据测试,特点是量小,即使发生问题也只是局部不会引起灾难,那在这种场景下,事后校验的意义就显得很大,可以提前验证功能和数据的正确性,又不会对线上造成强耦合的影响;在功能完全上线后,事后校验的作用在于及时发现数据不一致问题,避免问题的进一步扩散。
综上所述,对于业务数据校验时效性不是那么高的场景下,离线校验是一种比较合适的方式,开发接入成本都较低,对于业务数据校验时效性有一些要求的场景下,事后校验是一种比较适合的方式,对于业务校验时效性要求非常严格,并且能够投入较多资源的情况下,事前校验比较适合。
数据一致性检测实践案例
-----------
### 案例一:会员系统
某店铺会员入会业务,需要结合店铺系统、打标系统、会员系统进行入会退会操作,如下图所示:
![lADPDgQ9rMQbY_fNARPNAgU_517_275_jpg_620x10000q90g](https://yqfile.alicdn.com/7c9af83435ff829b7f161eb22fcfb3366db4edc7.jpeg)
在这个业务场景中,买家在店铺会员页发起入会申请,入会成功对外发送会员入会metaq消息,下游业务系统根据这个metaq消息,为该用户打上一个标签,用户在下单的时候就根据这个标签判断是否有优先购买的权利。既然有入会就有退会,退会同样发起metaq消息给用户进行去标操作。所以不管入会还是退会,业务上要求店铺系统的会员状态(入会还是退会)必须和用户系统的标签状态一致(有或者没有),一旦发现数据不一致,一个已经退会的用户如果还有用户会员标签,该用户就可以购买这个限购商品,这样就会造成商家资损。因此必须有对账业务对数据一致性进行强保证,一旦发现数据不一致,必须要通知相关人员进行数据核对,如有问题则进行数据订正。
这个案例在对账系统的选择上有如下几个要求:
1. 实时:必须当天尽快处理。
2. 可以报警
3. 必须支持不同领域模型。
4. 接口调用需要有一定的延迟,以便下游系统处理完所有流程之后再校验。
5. 由于入会、退会metaq可能会有丢失或者乱序的情况,因此不可以根据该消息进行对账。
在这个业务场景下,我们可以看到,业务是异步的,会员系统发起入会操作后,并不是立刻就能在用户系统打标的,所以实时的事前校验并不适合这个场景,因为在会员系统发起入会操作的时候在用户系统中还查不到这个打标状态,需要延迟一段时间去查,所以只能用事后校验来做。
我们在这个场景的做法是:拉取店铺会员数据库的实时binlog日志数据,给到校验系统,校验系统解析日志数据拿到要打标的会员id,并且延时一段时间后去会员系统查询这个会员的入会状态,和日志中的状态进行一致性比对,发现不一致则进行告警。
### 案例二:新老库迁移
当新老系统需要进行更替的时候,经常会涉及到数据迁移,由于数据量非常大,而且不允许停机,所以迁移一定是一个循序渐进的过程,整个过程会分成两个部分,第一个部分是双写,保证新增数据两边同步。第二步是开始做存量数据迁移,通过后台任务慢慢跑。在这个过程中可能会出现部分字段没有同步,更新数据顺序错乱导致数据内容不一致的问题,所以需要对迁移进行数据的一致性检查,及时发现数据问题进行订正或者bug修复。
由于我们的目的是将数据迁移到新系统,所以数据校验触发条件就是新系统有数据写入,这里可能有人会问如果老系统同步失败呢,那么新系统就不会有数据写入,就触发不了校验。这里就存在校验边界的问题,即我们假设同步系统是一定会同步成功的,如果同步失败的话不允许跳过会一直尝试重试同步,所以这里如果发生同步失败,同步会暂停并且打印出同步错误日志,这个就不是校验系统的问题了,我们会通过同步的进度或者同步日志来观察到这个现象。
所以我们在这个场景的做法是:接收新库的数据库变更binlog日志数据,解析日志内容,通过这条数据id去查询旧库的对应数据,进行数据内容的比对。由于双写的存在,一条数据可能会变更多次,这里就要求我们的校验必须是较为实时的进行,否则就会出现拿到的日志数据内容是旧的(这条数据又发生了更新),导致查询老库的数据出现不一致的问题,其实算是一种误报。
![lADPDgQ9rMQbY_rNAZvNAcU_453_411_jpg_620x10000q90g](https://yqfile.alicdn.com/6aef9c7e02c5202dddf3b9a690287db0d1c5542c.jpeg)
[原文链接](https://yq.aliyun.com/articles/726072?utm_content=g_1000088283)
本文为云栖社区原创内容,未经允许不得转载。
分享到:
相关推荐
- **挑战1**: 大模型项目往往缺乏与企业战略的一致性。许多项目聚焦于技术细节而非业务价值,这导致高层管理者对其支持度不高。 - **解决方案**: 在项目规划初期明确大模型与企业战略目标之间的关联,确保项目能够...
本书以Java编程语言为背景,探讨了在分布式环境中的数据一致性挑战及解决方案。 首先,我们要了解一致性在分布式系统中的重要性。在分布式环境中,多个节点之间需要保持数据的一致性,以确保系统的正确运行。PAXOS...
Data Guard 日志应用是确保数据一致性和完整性的关键组件。通过将主数据库的日志文件同步到备用数据库,Data Guard 可以确保在主数据库发生故障时,备用数据库能够迅速接替其工作,最大限度地减少数据丢失和业务中断...
《AnyBackup重复数据删除最佳实践》是一份详细指导文档,主要针对如何在使用AnyBackup进行数据保护时,有效地实现重复数据删除,以提高存储效率和降低存储成本。该文档不仅涵盖了重复数据删除的基础概念,还提供了...
API自动化最佳实践是接口测试领域的重要组成部分,它能够提高测试效率,保证软件质量,尤其在大规模、频繁迭代的项目中显得尤为重要。以下是一些关键的知识点和实践建议: 1. **API设计原则**: - **一致性...
5. 数据质量改进策略:分享快手在提升数据质量方面的最佳实践,如采用机器学习模型进行数据校验、建立反馈循环等。 6. 案例研究:展示在直播场景中,数据质量对业务优化的具体影响和成功案例。 通过这份文档,读者...
- **数据同步解决方案**:采用基于日志解析的数据同步技术,解决了多数据中心之间的数据一致性问题。 - **提升数据库性能**:引入SSD作为存储介质,利用SSD的高速读写特性,大幅度提升了数据库性能。 #### Alibaba...
向文档数据库以JSON、XML或其他文档格式存储数据,支持嵌套结构,允许更灵活的数据模型。这使得数据的表示更接近编程语言中的数据结构...在实际应用中,根据业务特点结合使用多种数据库类型,实现数据存储的最佳实践。
**时序一致性检测方法**: - **动态测试**:通过运行系统并在实际操作中监控事件序列来验证一致性。 - **静态分析**:基于源代码分析,检测潜在的时序不一致性问题。 - **时序一致性评估工具**:如Jepsen和TLC等...
- **数据同步**:采用主从复制或分布式存储等方式保持数据一致性。 - **故障切换机制**:配置HAProxy、Keepalived等软件实现服务自动切换,确保对外服务不间断。 ### 四、结语 DevOps环境下Linux服务器运维涉及多个...
这包括了空值处理、异常值检测、数据类型转换、一致性校验等步骤。 5. 教材数据文件:压缩包内的教材数据文件可能是实际案例的数据集,用于模拟真实世界的数据清洗场景。这些文件可能包含各种格式,如CSV、Excel或...
同步复制则确保数据在源数据库和目标数据库之间的即时同步,适用于需要高数据一致性的应用。 3. **高级复制** Oracle高级复制(Advanced Replication)是Oracle提供的高级数据复制解决方案,它包括主键冲突检测、...
在“数据仓库与数据挖掘应用.ppt”这个文件中,可能包含了如何设计和实现数据仓库的架构,以及如何在特定业务场景下应用数据挖掘技术的案例和最佳实践。通过学习这些内容,读者可以更好地理解和掌握如何在自己的组织...
分布式系统设计的核心在于保证系统组件之间的正确交互和数据一致性,同时还需保证系统的高可用性和故障恢复能力。Akka提供了分布式系统设计所需的多种机制和工具,比如远程消息传递、分布式数据管理和故障检测与恢复...
最后,最佳实践章节可能涵盖了在特定场景下如何应用这些技术和策略,例如在高并发、大数据量或者实时性要求高的场景下,如何选择合适的同步策略和优化手段,以达到最佳的数据同步效果。 总之,TDSQL异构数据同步与...
- **视图一致性**:客户端在每次与ZooKeeper服务交互时,都会接收到一个代表最新状态的数据视图。 ### ZooKeeper的数据模型和操作 - **树状层次结构**:ZooKeeper维护的是一个树状的层次结构,节点之间通过路径...
- **功能基础**:了解RAC的基本工作原理,包括如何通过多个节点共享缓存来提供服务,以及如何通过私有网络和共享存储实现数据的一致性和可靠性。 - **高可用性**:通过消除节点和Oracle软件作为单点故障点,确保系统...
- **优化策略**:通过引入一致性哈希算法、动态后端列表等方式,进一步提高负载均衡的效果。 ##### 6. Tengine统一网关的运维与管理 - **协议卸载**:减轻后端服务的负担,提高系统的整体性能。 - **动态服务发现*...