`

阿里巴巴开源项目: 基于mysql数据库binlog的增量订阅&消费

阅读更多
背景

   早期,阿里巴巴B2B公司因为存在杭州和美国双机房部署,存在跨机房同步的业务需求。不过早期的数据库同步业务,主要是基于trigger的方式获取增量变更,不过从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务,从此开启了一段新纪元。ps. 目前内部使用的同步,已经支持mysql5.x和oracle部分版本的日志解析

基于日志增量订阅&消费支持的业务:
数据库镜像
数据库实时备份
多级索引 (卖家和买家各自分库索引)
search build
业务cache刷新
价格变化等重要业务消息
项目介绍

   名称:canal [kə'næl]
   译意: 水道/管道/沟渠
   语言: 纯java开发
   定位: 基于数据库增量日志解析,提供增量数据订阅&消费,目前主要支持了mysql

工作原理
mysql主备复制实现


从上层来看,复制分成三步:
master将改变记录到二进制日志(binary log)中(这些记录叫做二进制日志事件,binary log events,可以通过show binlog events进行查看);
slave将master的binary log events拷贝到它的中继日志(relay log);
slave重做中继日志中的事件,将改变反映它自己的数据。
canal的工作原理:

原理相对比较简单:
canal模拟mysql slave的交互协议,伪装自己为mysql slave,向mysql master发送dump协议
mysql master收到dump请求,开始推送binary log给slave(也就是canal)
canal解析binary log对象(原始为byte流)
架构


说明:

server代表一个canal运行实例,对应于一个jvm
instance对应于一个数据队列  (1个server对应1..n个instance)
instance模块:
eventParser (数据源接入,模拟slave协议和master进行交互,协议解析)
eventSink (Parser和Store链接器,进行数据过滤,加工,分发的工作)
eventStore (数据存储)
metaManager (增量订阅&消费信息管理器)
知识科普
mysql的Binlay Log介绍
http://dev.mysql.com/doc/refman/5.5/en/binary-log.html
http://www.taobaodba.com/html/474_mysqls-binary-log_details.html
简单点说:
mysql的binlog是多文件存储,定位一个LogEvent需要通过binlog filename +  binlog position,进行定位
mysql的binlog数据格式,按照生成的方式,主要分为:statement-based、row-based、mixed。
Java代码  收藏代码
mysql> show variables like 'binlog_format'; 
+---------------+-------+ 
| Variable_name | Value | 
+---------------+-------+ 
| binlog_format | ROW   | 
+---------------+-------+ 
1 row in set (0.00 sec) 
目前canal只能支持row模式的增量订阅(statement只有sql,没有数据,所以无法获取原始的变更日志)


EventParser设计
大致过程:

整个parser过程大致可分为几步:
Connection获取上一次解析成功的位置  (如果第一次启动,则获取初始指定的位置或者是当前数据库的binlog位点)
Connection建立链接,发送BINLOG_DUMP指令
// 0. write command number
// 1. write 4 bytes bin-log position to start at
// 2. write 2 bytes bin-log flags
// 3. write 4 bytes server id of the slave
// 4. write bin-log file name
Mysql开始推送Binaly Log
接收到的Binaly Log的通过Binlog parser进行协议解析,补充一些特定信息
// 补充字段名字,字段类型,主键信息,unsigned类型处理
传递给EventSink模块进行数据存储,是一个阻塞操作,直到存储成功
存储成功后,定时记录Binaly Log位置
mysql的Binlay Log网络协议:


说明:
图中的协议4byte header,主要是描述整个binlog网络包的length
binlog event structure,详细信息请参考: http://dev.mysql.com/doc/internals/en/binary-log.html
EventSink设计

说明:
数据过滤:支持通配符的过滤模式,表名,字段内容等
数据路由/分发:解决1:n (1个parser对应多个store的模式)
数据归并:解决n:1 (多个parser对应1个store)
数据加工:在进入store之前进行额外的处理,比如join
数据1:n业务
  为了合理的利用数据库资源, 一般常见的业务都是按照schema进行隔离,然后在mysql上层或者dao这一层面上,进行一个数据源路由,屏蔽数据库物理位置对开发的影响,阿里系主要是通过cobar/tddl来解决数据源路由问题。
  所以,一般一个数据库实例上,会部署多个schema,每个schema会有由1个或者多个业务方关注

数据n:1业务
  同样,当一个业务的数据规模达到一定的量级后,必然会涉及到水平拆分和垂直拆分的问题,针对这些拆分的数据需要处理时,就需要链接多个store进行处理,消费的位点就会变成多份,而且数据消费的进度无法得到尽可能有序的保证。
  所以,在一定业务场景下,需要将拆分后的增量数据进行归并处理,比如按照时间戳/全局id进行排序归并.

EventStore设计
1.  目前仅实现了Memory内存模式,后续计划增加本地file存储,mixed混合模式
2.  借鉴了Disruptor的RingBuffer的实现思路
RingBuffer设计:

定义了3个cursor
Put :  Sink模块进行数据存储的最后一次写入位置
Get :  数据订阅获取的最后一次提取位置
Ack :  数据消费成功的最后一次消费位置
借鉴Disruptor的RingBuffer的实现,将RingBuffer拉直来看:

实现说明:
Put/Get/Ack cursor用于递增,采用long型存储
buffer的get操作,通过取余或者与操作。(与操作: cusor & (size - 1) , size需要为2的指数,效率比较高)
Instance设计



instance代表了一个实际运行的数据队列,包括了EventPaser,EventSink,EventStore等组件。
抽象了CanalInstanceGenerator,主要是考虑配置的管理方式:
manager方式: 和你自己的内部web console/manager系统进行对接。(目前主要是公司内部使用)
spring方式:基于spring xml + properties进行定义,构建spring配置.
Server设计


server代表了一个canal的运行实例,为了方便组件化使用,特意抽象了Embeded(嵌入式) / Netty(网络访问)的两种实现
Embeded :  对latency和可用性都有比较高的要求,自己又能hold住分布式的相关技术(比如failover)
Netty :  基于netty封装了一层网络协议,由canal server保证其可用性,采用的pull模型,当然latency会稍微打点折扣,不过这个也视情况而定。(阿里系的notify和metaq,典型的push/pull模型,目前也逐步的在向pull模型靠拢,push在数据量大的时候会有一些问题)
增量订阅/消费设计

具体的协议格式,可参见:CanalProtocol.proto
get/ack/rollback协议介绍:
Message getWithoutAck(int batchSize),允许指定batchSize,一次可以获取多条,每次返回的对象为Message,包含的内容为:
a. batch id 唯一标识
b. entries 具体的数据对象,对应的数据对象格式:EntryProtocol.proto
void rollback(long batchId),顾命思议,回滚上次的get请求,重新获取数据。基于get获取的batchId进行提交,避免误操作
void ack(long batchId),顾命思议,确认已经消费成功,通知server删除数据。基于get获取的batchId进行提交,避免误操作
canal的get/ack/rollback协议和常规的jms协议有所不同,允许get/ack异步处理,比如可以连续调用get多次,后续异步按顺序提交ack/rollback,项目中称之为流式api.
流式api设计的好处:
get/ack异步化,减少因ack带来的网络延迟和操作成本 (99%的状态都是处于正常状态,异常的rollback属于个别情况,没必要为个别的case牺牲整个性能)
get获取数据后,业务消费存在瓶颈或者需要多进程/多线程消费时,可以不停的轮询get数据,不停的往后发送任务,提高并行化.  (作者在实际业务中的一个case:业务数据消费需要跨中美网络,所以一次操作基本在200ms以上,为了减少延迟,所以需要实施并行化)
流式api设计:

每次get操作都会在meta中产生一个mark,mark标记会递增,保证运行过程中mark的唯一性
每次的get操作,都会在上一次的mark操作记录的cursor继续往后取,如果mark不存在,则在last ack cursor继续往后取
进行ack时,需要按照mark的顺序进行数序ack,不能跳跃ack. ack会删除当前的mark标记,并将对应的mark位置更新为last ack cusor
一旦出现异常情况,客户端可发起rollback情况,重新置位:删除所有的mark, 清理get请求位置,下次请求会从last ack cursor继续往后取
数据对象格式:EntryProtocol.proto
Java代码  收藏代码
Entry 
    Header 
        logfileName [binlog文件名] 
        logfileOffset [binlog position] 
        executeTime [发生的变更] 
        schemaName  
        tableName 
        eventType [insert/update/delete类型] 
    entryType   [事务头BEGIN/事务尾END/数据ROWDATA] 
    storeValue  [byte数据,可展开,对应的类型为RowChange] 
     
RowChange 
    isDdl       [是否是ddl变更操作,比如create table/drop table] 
    sql     [具体的ddl sql] 
    rowDatas    [具体insert/update/delete的变更数据,可为多条,1个binlog event事件可对应多条变更,比如批处理] 
        beforeColumns [Column类型的数组] 
        afterColumns [Column类型的数组] 
         
Column  
    index        
    sqlType     [jdbc type] 
    name        [column name] 
    isKey       [是否为主键] 
    updated     [是否发生过变更] 
    isNull      [值是否为null] 
    value       [具体的内容,注意为文本] 
说明:
可以提供数据库变更前和变更后的字段内容,针对binlog中没有的name,isKey等信息进行补全
可以提供ddl的变更语句

HA机制设计
canal的ha分为两部分,canal server和canal client分别有对应的ha实现
canal server:  为了减少对mysql dump的请求,不同server上的instance要求同一时间只能有一个处于running,其他的处于standby状态.
canal client: 为了保证有序性,一份instance同一时间只能由一个canal client进行get/ack/rollback操作,否则客户端接收无法保证有序。
整个HA机制的控制主要是依赖了zookeeper的几个特性,watcher和EPHEMERAL节点(和session生命周期绑定),可以看下我之前zookeeper的相关文章。

Canal Server:

大致步骤:
canal server要启动某个canal instance时都先向zookeeper进行一次尝试启动判断  (实现:创建EPHEMERAL节点,谁创建成功就允许谁启动)
创建zookeeper节点成功后,对应的canal server就启动对应的canal instance,没有创建成功的canal instance就会处于standby状态
一旦zookeeper发现canal server A创建的节点消失后,立即通知其他的canal server再次进行步骤1的操作,重新选出一个canal server启动instance.
canal client每次进行connect时,会首先向zookeeper询问当前是谁启动了canal instance,然后和其建立链接,一旦链接不可用,会重新尝试connect.
Canal Client的方式和canal server方式类似,也是利用zokeeper的抢占EPHEMERAL节点的方式进行控制.

最后
项目的代码: https://github.com/alibabatech/canal
这里给出了如何快速启动Canal Server和Canal Client的例子,如有问题可随时联系
Quick Start
http://agapple.iteye.com/blog/1796070
https://github.com/alibabatech/canal/wiki/QuickStart
Client Example
http://agapple.iteye.com/blog/1796620
https://github.com/alibabatech/canal/wiki/ClientExample
分享到:
评论

相关推荐

    canal-php:Alibaba mysql database binlog incremental subscription & consumer components Canal's php client[阿里巴巴mysql数据库binlog的增量订阅&消费组件 Canal 的 php 客户端 ] https

    canal-php 是阿里巴巴开源项目 是阿里巴巴mysql数据库binlog的增量订阅&消费组件 的 php 客户端。为 php 开发者提供一个更友好的使用 Canal 的方式。Canal 是mysql数据库binlog的增量订阅&消费组件。 基于日志增量...

    canal-php 监控数据库变更

    canal-php 是阿里巴巴开源项目 Canal是阿里巴巴mysql数据库binlog的增量订阅&消费组件 的 php 客户端。为 php 开发者提供一个更友好的使用 Canal 的方式。Canal 是mysql数据库binlog的增量订阅&消费组件。 基于日志...

    (源码)基于MySQL数据库增量日志解析的Canal数据同步系统.zip

    Canal是一个基于MySQL数据库增量日志解析的开源项目,主要用于数据的增量订阅和消费。Canal通过模拟MySQL的slave协议,从MySQL的master节点获取binlog,并解析这些binlog以获取数据库的增量变更,从而实现数据的实时...

    springboot-binlog:基于 mysql-binlog-connector-java 实现增量数据的收集

    `springboot-binlog`项目就是针对这一需求的一个解决方案,它利用`mysql-binlog-connector-java`库来实现MySQL数据库的增量数据捕获。以下是对该项目及相关技术的详细解释。 ### SpringBoot与MySQL Binlog **...

    基于 mysql-binlog-connector-java 实现增量数据的收集.zip

    `mysql-binlog-connector-java` 是一个开源库,它允许Java应用程序实时读取MySQL的binlog事件,从而实现增量数据的收集。本资源包主要探讨了如何利用此库在Spring Boot项目中实现这一功能。 首先,我们需要理解...

    CanalSharp:阿里巴巴MySQL数据库Binlog订阅和使用者组件Canal的.NET客户端

    CanalSharp是阿里巴巴开源项目mysql数据库binlog的增量订阅和消费组件Canal的.NET客户端。在数据库中,更改数据捕获( CDC )是一组软件设计模式,用于确定和跟踪已更改的数据,骑士可以使用已更改的数据来采取措施...

    canal-python:alibaba canal 客户端(Python3 版本)

    canal-python 是阿里巴巴开源项目 是阿里巴巴mysql数据库binlog的增量订阅&消费组件 的 python 客户端。为 python 开发者提供一个更友好的使用 Canal 的方式。Canal 是mysql数据库binlog的增量订阅&消费组件。 基于...

    同步MySQL数据库增量变化fountain.zip

    Fountain是监查、捕捉MySQL数据库的增量变化,分发数据变化给消费者处理的一套解决方案。  Fountain,英[ˈfaʊntən],是”源泉“的意思,MySQL数据库源源不断的下发增量,因此而得名。  任何需要快速、准确...

    MySQL数据库实时增量同步工具源代码.zip

    MySQL数据库实时增量同步工具是一种高效的数据管理解决方案,它允许用户在多个数据库实例之间实时地、持续地传输和更新数据。这种工具通常用于分布式系统、数据备份、数据仓库以及需要跨服务器复制数据的场景。源...

    canal数据binlog同步demo

    Canal是阿里巴巴开源的一个数据库实时增量数据订阅与推送组件,它能监听MySQL的binlog事件,并将其转化为结构化的数据,方便进一步处理和应用,如数据复制、数据同步到其他系统等。 【描述详解】 描述中提到,...

    springboot集成canal-adapter实现项目中对于数据库数据监听和自定义消费

    canal基于MySQL数据库增量日志解析,提供增量数据订阅和消费,是阿里开源CDC工具,它可以获取MySQL binlog数据并解析,然后将数据变动传输给下游。基于canal,可以实现从MySQL到其他数据库的实时同步 MySQL主备复制...

    使用canal增量同步mysql数据库信息

    使用 Canal 增量同步 MySQL 数据库信息 Canal 是一个基于 MySQL 二进制日志的高性能数据同步系统,广泛用于阿里巴巴集团(包括 https://www.taobao.com),以提供可靠的低延迟增量数据管道。 Canal 广泛应用于大...

    canal + mysql + rabbitmq步骤(CanalListener)

    Canal是一款由阿里巴巴开源的、基于MySQL binlog的增量日志订阅与消费组件,它能够监听MySQL数据库的增删改查操作,并将这些变更事件转发到各种目标系统,如RabbitMQ消息队列。本教程将详细介绍如何配置Canal监听...

    binlog开源同步组件canal部署包,版本1.1.4

    早期阿里巴巴因为杭州和美国双机房部署,存在跨机房同步的业务需求,实现方式主要是基于业务 trigger 获取增量变更。从 2010 年开始,业务逐步尝试数据库日志解析获取增量变更进行同步,由此衍生出了大量的数据库...

    阿里巴巴 mysql 数据 canal

    阿里巴巴MySQL数据Canal是一款高效、稳定且开源的数据同步工具,主要用于数据库实时增量数据订阅与推送。它能够实现实时地从MySQL数据库中捕获更改,然后将这些更改推送到各种消费端,如消息队列、大数据存储或者...

    (源码)基于Java的Canal数据库同步系统.zip

    Canal是一个基于数据库增量日志解析的开源项目,主要用于数据库的增量数据订阅和消费。它通过解析MySQL的二进制日志(binlog),提供实时数据同步功能,支持多种数据库操作,如插入、更新和删除等。Canal广泛应用于...

    MySQL数据库基础与实例教程所有资源

    MySQL数据库是一种广泛使用的开源关系型数据库管理系统,以其高效、可靠和易于学习的特性深受开发者喜爱。本教程将全面介绍MySQL的基础知识,并通过实例帮助你掌握其核心操作。 首先,我们来了解一下MySQL的基本...

    canal同步mysql

    【标签】:“canal”是阿里巴巴开源的一个数据库增量日志提取器,它能够监听MySQL数据库的binlog事件,当数据库中的数据发生变化时,如增删改查操作,canal会捕获这些变化并将其转化为结构化的数据事件。而“mysql ...

    数据库同步工具rds_dbsync.zip

    MySQL -> PostgreSQL/Greenplum(binlog_minner binlog_loader)功能:基于 MySQL binlog 解析的增量数据同步状态:已开放二进制 文档3. PostgreSQL -> PostgreSQL/Greenplum pgsql2gp功能:基于 PostgreSQL 逻辑...

    mysql-binlog-in-realtime 源代码包

    MySQL的binlog是一种记录数据库所有更改的增量日志,包括插入、更新和删除操作。它采用事件的形式存储,每个事件都包含了执行该操作的所有必要信息。binlog有两种格式:Statement和Row,Statement记录的是SQL语句,...

Global site tag (gtag.js) - Google Analytics