首页> 中国专利> 一种基于mysql数据同步到异构数据源的系统及方法

一种基于mysql数据同步到异构数据源的系统及方法

摘要

本发明涉及数据同步技术领域,具体涉及一种基于mysql数据同步到异构数据源的方法。一种基于mysql数据同步到异构数据源的方法,包括canal通过主从复制的协议从mysql节点上面拉取binlog数据;对binlog数据进行日志解析,形成解析数据;对解析数据进行合并处理,形成合并数据;对合并数据进行转换,转换成标准格式,报文最外层为tupe节点和schema节点;消费转换后的数据,对异构数据源进行相应的操作。本发明还公开一种基于mysql数据同步到异构数据源的系统。采用本发明不侵入业务系统,通过对mysql的binlog处理不影响mysql的性能并且能进行实时同步,提高查询效率高。

著录项

  • 公开/公告号CN113821532A

    专利类型发明专利

  • 公开/公告日2021-12-21

    原文格式PDF

  • 申请/专利权人 重庆富民银行股份有限公司;

    申请/专利号CN202111154477.1

  • 发明设计人 黎杰;罗鹏;

    申请日2021-09-29

  • 分类号G06F16/242(20190101);G06F16/27(20190101);

  • 代理机构50217 重庆强大凯创专利代理事务所(普通合伙);

  • 代理人赵玉乾

  • 地址 401121 重庆市渝北区财富东路2号涉外商务区一期B1栋

  • 入库时间 2023-06-19 13:46:35

说明书

技术领域

本发明涉及数据同步技术领域,具体为一种基于mysql数据同步到异构数据源的系统及方法。

背景技术

MySQL是目前应用比较广泛的关系型数据库管理系统,当Mysql数据量较大的时候,查询性能会急剧下降,当前有很多其他的存储引擎可以解决大数据量的查询问题,但是没有完善的工具进行异构数据源的同步,因此目前急需解决异构数据源的同步问题。

发明内容

本发明目的之一在于提供一种基于mysql数据同步到异构数据源的方法,以。

一种基于mysql数据同步到异构数据源的方法,包括步骤如下:

canal通过主从复制的协议从mysql节点上面拉取binlog数据;

对binlog数据进行日志解析,形成解析数据;

对解析数据进行合并处理,形成合并数据;

对合并数据进行转换,转换成标准格式,报文最外层为tupe节点和schema节点;

消费转换后的数据,对异构数据源进行相应的操作。

采用本发明的技术方案:1、不侵入业务系统,通过对mysql的binlog处理不影响mysql的性能并且能进行实时同步;2、操作合并后批量执行能增强异构数据的同步性能;3、解决mysql海量数据查询性能问题,查询效率高。

进一步,所述的tupe节点是一个数组结构,内部存储每条binlog数据的具体信息,tupe节点包括流水id、操作时间戳、操作符和操作的明细数据,流水id组成规则是通过binlog名字加偏移量。流水id,作用为防止重复操作,流水id组成规则是通过binlog名字加偏移量,能保证每个操作的id唯一且不重复,当消费端处理后会存储至redis,防止重复操作,也即通过redis解决数据重复性问题。

进一步,schema节点内部包含了fields数组节点、tableName节点和namespace节点。tableName和namespace是异构数据源的表名以及命名空间标识。

进一步,为了防止数据堆积,在消费转换的数据之前,还包括将转换后的数据发送至kafka中间件。

进一步,还包括重写kafka的partition,对库名和表名进行hash分组。通过kafka自定义分区,能保证单表同步的顺序性,能进行自动容错。

本发明的目的之二在于提供一种基于mysql数据同步到异构数据源的系统。

一种基于mysql数据同步到异构数据源的系统,包括binlog数据拉取模块,采用canal通过主从复制的协议从mysql节点上面拉取binlog数据;

日志解析模块,用于对binlog数据进行日志解析,形成解析数据;

数据预处理模块,用于对解析数据进行合并处理,形成合并数据;

数据转换模块,用于对合并数据进行转换,转换成标准格式,报文最外层为tupe节点和schema节点;

数据消费模块,用于消费转换后的数据,对异构数据源进行相应的操作。

进一步,为了防止数据堆积,还包括kafka中间件,用于接收转换后的数据后,通过kafka中间件对转换后的数据进行消费,同步到异构数据源。

进一步,所述的tupe节点是一个数组结构,内部存储每条binlog数据的具体信息,tupe节点包括流水id、操作时间戳、操作符和操作的明细数据,流水id组成规则是通过binlog名字加偏移量,schema节点内部包含了fields数组节点、tableName节点和namespace节点。流水id,作用为防止重复操作,能保证每个操作的id唯一且不重复,当消费端处理后会存储至redis进行防止重复操作。

附图说明

图1为本发明一种基于mysql数据同步到异构数据源的方法实施例的流程图。

具体实施方式

下面通过具体实施方式进一步详细说明:

如附图1所示,本实施例公开了一种基于mysql数据同步到异构数据源的方法,包括步骤如下:

canal通过主从复制的协议从mysql节点上面拉取binlog数据,本实施例中canal模拟mysql的slave。canal理解为一个用来同步增量数据的一个工具,主要用途是基于MySQL数据库增量日志解析,提供增量数据订阅和消费。Binlog,即二进制文件,记录了MySQL所有数据的变更,并以二进制的形式存储。Canal和binlog均为现有技术。

对binlog数据进行日志解析,形成解析数据。如对A表更新了10条数据,然后对B表删除了5条数据然后,又对A表新增了6条数据。数据如下:

json1:{a表添加10条数据};

json2:{b表修改5条数据};

json3:{a表删除6条数据}。

为了后续能减少对数据源的操作次数,对解析数据进行合并处理,形成合并数据。处理后如下:

json1:{a表添加10条数据并且a表删除6条数据};

json2:{b表修改5条数据}。

对合并数据进行转换,转换成标准格式,报文最外层为tupe节点和schema节点。所述的tupe节点是一个数组结构,内部存储每条binlog数据的具体信息,比如:"tupe":[["mysql-bin.00001000000000000000090222",1517194451453,"i","16","zhangsan"],["mysql-bin.00001000000000000000090345",1517194455643,"u","15","lisi"]],其中第一列是流水id,作用为防止重复操作,组成规则是通过binlog名字加偏移量组成,比如示例中的第一条数据流水id组成为binlog名称mysql-bin.000010后补20位0变为mysql-bin.00001000000000000000000000,再加上唯一的偏移量90222变为mysql-bin.00001000000000000000090222,这样能保证每个操作的id唯一且不重复,当消费端处理后会存储至redis进行防止重复操作;第二列则为操作时间戳;第三列为操作符,i表示插入,u表示更新,d表示删除;后面列则为操作的明细数据。

schema节点内部包含了fields数组节点、tableName节点和namespace节点。例如:"schema":{"fields":[],"tableName":"testTable","namespace":"mysql.test"},其中tableName和namespace是异构数据源的表名以及命名空间标识,fields是操作数据的元数据信息,"fields":[{"isPk":false,"name":"id","type":"int(10)"},{"isPk":false,"name":"name","type":"varchar(20)"}],其中里面包含了两条数据的元数据,isPk标识该字段是否是mysql的主键,name表示该字段在mysql的字段名称,type表示该字段在mysql中的类型。

本实施例中,在消费转换的数据之前,为了防止数据堆积,还包括将转换后的数据发送至kafka中间件。还包括重写kafka的partition,对库名和表名进行hash分组,以保证对于一个表的操作只能在一个partition里面并且是有序的。

消费kafka中间件的数据,对异构数据源进行相应的操作。所述操作包括但不限于增删改。

本实施例还公开一种基于mysql数据同步到异构数据源的系统,包括binlog数据拉取模块,采用canal通过主从复制的协议从mysql节点上面拉取binlog数据;

日志解析模块,用于对binlog数据进行日志解析,形成解析数据;

数据预处理模块,用于对解析数据进行合并处理,形成合并数据;

数据转换模块,用于对合并数据进行转换,转换成标准格式,报文最外层为tupe节点和schema节点;所述的tupe节点是一个数组结构,内部存储每条binlog数据的具体信息,tupe节点包括流水id、操作时间戳、操作符和操作的明细数据,流水id组成规则是通过binlog名字加偏移量,schema节点内部包含了fields数组节点、tableName节点和namespace节点。关于tupe节点和schema节点的其他说明与方法中相同,在此不再赘述。

还包括kafka中间件,用于接收转换后的数据后,通过kafka中间件对转换后的数据进行消费,同步到异构数据源;

数据消费模块,用于消费转换后的数据,对异构数据源进行相应的操作。所述操作包括但不限于增删改。

以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号