其他分享
首页 > 其他分享> > Binlog实时数据采集、落地数据使用的思考总结

Binlog实时数据采集、落地数据使用的思考总结

作者:互联网

前文

  今天偶然刷新技术公众号的时候,看到一篇这样文章,是基于Flink有关于Mysql Binlog数据采集的方案,看了一下实践方法和具体操作有一些考虑情况不足的情况,缺少一些处理实际情况的操作。笔者之前有些过一些类似的采集工具实践的文章,但是并没有在整体上做出一个系统性的总结,所以我在想,是不是可以做一个个人总结性的文章,把Binlog采集中的问题以及相应的解决方案也进行总结呢?     可能很多人对于Binlog的认识还不是很充足,可能有些人会粗浅的认为:“它不就是mysql产生的,有固定结构的log嘛,把数据采集过来,然后把它做一下数据落地,它有什么难的呢?” 的确,它本质上确实就是个log,可是实际上,关于Binlog采集从场景分析,再到技术选型,整体内部有很多不为人知的坑,不要小瞧了它。     笔者写这篇文章,目的是把实际工作中对于Binlog数据采集的开发流程的原则、注意事项、可能存在的问题点展示出来,其中也会有笔者自己的一些个人总结数据采集中的原则,为大家作参考,都是干货。   所以开始吧!  

个人总结原则

 

  首先抛开技术框架的讨论,个人总结Binlog 日志的数据采集主要原则:



  分别阐述一下这三个原则的具体含义

 

  原则一

    在数据采集中,数据落地一般都会使用时间分区进行落地,那就需要我们确定一下固定的时间戳作为时间分区的基础时间序列。 在这种情况下看来,业务数据上的时间戳字段,无论是从实际开发中获取此时间戳的角度,还是现实表中都会存在这样的时间戳,都不可能所有表完全满足。     举一下反例:     表 :业务时间戳     table A : create_time,update_time     table B : create_time     table C : create_at     table D : 无

 

    像这样的情况,理论上可以通过限制 RD 和 DBA 的在设计表时规则化表结构来实现时间戳以及命名的统一化、做限制,但是是在实际工作中,这样的情况基本上是做不到的,相信很多读者也会遇到这样的情况。     可能很多做数据采集的同学会想,我们能不能要求他们去制定标准呢?     个人的想法是,可以,但是不能把大数据底层数据采集完全依靠这样互相制定的标准。原因有以下三点:

    所以如果想要使用唯一固定的时间序列,就要和业务的数据剥离开,我们想要的时间戳不受业务数据的变动的影响。

 

  原则二

    在业务数据库中,一定会存在表结构变更的问题,绝大部分情况为增加列,但是也会存在列重命名、列删除这类情况,而其中字段变更的顺序是不可控的。

    此原则想描述的是,导入到数据仓库中的表,要适应数据库表的各种操作,保持其可用性与列数据的正确性。

 

  原则三

    此数据可回溯,其中包括两个方面

 

    第一个描述的是,在采集binlog采集端,可以重新按位置采集binlog。

    第二个描述的是,在消费binlog落地的一端,可以重复消费把数据重新落地。

 

  此为笔者个人总结,无论是选择什么样的技术选型进行组合搭建,这几点原则是需要具备的。


实现方案以及具体操作

  技术架构 : Debezium + Confluent + Kafka + OSS/S3 + Hive
 

  基于原则一的解决方案

  Debezium 提供了 New Record State Extraction 的配置选项,相当于提供了一个transform 算子,可以抽取出binlog 中的元数据。 对于 0.10 版本的配置,可以抽取 table,version,connector,name,ts_ms,db,server_id,file,pos,row 等binlog元数据信息。
  其中ts_ms为binlog日志的产生时间,此为binlog元数据,可以应用于所有数据表,而且可以在完全对数据表内部结构不了解的情况下,使用此固定时间戳,完全实现我们的原则一。
  关于Debezium,不同版本之前的配置参数有可能是不同的,如果读者有需要实践的话需要在官方文档上确认相应版本的配置参数。 对于其他框架,例如市面上用的较多的Canal,或者读者有自己需要开发数据采集程序的话,binlog的元数据建议全部抽取出来,在此过程以及后续过程中都可能会被用到。

  基于原则二的解决方案


  对于 Hive ,目前主流的数据存储格式为Parquet,ORC,Json,Avro 这几种。   抛开数据存储的效率讨论。   对于前两中数据格式,为列存,也就是说,这两种数据格式的数据读取,会严格依赖于我们数据表中的数据存储的顺序,这样的数据格式,是无法满足数据列灵活增加、删除等操作的。   Avro 格式为行存,但是它需要依赖于Schema Register服务,考虑Hive的数据表读取完全要依赖一个外部服务,风险过高。   最后确定使用Json格式进行数据存储,虽然这样的读取和存储效率没有其他格式高,但是这样可以保证业务数据的任何变更都可以在hive中读取出来。
  Debezium 组件采集binlog 的数据就是为json格式,和预期的设计方案是吻合的,可以解决原则二带来的问题。
  对于其他框架,例如市面上用的较多的Canal,可以设置为Json数据格式进行传输,或者读者有自己需要开发数据采集程序的话,也是相同的道理。

  基于原则三的解决方案


  在采集binlog采集端,可以重新按位置采集binlog。   此方案实现方式在Debezium官方网站上也给出了相应的解决方案,大概描述一下,需要用到 Kafkacat工具。

  对于每一个采集的mysql实例,创建数据采集任务时,Confluent都会相应的创建connector(也就是采集程序)的采集的元数据的topic,   里面会存储相应的时间戳、文件位置、以及位置,可以通过修改此数据,重置采集binlog日志的位置。   值得注意的是,此操作的时间节点也是有限制的,和mysql的binlog日志保存周期有关,所以此方式回溯时,需要确认的是mysql日志还存在。

  对于重复消费把数据重新落地。   此方案因为基于kafka,对于kafka重新制定消费offset消费位点的操作网上有很多方案,此处不再赘述。   对于读者自己实现的话,需要确认的选择的MQ支持此特性就好了。     https://debezium.io/documentation/faq/#how_to_change_the_offsets_of_the_source_database

 

业务场景影响下的重要操作

  此部分只描述在笔者技术架构下如何实现以下操作,读者可以根据自己选择的技术组件探究不同的技术方案。

  数据库分库分表的情况


    基于Debezium的架构,一个Source 端只能对应一个mysql实例进行采集,对于同一实例上的分表情况,可以使用 Debezium Topic Routing 功能,     在采集过滤binlog时把相应需要采集的表按照正则匹配写入一个指定的topic中。     在分库的情况下,还需要在 sink 端 增加 RegexRouter transform算子进行topic 间的合并写入操作。


  数据增量采集与全量采集

    对于采集组件,目前目前的配置都是以增量为默认,所以无论是选择 Debezium 还是 Canal的话,正常配置就好。     但是有些时候会存在需要采集全表的情况,笔者也给出一下全量的数据采集的方案。     方案一       Debezium 本身自带了这样的功能,需要将       snapshot.mode 参数选型设置为 when_needed,这样可以做表的全量采集操作。       官方文档中,在此处的参数配置有更加细致的描述。
  https://debezium.io/documentation/reference/0.10/connectors/mysql.html#snapshots
    方案二       使用sqoop和增量采集同时使用的方式进行。       此方案适用于表数据已存在很多,而目前binlog数据频率不频繁的情况下,使用此方案。       值得注意的是有两点:

  离线数据去重条件

    数据落地后,通过json表映射出binlog原始数据,那么问题也就来了,我们如何找到最新的一条数据呢?     也许我们可以简单的认为,用我们刚刚的抽取的那个ts_ms,然后做倒排不就好了吗?     大部分情况下这样做确实是可以的。     但是笔者在实际开发中,发现这样的情况是不能满足所有情况的,因为在binlog中,可能真的会存在 ts_ms 与 PK 相同,但是确实不同的两条数据。     那我们怎么去解决时间都相同的两条数据呢?     答案就在上文,我们刚刚建议的把binlog 的元数据都抽取出来。
SELECT *
FROM
(
SELECT *,
row_number() over(partition BY t.id ORDER BY t.`__ts_ms` DESC,t.`__file` DESC,cast(t.`__pos` AS int) DESC) AS order_by
FROM test t
WHERE dt='{pt}'
AND hour='{now_hour}'
) t1
WHERE t1.order_by = 1

 


    解释一下这个sql 中row_number的的条件     __ts_ms : 为binlog中的ts_ms,也就是事件时间。     __file : 为binlog此条数据所在file name。     __pos : 为binlog中此数据所在文件中的位置,为数据类型。
    这样的条件组合取出的数据,就是最新的一条。
    也许有读者会问,如果这条数据被删除了怎么办,你这样取出来的数据不就是错的了吗?     这个Debezium也有相应的操作,有相应的配置选项让你如何选择处理删除行为的binlog数据。     作为给大家的参考,笔者选择 rewrite 的参数配置,这样在上面的sql最外层只需要判断 “delete = ’false‘“ 就是正确的数据啦。
    https://debezium.io/documentation/reference/0.10/configuration/event-flattening.html

架构上的总结


  在技术选型以及整体与细节的架构中,笔者始终在坚持一个原则——   流程尽量简约而不简单,数据环节越长,出问题的环节就可能越多。对于后期锁定问题与运维难度也会很高。
  所以笔者在技术选型也曾考虑过Flink + Kafka 的这种方式,但是基于当时的现状,笔者并没有选择这样的技术选型,笔者也阐述一下原因。

  总结起来,我当时对于Flink的思考,如果Flink没有做开发和运维监控的平台化的情况下,可以作为一个临时方案,但是后期如果一直在这样一个开发流程下缝缝补补,多人开发下很容易出现问题,或者就是大家都这样一个程序框架下造轮子,而且越造越慢。而且后期的主要项目方向并没有把Flink平台化提上日程,所以也是考虑了一部分未来的情况进行的选择。   所以个人最后确定技术选型的时候,并没有选用Flink。

 

结束语

  此篇文章笔者写的较为理论化,也是对此场景的一个技术理论总结。如果文中有其他不明确的操作的话,可以参考笔者之前的文章,有详细的代码级操作。

  技术架构上的方案多种多样,笔者只是选择了其中一种进行实现,也希望大家有其他的技术方案或者理论进行交流,烦请指正。

  微信:Franki__5

  

 

 

标签:Binlog,原则,binlog,实时,采集,笔者,数据,Debezium
来源: https://www.cnblogs.com/eric-ln/p/12884496.html