巧用Event发现问题

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
云数据库 RDS PostgreSQL,高可用系列 2核4GB
简介: 巧用Event发现问题

有了前面对Event的了解,我们就可以利用这些Event来完成一些工作了。我曾经在学习了这些常用的Event后,使用C语言写过一个解析Event的工具,我叫它‘infobin’,意思就是从binary log提取信息的意思。据我所知虽然这个工具在少数情况下会出现BUG但是还是有些朋友在用。我这里并不是要推广我的工具,而是要告诉大家这种思路。我是结合工作中遇到的一些问题来完成了这个工具的,主要功能包含如下:

  • 分析binary log中是否有长期未提交的事务 ,长期不提交的事务将会引发更多的锁争用。
  • 分析binary log中是否有大事务 ,大事务的提交可能会堵塞其它事务的提交。
  • 分析binary log中每个表生成了多少DML Event,这样就能知道哪个表的修改量最大。
  • 分析binary log中Event的生成速度,这样就能知道哪个时间段生成的Event更多。

下面是这个工具的地址,供大家参考(我已经很久没更新了):https://github.com/gaopengcarl/infobin

这个工具的帮助信息如下:

  1. [root@gp1 infobin]# ./infobin
  2. USAGE ERROR!
  3. [Author]: gaopeng [QQ]:22389860 [blog]:http://blog.itpub.net/7728585/
  4. --USAGE:./infobin binlogfile pieces bigtrxsize bigtrxtime [-t] [-force]
  5. [binlogfile]:binlog file!
  6. [piece]:how many piece will split,is a Highly balanced histogram,
  7. find which time generate biggest binlog.(must:piece<2000000)
  8. [bigtrxsize](bytes):larger than this size trx will view.(must:trx>256(bytes))
  9. [bigtrxtime](sec):larger than this sec trx will view.(must:>0(sec))
  10. [[-t]]:if [-t] no detail is print out,the result will small
  11. [[-force]]:force analyze if unkown error check!!

接下来我们具体来看看这几个功能大概是怎么实现的。


一、分析长期未提交的事务

前面我已经多次提到过对于一个手动提交的事务而言有如下特点,我们以‘Insert’语句为列:

GTIDLOGEVENT和XIDEVENT是命令‘COMMIT’发起的时间。QUERYEVENT是第一个‘Insert’命令发起的时间。MAPEVENT/WRITEROWS_EVENT是每个‘Insert’命令发起的时间。那实际上我们就可以用(1)减去(2)就能得到第一个‘DML’命令发起到‘COMMIT’命令发起之间所消耗的时间,再使用一个用户输入参数来自定义多久没有提交的事务叫做长期未提交的事务就可以了,我的工具中使用bigtrxtime作为这个输入。我们来用一个例子说明,我们做如下语句:

语句 时间
begin T1
insert into testrr values(20); 11:25:22
insert into testrr values(30); 11:25:26
insert into testrr values(40); 11:25:28
commit; 11:25:30

我们来看看Event的顺序和时间如下:

Event 时间
GTIDLOGEVENT 11:25:30
QUERY_EVENT 11:25:22
MAP_EVENT(第1个insert) 11:25:22
WRITEROWSEVENT(第1个insert) 11:25:22
MAP_EVENT(第2个insert) 11:25:26
WRITEROWSEVENT(第2个insert) 11:25:26
MAP_EVENT(第3个insert) 11:25:28
WRITEROWSEVENT(第3个insert) 11:25:28
XID_EVENT 11:25:30

如果我们使用最后一个XIDEVENT的时间减去QUERYEVENT的时间,那么这个事务从第一条语句开始到‘COMMIT’的时间就计算出来了。注意一点,实际上‘BEGIN’命令并没有记录到Event中,它只是做了一个标记让事务不会自动进入提交流程,关于‘BEGIN’命令做了什么可以参考我的简书文章如下:https://www.jianshu.com/p/6de1e8071279


二、分析大事务

这部分实现比较简单,我们只需要扫描每一个事务GTIDLOGEVENT和XIDEVENT之间的所有Event将它们的总和计算下来,就可以得到每一个事务生成Event的大小(但是为了兼容最好计算QUERYEVENT和XID_EVENT之间的Event总量)。再使用一个用户输入参数自定义多大的事务叫做大事务就可以了,我的工具中使用bigtrxsize作为这个输入参数。

如果参数binlogrowimage参数设置为‘FULL’,我们可以大概计算一下特定表的每行数据修改生成的日志占用的大小:

‘Insert’和‘Delete’:因为只有beforeimage或者afterimage,因此100字节一行数据加上一些额外的开销大约加上10字节也就是110字节一行。如果定位大事务为100M那么大约修改量为100W行数据。

‘Update’:因为包含beforeimage和afterimage,因此上面的计算的110字节还需要乘以2。因此如果定位大事务为100M那么大约修改量为50W行数据。我认为20M作为大事务的定义比较合适,当然这个根据自己的需求进行计算。


三、分析binary log中Event的生成速度

这个实现就很简单了,我们只需要把binary log按照输入参数进行分片,统计结束Event和开始Event的时间差值就能大概算出每个分片生成花费了多久时间,我们工具使用piece作为分片的传入参数。

通过这个分析,我们可以大概知道哪一段时间Event生成量更大,也侧面反映了数据库的繁忙程度。


四、分析每个表生成了多少DML Event

这个功能也非常实用,通过这个分析我们可以知道数据库中哪一个表的修改量最大。实现方式主要是通过扫描binary log中的MAP_EVENT和接下来的DML Event,通过table id获取表名,然后将DML Event的大小归入这个表中,做一个链表,最后排序输出就好了。

但是前面我们说过table id即便在一个事务中也可能改变,这是我开始没有考虑到的,因此这个工具有一定的问题,但是大部分情况是可以正常运行的。


五、工具展示

下面我就来展示一下我说的这些功能,我做了如下操作:

  1. mysql> flush binary logs;
  2. Query OK, 0 rows affected (0.51 sec)

  3. mysql> select count(*) from tti;
  4. +----------+
  5. | count(*) |
  6. +----------+
  7. | 98304 |
  8. +----------+
  9. 1 row in set (0.06 sec)

  10. mysql> delete from tti;
  11. Query OK, 98304 rows affected (2.47 sec)

  12. mysql> begin;
  13. Query OK, 0 rows affected (0.00 sec)

  14. mysql> insert into tti values(1,'gaopeng');
  15. Query OK, 1 row affected (0.00 sec)

  16. mysql> select sleep(20);
  17. +-----------+
  18. | sleep(20) |
  19. +-----------+
  20. | 0 |
  21. +-----------+
  22. 1 row in set (20.03 sec)

  23. mysql> commit;
  24. Query OK, 0 rows affected (0.22 sec)

  25. mysql> insert into tpp values(10);
  26. Query OK, 1 row affected (0.14 sec)

在示例中我切换了一个binary log,同时做了3个事务:

删除了tti表数据一共98304行数据。向tti表插入了一条数据,等待了20多秒提交。向tpp表插入了一条数据。我们使用工具来分析一下,下面是统计输出:

  1. ./infobin mysql-bin.000005 3 1000000 15 -t > log.log
  2. more log.log

  3. ...
  4. -------------Total now--------------
  5. Trx total[counts]:3
  6. Event total[counts]:125
  7. Max trx event size:8207(bytes) Pos:420[0X1A4]
  8. Avg binlog size(/sec):9265.844(bytes)[9.049(kb)]
  9. Avg binlog size(/min):555950.625(bytes)[542.921(kb)]
  10. --Piece view:
  11. (1)Time:1561442359-1561442383(24(s)) piece:296507(bytes)[289.558(kb)]
  12. (2)Time:1561442383-1561442383(0(s)) piece:296507(bytes)[289.558(kb)]
  13. (3)Time:1561442383-1561442455(72(s)) piece:296507(bytes)[289.558(kb)]
  14. --Large than 500000(bytes) trx:
  15. (1)Trx_size:888703(bytes)[867.874(kb)] trx_begin_p:299[0X12B]
  16. trx_end_p:889002[0XD90AA]
  17. Total large trx count size(kb):#867.874(kb)
  18. --Large than 15(secs) trx:
  19. (1)Trx_sec:31(sec) trx_begin_time:[20190625 14:00:08(CST)]
  20. trx_end_time:[20190625 14:00:39(CST)] trx_begin_pos:889067
  21. trx_end_pos:889267 query_exe_time:0
  22. --Every Table binlog size(bytes) and times:
  23. Note:size unit is bytes
  24. ---(1)Current Table:test.tpp::
  25. Insert:binlog size(40(Bytes)) times(1)
  26. Update:binlog size(0(Bytes)) times(0)
  27. Delete:binlog size(0(Bytes)) times(0)
  28. Total:binlog size(40(Bytes)) times(1)
  29. ---(2)Current Table:test.tti::
  30. Insert:binlog size(48(Bytes)) times(1)
  31. Update:binlog size(0(Bytes)) times(0)
  32. Delete:binlog size(888551(Bytes)) times(109)
  33. Total:binlog size(888599(Bytes)) times(110)
  34. ---Total binlog dml event size:888639(Bytes) times(111)

我们发现我们做的操作都统计出来了:

包含一个大事务日志总量大于500K,大小为800K左右,这是我的删除tti表中98304行数据造成的。

  1. --Large than 500000(bytes) trx:
  2. (1)Trx_size:888703(bytes)[867.874(kb)] trx_begin_p:299[0X12B]
  3. trx_end_p:889002[0XD90AA]

包含一个长期未提交的事务,时间为31秒,这是我特意等待20多秒提交引起的。

  1. --Large than 15(secs) trx:
  2. (1)Trx_sec:31(sec) trx_begin_time:[20190625 14:00:08(CST)]
  3. trx_end_time:[20190625 14:00:39(CST)] trx_begin_pos:889067
  4. trx_end_pos:889267 query_exe_time:0

本binary log有两个表的修改记录tti和tpp,其中tti表有‘Delete’操作和‘Insert’操作,tpp表只有‘Insert’操作,并且包含了日志量的大小。

  1. --Every Table binlog size(bytes) and times:
  2. Note:size unit is bytes
  3. ---(1)Current Table:test.tpp::
  4. Insert:binlog size(40(Bytes)) times(1)
  5. Update:binlog size(0(Bytes)) times(0)
  6. Delete:binlog size(0(Bytes)) times(0)
  7. Total:binlog size(40(Bytes)) times(1)
  8. ---(2)Current Table:test.tti::
  9. Insert:binlog size(48(Bytes)) times(1)
  10. Update:binlog size(0(Bytes)) times(0)
  11. Delete:binlog size(888551(Bytes)) times(109)
  12. Total:binlog size(888599(Bytes)) times(110)
  13. ---Total binlog dml event size:888639(Bytes) times(111)

好了到这里我想告诉你的就是,学习了Event过后就可以自己通过各种语言去试着解析binary log,也许你还能写出更好的工具实现更多的功能。

当然也可以通过mysqlbinlog 进行解析后,然后通过shell/python去统计,但是这个工具的速度要远远快于这种方式。

            </div>
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
11月前
|
API 数据库 决策智能
基于百炼平台qwen-max的api 打造一套 检索增强 图谱增强 智能工具调用决策的智能体
本文介绍了一种基于阿里云百炼平台的`qwen-max` API构建的智能体方案,该方案集成了检索增强、图谱增强及智能工具调用决策三大模块,旨在通过结合外部数据源、知识图谱和自动化决策提高智能回答的准确性和丰富度。通过具体代码示例展示了如何实现这些功能,最终形成一个能灵活应对多种查询需求的智能系统。
820 11
|
机器学习/深度学习 人工智能 搜索推荐
人工智能在医疗诊断中的应用与挑战
【10月更文挑战第28天】 本文深入探讨了人工智能(AI)在医疗诊断领域的应用现状、面临的挑战以及未来的发展趋势。通过分析AI技术如何提高诊断效率和准确性,同时指出数据隐私、伦理问题和技术局限性等关键挑战,本文旨在为医疗行业和AI研究者提供有价值的参考。
335 0
|
机器学习/深度学习 人工智能 自然语言处理
NLP的原理是什么?
【10月更文挑战第8天】NLP的原理是什么?
435 0
|
数据可视化 网络安全 开发工具
【新人必会】远程开发可视化 - VSCode篇
【新人必会】远程开发可视化 - VSCode篇
375 0
如何用宜搭1分钟搞定消息通知
消息通知是在流程表单发起编辑等阶段操作后或者设置定时规则定时通知指定人员的功能
3345 0
如何用宜搭1分钟搞定消息通知
|
存储 搜索推荐 算法
大数据的下一站是什么?服务/分析一体化(HSAP)
大数据的下一站是什么?服务/分析一体化(HSAP)
12896 0
|
存储 监控 安全
数据人必知!认识数据“四种”分类“五大”价值,帮企业找到核心数据
在大数据时代,企业首先要做的是收集大量数据,但收集数据并非仅是把收集过来的数据放到数据存储平台里面那么简单,更重要的是对数据进行分类、加工及管理。
数据人必知!认识数据“四种”分类“五大”价值,帮企业找到核心数据
|
XML 数据格式
【opencv3】滑动条调节RGB颜色阈值并输出滑动条的值
【opencv3】滑动条调节RGB颜色阈值并输出滑动条的值
|
Java Android开发
【错误记录】Android 应用配置第三方 so 动态库 ( /data/app/comxxx==/base.apk/lib/arm64-v8a]couldn‘t find “libx.so“ )
【错误记录】Android 应用配置第三方 so 动态库 ( /data/app/comxxx==/base.apk/lib/arm64-v8a]couldn‘t find “libx.so“ )
958 0
【错误记录】Android 应用配置第三方 so 动态库 ( /data/app/comxxx==/base.apk/lib/arm64-v8a]couldn‘t find “libx.so“ )
|
Web App开发 Rust Kubernetes
2021 年 Rust 生态调研报告 | 星辰大海 【上篇】
2021 年 Rust 生态调研报告 | 星辰大海 【上篇】
1052 0