巧用Event发现问题

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,高可用系列 2核4GB
云数据库 RDS PostgreSQL,高可用系列 2核4GB
简介: 巧用Event发现问题

有了前面对Event的了解,我们就可以利用这些Event来完成一些工作了。我曾经在学习了这些常用的Event后,使用C语言写过一个解析Event的工具,我叫它‘infobin’,意思就是从binary log提取信息的意思。据我所知虽然这个工具在少数情况下会出现BUG但是还是有些朋友在用。我这里并不是要推广我的工具,而是要告诉大家这种思路。我是结合工作中遇到的一些问题来完成了这个工具的,主要功能包含如下:

  • 分析binary log中是否有长期未提交的事务 ,长期不提交的事务将会引发更多的锁争用。
  • 分析binary log中是否有大事务 ,大事务的提交可能会堵塞其它事务的提交。
  • 分析binary log中每个表生成了多少DML Event,这样就能知道哪个表的修改量最大。
  • 分析binary log中Event的生成速度,这样就能知道哪个时间段生成的Event更多。

下面是这个工具的地址,供大家参考(我已经很久没更新了):https://github.com/gaopengcarl/infobin

这个工具的帮助信息如下:

  1. [root@gp1 infobin]# ./infobin
  2. USAGE ERROR!
  3. [Author]: gaopeng [QQ]:22389860 [blog]:http://blog.itpub.net/7728585/
  4. --USAGE:./infobin binlogfile pieces bigtrxsize bigtrxtime [-t] [-force]
  5. [binlogfile]:binlog file!
  6. [piece]:how many piece will split,is a Highly balanced histogram,
  7. find which time generate biggest binlog.(must:piece<2000000)
  8. [bigtrxsize](bytes):larger than this size trx will view.(must:trx>256(bytes))
  9. [bigtrxtime](sec):larger than this sec trx will view.(must:>0(sec))
  10. [[-t]]:if [-t] no detail is print out,the result will small
  11. [[-force]]:force analyze if unkown error check!!

接下来我们具体来看看这几个功能大概是怎么实现的。


一、分析长期未提交的事务

前面我已经多次提到过对于一个手动提交的事务而言有如下特点,我们以‘Insert’语句为列:

GTIDLOGEVENT和XIDEVENT是命令‘COMMIT’发起的时间。QUERYEVENT是第一个‘Insert’命令发起的时间。MAPEVENT/WRITEROWS_EVENT是每个‘Insert’命令发起的时间。那实际上我们就可以用(1)减去(2)就能得到第一个‘DML’命令发起到‘COMMIT’命令发起之间所消耗的时间,再使用一个用户输入参数来自定义多久没有提交的事务叫做长期未提交的事务就可以了,我的工具中使用bigtrxtime作为这个输入。我们来用一个例子说明,我们做如下语句:

语句 时间
begin T1
insert into testrr values(20); 11:25:22
insert into testrr values(30); 11:25:26
insert into testrr values(40); 11:25:28
commit; 11:25:30

我们来看看Event的顺序和时间如下:

Event 时间
GTIDLOGEVENT 11:25:30
QUERY_EVENT 11:25:22
MAP_EVENT(第1个insert) 11:25:22
WRITEROWSEVENT(第1个insert) 11:25:22
MAP_EVENT(第2个insert) 11:25:26
WRITEROWSEVENT(第2个insert) 11:25:26
MAP_EVENT(第3个insert) 11:25:28
WRITEROWSEVENT(第3个insert) 11:25:28
XID_EVENT 11:25:30

如果我们使用最后一个XIDEVENT的时间减去QUERYEVENT的时间,那么这个事务从第一条语句开始到‘COMMIT’的时间就计算出来了。注意一点,实际上‘BEGIN’命令并没有记录到Event中,它只是做了一个标记让事务不会自动进入提交流程,关于‘BEGIN’命令做了什么可以参考我的简书文章如下:https://www.jianshu.com/p/6de1e8071279


二、分析大事务

这部分实现比较简单,我们只需要扫描每一个事务GTIDLOGEVENT和XIDEVENT之间的所有Event将它们的总和计算下来,就可以得到每一个事务生成Event的大小(但是为了兼容最好计算QUERYEVENT和XID_EVENT之间的Event总量)。再使用一个用户输入参数自定义多大的事务叫做大事务就可以了,我的工具中使用bigtrxsize作为这个输入参数。

如果参数binlogrowimage参数设置为‘FULL’,我们可以大概计算一下特定表的每行数据修改生成的日志占用的大小:

‘Insert’和‘Delete’:因为只有beforeimage或者afterimage,因此100字节一行数据加上一些额外的开销大约加上10字节也就是110字节一行。如果定位大事务为100M那么大约修改量为100W行数据。

‘Update’:因为包含beforeimage和afterimage,因此上面的计算的110字节还需要乘以2。因此如果定位大事务为100M那么大约修改量为50W行数据。我认为20M作为大事务的定义比较合适,当然这个根据自己的需求进行计算。


三、分析binary log中Event的生成速度

这个实现就很简单了,我们只需要把binary log按照输入参数进行分片,统计结束Event和开始Event的时间差值就能大概算出每个分片生成花费了多久时间,我们工具使用piece作为分片的传入参数。

通过这个分析,我们可以大概知道哪一段时间Event生成量更大,也侧面反映了数据库的繁忙程度。


四、分析每个表生成了多少DML Event

这个功能也非常实用,通过这个分析我们可以知道数据库中哪一个表的修改量最大。实现方式主要是通过扫描binary log中的MAP_EVENT和接下来的DML Event,通过table id获取表名,然后将DML Event的大小归入这个表中,做一个链表,最后排序输出就好了。

但是前面我们说过table id即便在一个事务中也可能改变,这是我开始没有考虑到的,因此这个工具有一定的问题,但是大部分情况是可以正常运行的。


五、工具展示

下面我就来展示一下我说的这些功能,我做了如下操作:

  1. mysql> flush binary logs;
  2. Query OK, 0 rows affected (0.51 sec)

  3. mysql> select count(*) from tti;
  4. +----------+
  5. | count(*) |
  6. +----------+
  7. | 98304 |
  8. +----------+
  9. 1 row in set (0.06 sec)

  10. mysql> delete from tti;
  11. Query OK, 98304 rows affected (2.47 sec)

  12. mysql> begin;
  13. Query OK, 0 rows affected (0.00 sec)

  14. mysql> insert into tti values(1,'gaopeng');
  15. Query OK, 1 row affected (0.00 sec)

  16. mysql> select sleep(20);
  17. +-----------+
  18. | sleep(20) |
  19. +-----------+
  20. | 0 |
  21. +-----------+
  22. 1 row in set (20.03 sec)

  23. mysql> commit;
  24. Query OK, 0 rows affected (0.22 sec)

  25. mysql> insert into tpp values(10);
  26. Query OK, 1 row affected (0.14 sec)

在示例中我切换了一个binary log,同时做了3个事务:

删除了tti表数据一共98304行数据。向tti表插入了一条数据,等待了20多秒提交。向tpp表插入了一条数据。我们使用工具来分析一下,下面是统计输出:

  1. ./infobin mysql-bin.000005 3 1000000 15 -t > log.log
  2. more log.log

  3. ...
  4. -------------Total now--------------
  5. Trx total[counts]:3
  6. Event total[counts]:125
  7. Max trx event size:8207(bytes) Pos:420[0X1A4]
  8. Avg binlog size(/sec):9265.844(bytes)[9.049(kb)]
  9. Avg binlog size(/min):555950.625(bytes)[542.921(kb)]
  10. --Piece view:
  11. (1)Time:1561442359-1561442383(24(s)) piece:296507(bytes)[289.558(kb)]
  12. (2)Time:1561442383-1561442383(0(s)) piece:296507(bytes)[289.558(kb)]
  13. (3)Time:1561442383-1561442455(72(s)) piece:296507(bytes)[289.558(kb)]
  14. --Large than 500000(bytes) trx:
  15. (1)Trx_size:888703(bytes)[867.874(kb)] trx_begin_p:299[0X12B]
  16. trx_end_p:889002[0XD90AA]
  17. Total large trx count size(kb):#867.874(kb)
  18. --Large than 15(secs) trx:
  19. (1)Trx_sec:31(sec) trx_begin_time:[20190625 14:00:08(CST)]
  20. trx_end_time:[20190625 14:00:39(CST)] trx_begin_pos:889067
  21. trx_end_pos:889267 query_exe_time:0
  22. --Every Table binlog size(bytes) and times:
  23. Note:size unit is bytes
  24. ---(1)Current Table:test.tpp::
  25. Insert:binlog size(40(Bytes)) times(1)
  26. Update:binlog size(0(Bytes)) times(0)
  27. Delete:binlog size(0(Bytes)) times(0)
  28. Total:binlog size(40(Bytes)) times(1)
  29. ---(2)Current Table:test.tti::
  30. Insert:binlog size(48(Bytes)) times(1)
  31. Update:binlog size(0(Bytes)) times(0)
  32. Delete:binlog size(888551(Bytes)) times(109)
  33. Total:binlog size(888599(Bytes)) times(110)
  34. ---Total binlog dml event size:888639(Bytes) times(111)

我们发现我们做的操作都统计出来了:

包含一个大事务日志总量大于500K,大小为800K左右,这是我的删除tti表中98304行数据造成的。

  1. --Large than 500000(bytes) trx:
  2. (1)Trx_size:888703(bytes)[867.874(kb)] trx_begin_p:299[0X12B]
  3. trx_end_p:889002[0XD90AA]

包含一个长期未提交的事务,时间为31秒,这是我特意等待20多秒提交引起的。

  1. --Large than 15(secs) trx:
  2. (1)Trx_sec:31(sec) trx_begin_time:[20190625 14:00:08(CST)]
  3. trx_end_time:[20190625 14:00:39(CST)] trx_begin_pos:889067
  4. trx_end_pos:889267 query_exe_time:0

本binary log有两个表的修改记录tti和tpp,其中tti表有‘Delete’操作和‘Insert’操作,tpp表只有‘Insert’操作,并且包含了日志量的大小。

  1. --Every Table binlog size(bytes) and times:
  2. Note:size unit is bytes
  3. ---(1)Current Table:test.tpp::
  4. Insert:binlog size(40(Bytes)) times(1)
  5. Update:binlog size(0(Bytes)) times(0)
  6. Delete:binlog size(0(Bytes)) times(0)
  7. Total:binlog size(40(Bytes)) times(1)
  8. ---(2)Current Table:test.tti::
  9. Insert:binlog size(48(Bytes)) times(1)
  10. Update:binlog size(0(Bytes)) times(0)
  11. Delete:binlog size(888551(Bytes)) times(109)
  12. Total:binlog size(888599(Bytes)) times(110)
  13. ---Total binlog dml event size:888639(Bytes) times(111)

好了到这里我想告诉你的就是,学习了Event过后就可以自己通过各种语言去试着解析binary log,也许你还能写出更好的工具实现更多的功能。

当然也可以通过mysqlbinlog 进行解析后,然后通过shell/python去统计,但是这个工具的速度要远远快于这种方式。

            </div>
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
人工智能 自然语言处理 关系型数据库
阿里云云原生数据仓库 AnalyticDB PostgreSQL 版已完成和开源LLMOps平台Dify官方集成
近日,阿里云云原生数据仓库 AnalyticDB PostgreSQL 版已完成和开源LLMOps平台Dify官方集成。
|
安全 搜索推荐 生物认证
FOFA基础和使用技巧
FOFA基础和使用技巧
|
安全 网络协议 网络安全
HTTPS中的S是什么?
使用浏览器输入网址的时候,我们通常都会输入“http://”或者“https://”这样的开头(当然,更多情况下可能大家会输入www),然后才输入对应的域名地址,那这里肯定就会有不少的网友疑惑,为什么有些地址会在前面加多一个“s”呢?那么多出的“s”是什么呢?
1524 0
HTTPS中的S是什么?
|
安全 测试技术 网络安全
SAAS测试
测试。SAAS测试
2426 0
SAAS测试
|
数据采集 JSON 数据格式
Python爬虫:Scrapy的get请求和post请求
Python爬虫:Scrapy的get请求和post请求
641 0
Python爬虫:Scrapy的get请求和post请求
|
数据库
组装式应用平台!阿里云E2 BizWorks产品获得国家级数字技术创新应用案例一等奖!
2022年8月12日,“2022数字化转型发展高峰论坛”在北京落下帷幕,主办单位为中国信息通信研究院、中国通信标准化协会。作为数字化转型领域的权威行业盛会,本届论坛给业界带来了一场数字化转型的思想盛宴、技术盛宴和成果盛宴。在本届峰会上,阿里云E2 BizWorks产品荣获“鼎新杯”数字技术创新应用案例一等奖,BizWorks产品负责人谢纯良荣获中国信通院“数字化转型先锋人物”称号。
335 0
php中?、?=和?php
php中?、?=和?php
182 0
|
弹性计算 Cloud Native NoSQL
详解阿里云第六代增强型实例,性能强劲,百万IOPS加持
7月15日,阿里云推出基于第三代神龙云服务器的第六代增强型ECS实例,提供单实例最高网络2400万PPS及存储100万IOPS,均为市面上最强性能,现已开放售卖。
详解阿里云第六代增强型实例,性能强劲,百万IOPS加持
MeeGo系统1.2版本新组件
  MeeGo 1.2发行版确定加入了一些新组建。  关于这些组建的讨论请到这个网站:http://wiki.meego.com/Architecture#Upcoming_Features   下面是对这些组建的简短介绍,关于这些组建的文档随后会在这个网页贴出:http://wiki.
1144 0