MySQL:5.6 大事务show engine innodb status故障一例

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
云数据库 RDS PostgreSQL,高可用系列 2核4GB
简介: MySQL:5.6 大事务show engine innodb status故障一例

今天遇到一个朋友的线上问题,大概意思就是说,我有一个线上的大事务大概100G左右,正在做回滚,当前看起来似乎影响了线上的业务,并且回滚很慢,是否可以减轻对线上业务的影响。并且朋友已经取消了双1设置,但是没有任何改观。版本MySQL 5.6首先我们需要知道的是,MySQL并不适合大事务,大概列举一些MySQL中大事务的影响:

  • binlog文件作为一次写入,会在sync阶段消耗大量的IO,会导致全库hang主,状态大多为query end。
  • 大事务会造成导致主从延迟。
  • 大事务可能导致某些需要备份挂起,原因在于flush table with read lock,拿不到MDL GLOBAL 级别的锁,等待状态为 Waiting for global read lock。
  • 大事务可能导致更大Innodb row锁加锁范围,导致row锁等待问题。
  • 回滚困难。

基于如上一些不完全的列举,我们应该在线上尽可能的避免大事务。好了我们下面来进行问题讨论。


一、问题前面已经说了,我们已经取消了双1设置,所谓的双1就是 sync_binlog=1和 innodb_flush_log_at_trx_commit=1。这两个参数线上要保证为1,前者保证binlog的安全,后者保证redo的安全,它们在数据库crash recovery的时候起到了关键做用,不设置为双1可能导致数据丢失。具体的参数含义不做过多讨论。但是这里的问题是即便取消了双1,没有任何改观,因此似乎说明IO问题不是主要瓶颈呢?下面我们来看几个截图:

  • vmstat 截图

image.png

  • iostat 截图


image.png

image.png

  • top -Hu截图

image.png

我们重点观察vmstat的r 和 b列发现,IO队列没有有什么问题 并且wa%并不大。我们观察iostat中的%util和读写数据大小来看问题不大,并且tps远没达到极限(SSD盘)。我们top -Hu 可以观察到 %us不小,并且有线程已经打满了(99.4%CPU)一个CPU核。

因此我们可以将方向转为研究CPU瓶颈的产生,希望能够对问题有帮助,然后从提供的perf top中我们有如下发现:

image.png

好了我们将问题先锁定到lock_number_of_rows_locked这个函数上。


二、函数lock_number_of_rows_locked的作用朋友用的5.6,但是我这里以5.7.26的版本进行描述。然后下一节描述5.6和5.7算法上的关键差异。不知道大家是否注意过show engine innodb status中的这样一个标志:

image.png

这个标记就来自函数lock_number_of_rows_locked,含义为当前事务加行锁的行数。而这个函数包裹在函数lock_print_info_all_transactions下面,lock_print_info_all_transactions函数是打印我们通常看到show engine innodb status中事务部分的核心参数。我们来看一下简单的流程:

  1. PrintNotStarted print_not_started(file);//建立一个结构体,目的是做not start 事务的打印
  2. ut_list_map(trx_sys->mysql_trx_list, print_not_started); //这个地方打印出那些事务状态是no start的事务。mysql_trx_list是全事务。

  3. const trx_t* trx;
  4. TrxListIterator trx_iter; //这个迭代器是trx_sys->rw_trx_list 这个链表的迭代器
  5. const trx_t* prev_trx = 0;

  6. /* Control whether a block should be fetched from the buffer pool. */
  7. bool load_block = true;
  8. bool monitor = srv_print_innodb_lock_monitor && (srv_show_locks_held != 0);

  9. while ((trx = trx_iter.current()) != 0) { //通过迭代器进行迭代 ,显然这里不会有只读事务的信息,全部是读写事务。

  10. ...
  11. /* If we need to print the locked record contents then we
  12. need to fetch the containing block from the buffer pool. */
  13. if (monitor) {

  14. /* Print the locks owned by the current transaction. */
  15. TrxLockIterator& lock_iter = trx_iter.lock_iter();

  16. if (!lock_trx_print_locks( //打印出锁的详细信息
  17. file, trx, lock_iter, load_block))

简单的说就是先打印哪些处于not start的事务,然后打印那些读写事务的信息,当然我们的回滚事务肯定也包含在其中了,需要注意的是只读事务show engine不会打印。对于处于回滚状态的事务我们可以在show engine中观察到如下信息:

image.png

函数trx_print_low可以看到大部分的信息,这里就不详细解释了。既然如此我们需要明白lock_number_of_rows_locked是如何计算的,下面进行讨论。

三、函数lock_number_of_rows_locked的算法变化上面我们说了函数lock_number_of_rows_locked函数会打印出当前事务加行锁的行数。那么我们来看一下5.6和5.7算法的不同。

  • 5.7.26

实际上只有如下一句话:

  1. return(trx_lock->n_rec_locks);

我们可以看到这是返回了一个计数器,而这个计数器的递增就是在每行记录加锁后完成的,在函数lock_rec_set_nth_bit的末尾可以看到 ++lock->trx->lock.nreclocks ,因此这是一种预先计算的机制。因此这样的计算代价很低,也不会由于某个事务持有了大量的锁,而导致计算代价过高。

  • 5.6.22

随后我翻了一下5.6.22的代码,发现完全不同如下:

  1. for (lock = UT_LIST_GET_FIRST(trx_lock->trx_locks); //使用for循环每个获取的锁结构
  2. lock != NULL;
  3. lock = UT_LIST_GET_NEXT(trx_locks, lock)) {

  4. if (lock_get_type_low(lock) == LOCK_REC) { //过滤为行锁
  5. ulint n_bit;
  6. ulint n_bits = lock_rec_get_n_bits(lock);

  7. for (n_bit = 0; n_bit < n_bits; n_bit++) { //开始循环每一个锁结构的每一个bit位进行统计
  8. if (lock_rec_get_nth_bit(lock, n_bit)) {
  9. n_records++;
  10. }
  11. }
  12. }
  13. }

  14. return(n_records);

我们知道循环本身是一种CPU密集型的操作,这里使用了嵌套循环实现。因此如果在5.6中如果出现大事务操作了大量的行,那么获取行锁记录的个数的时候,将会出现高耗CPU的情况。

四、原因总结和解决有了上面的分析我们很清楚了,触发的原因有如下几点:

  • MySQL 5.6版本
  • 有大事务的存在,大概100G左右的数据加行锁了
  • 使用了show engine innodb status

这样当在统计这个大事务行锁个数的时候,就会进行大量的循环操作。从现象上看就是线程消耗了大量的CPU资源,并且处于perf top的第一位。

知道了原因就很简单了,找出为频繁使用show engine innodb status的监控工具,随后业务全部恢复正常,IO利用率也上升了如下:

image.png

当然如果能够使用更新的版本比如5.7及8.0 版本将不会出现这个问题,可以考虑使用更高版本。分析性能问题需要首先找到性能的瓶颈然后进行集中突破,比如本例中CPU资源消耗更加严重。也许解决问题就在一瞬间。

五、其他最后通过朋友后面查询的bug如下:https://bugs.mysql.com/bug.php?id=68647 发现印风(翟卫翔)已经在多年前提出过了这个问题,并且做出了修改意见,并且这个修改意见官方采纳了,也就是上面我们分析的算法改变。经过印风(翟卫翔)的测试有bug中有如下描述:

  • From perf top, function locknumberofrowslocked may occupy more than 20% of CPU sometimes

也就是CPU消耗会高达20%。

下面是5.7.26调用栈帧:

image.png

            </div>
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
SQL 监控 关系型数据库
【MYSQL高级】Mysql找出执行慢的SQL【慢查询日志使用与分析】
【MYSQL高级】Mysql找出执行慢的SQL【慢查询日志使用与分析】
5179 0
|
5月前
|
固态存储 测试技术 iOS开发
硬盘检测工具哪个最好用?这8款值得收藏
硬盘健康状况直接影响电脑性能,选择合适的检测工具至关重要。本文推荐8款实用硬盘检测工具:Windows CHKDSK、DiskGenius免费版、Victoria、HDDScan、SeaTools、AIDA64、HD Tune Pro及Mac磁盘工具。这些工具功能全面,操作简单,涵盖S.M.A.R.T信息查看、坏道检测与修复、性能测试等,满足不同用户需求。无论是Windows还是macOS用户,均可找到适合的工具维护硬盘健康。
|
SQL Oracle 安全
Oracle的PL/SQL游标异常处理:从“惊涛骇浪”到“风平浪静”
【4月更文挑战第19天】Oracle PL/SQL游标异常处理确保了在数据操作中遇到的问题得以优雅解决,如`NO_DATA_FOUND`或`TOO_MANY_ROWS`等异常。通过使用`EXCEPTION`块捕获并处理这些异常,开发者可以防止程序因游标问题而崩溃。例如,当查询无结果时,可以显示定制的错误信息而不是让程序终止。掌握游标异常处理是成为娴熟的Oracle数据管理员的关键,能保证在复杂的数据环境中稳健运行。
|
SQL druid Java
解决 ‘The last packet successfully received from the server was xxx milliseconds ago‘ 问题
解决 ‘The last packet successfully received from the server was xxx milliseconds ago‘ 问题
7053 0
|
SQL 缓存 监控
MySQL慢查询:慢SQL定位、日志分析与优化方案,真心不错!
MySQL慢查询:慢SQL定位、日志分析与优化方案,真心不错!
MySQL慢查询:慢SQL定位、日志分析与优化方案,真心不错!
|
Java 数据库连接 mybatis
JqGrid获得所有选中行数据ID数组,获取所有行的ID数组
获得选中行的ID数组:var ids = $("jqgridtableid").jqGrid('getGridParam','selarrrow');获得所有行的ID数组:var ids = $("jqgridtableid").
1707 0
|
3天前
|
弹性计算 运维 搜索推荐
三翼鸟携手阿里云ECS g9i:智慧家庭场景的效能革命与未来生活新范式
三翼鸟是海尔智家旗下全球首个智慧家庭场景品牌,致力于提供覆盖衣、食、住、娱的一站式全场景解决方案。截至2025年,服务近1亿家庭,连接设备超5000万台。面对高并发、低延迟与稳定性挑战,全面升级为阿里云ECS g9i实例,实现连接能力提升40%、故障率下降90%、响应速度提升至120ms以内,成本降低20%,推动智慧家庭体验全面跃迁。
|
3天前
|
数据采集 人工智能 自然语言处理
3分钟采集134篇AI文章!深度解析如何通过云无影AgentBay实现25倍并发 + LlamaIndex智能推荐
结合阿里云无影 AgentBay 云端并发采集与 LlamaIndex 智能分析,3分钟高效抓取134篇 AI Agent 文章,实现 AI 推荐、智能问答与知识沉淀,打造从数据获取到价值提炼的完整闭环。
354 91