囧...执行analyze table意外导致waiting for table flush

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 囧...执行analyze table意外导致waiting for table flush

一、问题描述

问题现场如下:

mysql> show processlist;
+----+-----------------+-----------+------+---------+-------+-------------------------+----------------------------------+
| Id | User            | Host      | db   | Command | Time  | State                   | Info                             |
+----+-----------------+-----------+------+---------+-------+-------------------------+----------------------------------+
|  5 | event_scheduler | localhost | NULL | Daemon  | 34025 | Waiting on empty queue  | NULL                             |
| 11 | root            | localhost | NULL | Query   |  1528 | User sleep              | select sleep(1000) from test.e01 |
| 12 | root            | localhost | NULL | Query   |     0 | starting                | show processlist                 |
| 23 | root            | localhost | NULL | Query   |    33 | Waiting for table flush | select * from test.e01           |
| 24 | root            | localhost | NULL | Query   |     7 | Waiting for table flush | select * from test.e01           |
+----+-----------------+-----------+------+---------+-------+-------------------------+----------------------------------+

乍一看来,很是奇怪,这里没有出现我们经常遇到的 flush table/flush table with read lock 堵塞,直接出现了 Waiting for table flush的堵塞,有点像

https://www.jianshu.com/p/b141585cd844

以前记录的文章中的案例2,但是其实并不一样,这里是由于analyze table语句造成的。

复现过程非常简单(必须是社区版本,我使用的8.0.21),如下:

session 1

mysql> select sleep(1000) from test.e01;(要有几条数据)

这条语句肯定结束不了

session 2

mysql> analyze table test.e01;
+----------+---------+----------+----------+
| Table | Op | Msg_type | Msg_text |
+----------+---------+----------+----------+
| test.e01 | analyze | status | OK |
+----------+---------+----------+----------+

session 3

mysql> select * from test.e01;
# 被堵塞了

此时堵塞的情形就是Waiting for table flush


二、analyze触发了什么

analyze table 除了更新我们的统计数据,实际上最后做了一个操作如下(栈):

#0  TABLE_SHARE::clear_version (this=0x7ffeec00ee38) at /opt/mysql/mysql-8.0.21/sql/table.cc:518
#1 0x0000000003680a4d in <lambda(std::unordered_map<std::__cxx11::basic_string<char>, std::unique_ptr<TABLE_SHARE, Table_share_deleter>, std::hash<std::__cxx11::basic_string<char> >, std::equal_to<std::__cxx11::basic_string<char> >, Malloc_allocator<std::pair<const std::__cxx11::basic_string<char>, std::unique_ptr<TABLE_SHARE, Table_share_deleter> > > >::iterator)>::operator()(std::unordered_map<std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> >, std::unique_ptr<TABLE_SHARE, Table_share_deleter>, std::hash<std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > >, std::equal_to<std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > >, Malloc_allocator<std::pair<std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const, std::unique_ptr<TABLE_SHARE, Table_share_deleter> > > >::iterator) const (__closure=0x7fff600ce8a0,
my_it=...) at /opt/mysql/mysql-8.0.21/sql/sql_base.cc:9831
#2 0x0000000003680d0c in tdc_remove_table (thd=0x7ffed8094550, remove_type=TDC_RT_REMOVE_UNUSED, db=0x7ffed80c4a08 "test", table_name=0x7ffed80c4a20 "e01", has_lock=false)
at /opt/mysql/mysql-8.0.21/sql/sql_base.cc:9844
#3 0x0000000003d890a9 in mysql_admin_table (thd=0x7ffed8094550, tables=0x7ffed80c4cb8, check_opt=0x7ffed80ba370, operator_name=0x61c06e7 "analyze", lock_type=TL_READ_NO_INSERT,
open_for_modify=true, repair_table_use_frm=false, extra_open_options=0, prepare_func=0x0, operator_func=
(int (handler::)(handler const, THD , HA_CHECK_OPT )) 0x3accc64 <handler::ha_analyze(THD, HA_CHECK_OPT)>, check_view=0, alter_info=0x7ffed80c4b28,
need_to_acquire_shared_backup_lock=true) at /opt/mysql/mysql-8.0.21/sql/sql_admin.cc:1296


大概看一下做了什么,如下:

    if (share->ref_count() > 0) {

if (remove_type != TDC_RT_REMOVE_NOT_OWN_KEEP_SHARE)
share->clear_version();
table_cache_manager.free_table(thd, remove_type, share);
}

这里判断了是否当前table share正在使用,如果正在使用(很显然我们这个table share是不能直接释放的,因为有select一直持有它),那么将share版本的设置为0(share->clear_version()。

实际上这个版本由全局变量refresh_version初始化),目的在于下次如果有使用表定义的时候需要重新打开table share。

然后释放了当前没有使用的table cache(类型TDC_RT_REMOVE_UNUSED)。


三、再次访问表堵塞

当再次访问表的时候(open_table),会去判断如下是否有老的table share存在,如果存在则需要等待释放:

share_found:
if (!(flags & MYSQL_OPEN_IGNORE_FLUSH)) {
if (share->has_old_version()) {

release_table_share(share);
...
wait_result =
tdc_wait_for_old_version(thd, table_list->db, table_list->table_name,
ot_ctx->get_timeout(), deadlock_weight);

首先如果存在判断是否存在的老版本,判断是通过table share的版本和当前全局版本refresh_version进行比对。

前面我们知道这里table share的版本已经设置为0,因此这里必然进入release_table_share环节,然后等待持有者的释放(案例窗口1的select查询),然后再次获取table share。

等待栈如下:

(gdb) bt
#0 tdc_wait_for_old_version (thd=0x7ffed8094550, db=0x7ffed802e5c0 "test", table_name=0x7ffed802e5d8 "e01", wait_timeout=31536000, deadlock_weight=0)
at /opt/mysql/mysql-8.0.21/sql/sql_base.cc:2705
#1 0x0000000003671d7e in open_table (thd=0x7ffed8094550, table_list=0x7ffed802e7c8, ot_ctx=0x7fff600cf1a0) at /opt/mysql/mysql-8.0.21/sql/sql_base.cc:3280
#2 0x0000000003675c36 in open_and_process_table (thd=0x7ffed8094550, lex=0x7ffed80b9fe0, tables=0x7ffed802e7c8, counter=0x7ffed80ba038, prelocking_strategy=0x7fff600cf2b8,
has_prelocking_list=false, ot_ctx=0x7fff600cf1a0) at /opt/mysql/mysql-8.0.21/sql/sql_base.cc:5000
#3 0x0000000003677102 in open_tables (thd=0x7ffed8094550, start=0x7fff600cf260, counter=0x7ffed80ba038, flags=0, prelocking_strategy=0x7fff600cf2b8)
at /opt/mysql/mysql-8.0.21/sql/sql_base.cc:5664
#4 0x0000000003678993 in open_tables_for_query (thd=0x7ffed8094550, tables=0x7ffed802e7c8, flags=0) at /opt/mysql/mysql-8.0.21/sql/sql_base.cc:6515


四、Percona修复该问题

Percona在上文中已经提到问题如下:

https://mmbiz.qpic.cn/mmbiz_png/nts52nHheTzoylH1MpsnAjZIPs1I4aBUia2sQbxmLuLiaV9LvdlneAlRjCJWB1O0ULlB1X1iaMjvc7j1jnPuKUO1Q/640?wx_fmt=;png&wxfrom=5&wx_lazy=1&wx_co=1

一个关键的修改点如下

官方版本:

https://mmbiz.qpic.cn/mmbiz_png/nts52nHheTzoylH1MpsnAjZIPs1I4aBUBRiazx73xJSZws6t7AZViaibKTxqbjaVgiaTcOmHJsYfgFk1T1ic7Ea3zmg/640?wx_fmt=;png&wxfrom=5&wx_lazy=1&wx_co=1

Percona版本:

https://mmbiz.qpic.cn/mmbiz_png/nts52nHheTzoylH1MpsnAjZIPs1I4aBUctF1e0LkIchTHnAeE0KCHx4x0hCV8bHNIeh7XCo9LMHIBUxud4uueQ/640?wx_fmt=;png&wxfrom=5&wx_lazy=1&wx_co=1

如此修改后analyze不会进入tdc_remove_table函数,那么table share的版本不会设置为0。因此如果使用官方版本小心本问题。

最后说下,官方版本测试到8.0.21依旧存在这个问题,而Percona已经修复了,详情见下

https://www.percona.com/blog/2018/03/27/analyze-table-is-no-longer-a-blocking-operation/


全文完。

Enjoy MySQL :)

            </div>
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
3天前
|
弹性计算 运维 搜索推荐
三翼鸟携手阿里云ECS g9i:智慧家庭场景的效能革命与未来生活新范式
三翼鸟是海尔智家旗下全球首个智慧家庭场景品牌,致力于提供覆盖衣、食、住、娱的一站式全场景解决方案。截至2025年,服务近1亿家庭,连接设备超5000万台。面对高并发、低延迟与稳定性挑战,全面升级为阿里云ECS g9i实例,实现连接能力提升40%、故障率下降90%、响应速度提升至120ms以内,成本降低20%,推动智慧家庭体验全面跃迁。
|
4天前
|
数据采集 人工智能 自然语言处理
3分钟采集134篇AI文章!深度解析如何通过云无影AgentBay实现25倍并发 + LlamaIndex智能推荐
结合阿里云无影 AgentBay 云端并发采集与 LlamaIndex 智能分析,3分钟高效抓取134篇 AI Agent 文章,实现 AI 推荐、智能问答与知识沉淀,打造从数据获取到价值提炼的完整闭环。
365 91
|
4天前
|
SQL 人工智能 自然语言处理
Geo优化SOP标准化:于磊老师的“人性化Geo”体系如何助力企业获客提效46%
随着生成式AI的普及,Geo优化(Generative Engine Optimization)已成为企业获客的新战场。然而,缺乏标准化流程(Geo优化sop)导致优化效果参差不齐。本文将深入探讨Geo专家于磊老师提出的“人性化Geo”优化体系,并展示Geo优化sop标准化如何帮助企业实现获客效率提升46%的惊人效果,为企业在AI时代构建稳定的流量护城河。
379 156
Geo优化SOP标准化:于磊老师的“人性化Geo”体系如何助力企业获客提效46%
|
5天前
|
域名解析 人工智能
【实操攻略】手把手教学,免费领取.CN域名
即日起至2025年12月31日,购买万小智AI建站或云·企业官网,每单可免费领1个.CN域名首年!跟我了解领取攻略吧~
|
4天前
|
数据采集 缓存 数据可视化
Android 无侵入式数据采集:从手动埋点到字节码插桩的演进之路
本文深入探讨Android无侵入式埋点技术,通过AOP与字节码插桩(如ASM)实现数据采集自动化,彻底解耦业务代码与埋点逻辑。涵盖页面浏览、点击事件自动追踪及注解驱动的半自动化方案,提升数据质量与研发效率,助力团队迈向高效、稳定的智能化埋点体系。(238字)
261 156
|
12天前
|
机器人 API 调度
基于 DMS Dify+Notebook+Airflow 实现 Agent 的一站式开发
本文提出“DMS Dify + Notebook + Airflow”三位一体架构,解决 Dify 在代码执行与定时调度上的局限。通过 Notebook 扩展 Python 环境,Airflow实现任务调度,构建可扩展、可运维的企业级智能 Agent 系统,提升大模型应用的工程化能力。