MySQL:排序(filesort)详细解析(8000字长文1)

本文涉及的产品
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
简介: MySQL:排序(filesort)详细解析(8000字长文)

能力有限有误请指出。

本文使用源码版本:5.7.22

引擎为:Innodb

排序(filesort)作为DBA绕不开的话题,也经常有朋友讨论它,比如常见的问题如下:

  • 排序的时候,用于排序的数据会不会如Innodb一样压缩空字符存储,比如varchar(30),我只是存储了1个字符是否会压缩,还是按照30个字符计算?
  • max_length_for_sort_data/max_sort_length 到底是什么含义?
  • original filesort algorithm(回表排序) 和 modified filesort algorithm(不回表排序) 的根本区别是什么?
  • 为什么使用到排序的时候慢查询中的Rows_examined会更大,计算方式到底是什么样的?

在MySQL通常有如下算法来完成排序:

  • 内存排序(优先队列 order by limit 返回少量行常用,提高排序效率,但是注意order by limit n,m 如果n过大可能会涉及到排序算法的切换)
  • 内存排序(快速排序)
  • 外部排序(归并排序)

但是由于能力有限本文不解释这些算法,并且本文不考虑优先队列算法的分支逻辑,只以快速排序和归并排序作为基础进行流程剖析。我们在执行计划中如果出现filesort字样通常代表使用到了排序,但是执行计划中看不出来下面问题:

  • 是否使用了临时文件。
  • 是否使用了优先队列。
  • 是original filesort algorithm(回表排序)还是modified filesort algorithm(不回表排序)。

如何查看将在后面进行描述。本文还会给出大量的排序接口供感兴趣的朋友使用,也给自己留下笔记。

一、从一个问题出发

这是最近一个朋友遇到的案例,大概意思就是说我的表在Innodb中只有30G左右,为什么使用如下语句进行排序操作后临时文件居然达到了200多G,当然语句很变态,我们可以先不问为什么会有这样的语句,我们只需要研究原理即可,在本文的第13节会进行原因解释和问题重现。

临时文件如下:

image.png

下面是这些案例信息:

  1. show create table t\G
  2. *************************** 1. row ***************************
  3. Table: t
  4. CreateTable: CREATE TABLE `t`(
  5. `ID` bigint(20) NOT NULL COMMENT 'ID',
  6. `UNLOAD_TASK_NO` varchar(50) NOT NULL ,
  7. `FORKLIFT_TICKETS_COUNT` bigint(20) DEFAULT NULL COMMENT '叉车票数',
  8. `MANAGE_STATUS` varchar(20) DEFAULT NULL COMMENT '管理状态',
  9. `TRAY_BINDING_TASK_NO` varchar(50) NOT NULL ,
  10. `STATISTIC_STATUS` varchar(50) NOT NULL ,
  11. `CREATE_NO` varchar(50) DEFAULT NULL ,
  12. `UPDATE_NO` varchar(50) DEFAULT NULL ,
  13. `CREATE_NAME` varchar(200) DEFAULT NULL COMMENT '创建人名称',
  14. `UPDATE_NAME` varchar(200) DEFAULT NULL COMMENT '更新人名称',
  15. `CREATE_ORG_CODE` varchar(200) DEFAULT NULL COMMENT '创建组织编号',
  16. `UPDATE_ORG_CODE` varchar(200) DEFAULT NULL COMMENT '更新组织编号',
  17. `CREATE_ORG_NAME` varchar(1000) DEFAULT NULL COMMENT '创建组织名称',
  18. `UPDATE_ORG_NAME` varchar(1000) DEFAULT NULL COMMENT '更新组织名称',
  19. `CREATE_TIME` datetime DEFAULT NULL COMMENT '创建时间',
  20. `UPDATE_TIME` datetime DEFAULT NULL COMMENT '更新时间',
  21. `DATA_STATUS` varchar(50) DEFAULT NULL COMMENT '数据状态',
  22. `OPERATION_DEVICE` varchar(200) DEFAULT NULL COMMENT '操作设备',
  23. `OPERATION_DEVICE_CODE` varchar(200) DEFAULT NULL COMMENT '操作设备编码',
  24. `OPERATION_CODE` varchar(50) DEFAULT NULL COMMENT '操作码',
  25. `OPERATION_ASSIST_CODE` varchar(50) DEFAULT NULL COMMENT '辅助操作码',
  26. `CONTROL_STATUS` varchar(50) DEFAULT NULL COMMENT '控制状态',
  27. `OPERATOR_NO` varchar(50) DEFAULT NULL COMMENT '操作人工号',
  28. `OPERATOR_NAME` varchar(200) DEFAULT NULL COMMENT '操作人名称',
  29. `OPERATION_ORG_CODE` varchar(50) DEFAULT NULL COMMENT '操作部门编号',
  30. `OPERATION_ORG_NAME` varchar(200) DEFAULT NULL COMMENT '操作部门名称',
  31. `OPERATION_TIME` datetime DEFAULT NULL COMMENT '操作时间',
  32. `OPERATOR_DEPT_NO` varchar(50) NOT NULL COMMENT '操作人所属部门编号',
  33. `OPERATOR_DEPT_NAME` varchar(200) NOT NULL COMMENT '操作人所属部门名称',
  34. `FORKLIFT_DRIVER_NAME` varchar(200) DEFAULT NULL ,
  35. `FORKLIFT_DRIVER_NO` varchar(50) DEFAULT NULL ,
  36. `FORKLIFT_DRIVER_DEPT_NAME` varchar(200) DEFAULT NULL ,
  37. `FORKLIFT_DRIVER_DEPT_NO` varchar(50) DEFAULT NULL ,
  38. `FORKLIFT_SCAN_TIME` datetime DEFAULT NULL ,
  39. `OUT_FIELD_CODE` varchar(200) DEFAULT NULL,
  40. PRIMARY KEY (`ID`),
  41. KEY `IDX_TRAY_BINDING_TASK_NO`(`TRAY_BINDING_TASK_NO`),
  42. KEY `IDX_OPERATION_ORG_CODE`(`OPERATION_ORG_CODE`),
  43. KEY `IDX_OPERATION_TIME`(`OPERATION_TIME`)
  44. ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 ROW_FORMAT=COMPRESSED KEY_BLOCK_SIZE=8



  45. desc
  46. SELECT
  47. ID,
  48. UNLOAD_TASK_NO,
  49. FORKLIFT_TICKETS_COUNT,
  50. MANAGE_STATUS,
  51. TRAY_BINDING_TASK_NO,
  52. STATISTIC_STATUS,
  53. CREATE_NO,
  54. UPDATE_NO,
  55. CREATE_NAME,
  56. UPDATE_NAME,
  57. CREATE_ORG_CODE,
  58. UPDATE_ORG_CODE,
  59. CREATE_ORG_NAME,
  60. UPDATE_ORG_NAME,
  61. CREATE_TIME,
  62. UPDATE_TIME,
  63. DATA_STATUS,
  64. OPERATION_DEVICE,
  65. OPERATION_DEVICE_CODE,
  66. OPERATION_CODE,
  67. OPERATION_ASSIST_CODE,
  68. CONTROL_STATUS,
  69. OPERATOR_NO,
  70. OPERATOR_NAME,
  71. OPERATION_ORG_CODE,
  72. OPERATION_ORG_NAME,
  73. OPERATION_TIME,
  74. OPERATOR_DEPT_NO,
  75. OPERATOR_DEPT_NAME,
  76. FORKLIFT_DRIVER_NAME,
  77. FORKLIFT_DRIVER_NO,
  78. FORKLIFT_DRIVER_DEPT_NAME,
  79. FORKLIFT_DRIVER_DEPT_NO,
  80. FORKLIFT_SCAN_TIME,
  81. OUT_FIELD_CODE
  82. FROM
  83. t
  84. GROUP BY id , UNLOAD_TASK_NO , FORKLIFT_TICKETS_COUNT ,
  85. MANAGE_STATUS , TRAY_BINDING_TASK_NO , STATISTIC_STATUS ,
  86. CREATE_NO , UPDATE_NO , CREATE_NAME , UPDATE_NAME ,
  87. CREATE_ORG_CODE , UPDATE_ORG_CODE , CREATE_ORG_NAME ,
  88. UPDATE_ORG_NAME , CREATE_TIME , UPDATE_TIME , DATA_STATUS ,
  89. OPERATION_DEVICE , OPERATION_DEVICE_CODE , OPERATION_CODE ,
  90. OPERATION_ASSIST_CODE , CONTROL_STATUS , OPERATOR_NO ,
  91. OPERATOR_NAME , OPERATION_ORG_CODE , OPERATION_ORG_NAME ,
  92. OPERATION_TIME , OPERATOR_DEPT_NO , OPERATOR_DEPT_NAME ,
  93. FORKLIFT_DRIVER_NAME , FORKLIFT_DRIVER_NO ,
  94. FORKLIFT_DRIVER_DEPT_NAME , FORKLIFT_DRIVER_DEPT_NO ,
  95. FORKLIFT_SCAN_TIME , OUT_FIELD_CODE;


  96. +----+-------------+-------------------------+------------+------+---------------+------+---------+------+---------+----------+----------------+
  97. | id | select_type | table | partitions | type | possible_keys | key | key_len | ref| rows | filtered | Extra|
  98. +----+-------------+-------------------------+------------+------+---------------+------+---------+------+---------+----------+----------------+
  99. | 1| SIMPLE | t | NULL | ALL | NULL | NULL | NULL | NULL | 5381145| 100.00| Using filesort |
  100. +----+-------------+-------------------------+------------+------+---------------+------+---------+------+---------+----------+----------------+
  101. 1 row inset, 1 warning (0.00 sec)


也许你会怀疑这个语句有什么用,我们先不考虑功能,我们只考虑为什么它会生成200G的临时文件这个问题。接下来我将分阶段进行排序的流程解析,注意了整个排序的流程均处于状态‘Creating sort index’下面,我们以filesort函数接口为开始进行分析。

二、测试案例为了更好的说明后面的流程我们使用2个除了字段长度不同,其他完全一样的表来说明,但是需要注意这两个表数据量很少,不会出现外部排序,如果涉及外部排序的时候我们需要假设它们数据量很大。其次这里根据original filesort algorithm和modified filesort algorithm进行划分,但是这两种方法还没讲述,不用太多理会。

  • original filesort algorithm(回表排序)
  1. mysql> show create table tests1 \G
  2. *************************** 1. row ***************************
  3. Table: tests1
  4. CreateTable: CREATE TABLE `tests1`(
  5. `a1` varchar(300) DEFAULT NULL,
  6. `a2` varchar(300) DEFAULT NULL,
  7. `a3` varchar(300) DEFAULT NULL
  8. ) ENGINE=InnoDB DEFAULT CHARSET=utf8
  9. 1 row inset(0.00 sec)

  10. mysql> select* from tests1;
  11. +------+------+------+
  12. | a1 | a2 | a3 |
  13. +------+------+------+
  14. | a | a | a |
  15. | a | b | b |
  16. | a | c | c |
  17. | b | d | d |
  18. | b | e | e |
  19. | b | f | f |
  20. | c | g | g |
  21. | c | h | h |
  22. +------+------+------+
  23. 8 rows inset(0.00 sec)

  24. mysql> desc select* from tests1 where a1='b' order by a2,a3;
  25. +----+-------------+--------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
  26. | id | select_type | table | partitions | type | possible_keys | key | key_len | ref| rows | filtered | Extra|
  27. +----+-------------+--------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
  28. | 1| SIMPLE | tests1 | NULL | ALL | NULL | NULL | NULL | NULL | 8| 12.50| Usingwhere; Using filesort |
  29. +----+-------------+--------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
  30. 1 row inset, 1 warning (0.00 sec)
            </div>
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
8天前
|
数据采集 人工智能 安全
|
4天前
|
机器学习/深度学习 人工智能 前端开发
构建AI智能体:七十、小树成林,聚沙成塔:随机森林与大模型的协同进化
随机森林是一种基于决策树的集成学习算法,通过构建多棵决策树并结合它们的预测结果来提高准确性和稳定性。其核心思想包括两个随机性:Bootstrap采样(每棵树使用不同的训练子集)和特征随机选择(每棵树分裂时只考虑部分特征)。这种方法能有效处理大规模高维数据,避免过拟合,并评估特征重要性。随机森林的超参数如树的数量、最大深度等可通过网格搜索优化。该算法兼具强大预测能力和工程化优势,是机器学习中的常用基础模型。
298 164
|
3天前
|
机器学习/深度学习 自然语言处理 机器人
阿里云百炼大模型赋能|打造企业级电话智能体与智能呼叫中心完整方案
畅信达基于阿里云百炼大模型推出MVB2000V5智能呼叫中心方案,融合LLM与MRCP+WebSocket技术,实现语音识别率超95%、低延迟交互。通过电话智能体与座席助手协同,自动化处理80%咨询,降本增效显著,适配金融、电商、医疗等多行业场景。
311 155
|
11天前
|
SQL 自然语言处理 调度
Agent Skills 的一次工程实践
**本文采用 Agent Skills 实现整体智能体**,开发框架采用 AgentScope,模型使用 **qwen3-max**。Agent Skills 是 Anthropic 新推出的一种有别于mcp server的一种开发方式,用于为 AI **引入可共享的专业技能**。经验封装到**可发现、可复用的能力单元**中,每个技能以文件夹形式存在,包含特定任务的指导性说明(SKILL.md 文件)、脚本代码和资源等 。大模型可以根据需要动态加载这些技能,从而扩展自身的功能。目前不少国内外的一些框架也开始支持此种的开发方式,详细介绍如下。
854 6
|
5天前
|
机器学习/深度学习 人工智能 前端开发
构建AI智能体:六十九、Bootstrap采样在大模型评估中的应用:从置信区间到模型稳定性
Bootstrap采样是一种通过有放回重抽样来评估模型性能的统计方法。它通过从原始数据集中随机抽取样本形成多个Bootstrap数据集,计算统计量(如均值、标准差)的分布,适用于小样本和非参数场景。该方法能估计标准误、构建置信区间,并量化模型不确定性,但对计算资源要求较高。Bootstrap特别适合评估大模型的泛化能力和稳定性,在集成学习、假设检验等领域也有广泛应用。与传统方法相比,Bootstrap不依赖分布假设,在非正态数据中表现更稳健。
247 113