三、MySQL高级分享-分页

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 三、MySQL高级分享-分页

1、问题

1

1POST  domain/v1.0/module/method?order=condition&orderType=desc&offset=1800000&limit=500

domain、module 和 method 都是化名,代表接口的域、模块和实例方法名,后面的offset和limit代表 分页操作的偏移量每页的数量, 也就是说该用户是在 翻第(1800000/500+1=3601)页。初步捞了一下日志,发现 有8000多次这样调用。

这太神奇了,而且页面上的分页单页数量也不是500,而是 25条每页,这个绝对不是人为的在功能页面上进行一页一页的翻页操作,而是数据被刷了(说明下,生产环境数据有1亿+)。详细对比日志发现,很多分页的时间是重叠的,对方应该是多线程调用。

2、分析

对于MySQL查询语句来说,整体效率还是可以的,该有的联表查询优化都有,该简略的查询内容也有,关键条件字段和排序字段该有的索引也都在,问题在于他一页一页的分页去查询,查到越后面的页数,扫描到的数据越多,也就越慢。

我们在查看前几页的时候,发现速度非常快,比如  limit 200,25,瞬间就出来了。但是越往后,速度就越慢,特别是百万条之后,卡到不行,那这个是什么原理呢。先看一下我们翻页翻到后面时,查询的sql是怎样的:

select * from t_name where c_name1='xxx'order by c_name2 limit 2000000,25;

这种查询的慢,其实是因为limit后面的偏移量太大导致的。 比如像上面的 limit 2000000,25 ,这个等同于数据库要扫描出 2000025条数据,然后再丢弃前面的 20000000条数据,返回剩下25条数据给用户,这种取法明显不合理。

查询性能优化中,

分页操作通常会使用limit加上偏移量的办法实现,同时再加上合适的order by子句。但这会出现一个常见问题:当偏移量非常大的时候,它会导致MySQL扫描大量不需要的行然后再抛弃掉。

三、数据模拟

那好,了解了问题的原理,那就要试着解决它了。涉及数据敏感性,我们这边模拟一下这种情况,构造一些数据来做测试。

1、创建两个表:员工表和部门表

/*部门表,存在则进行删除 */DROPTABLE ifEXISTS dep;CREATETABLE dep (  id INTUNSIGNED PRIMARY KEY auto_increment,  depno MEDIUMINTUNSIGNEDNOTNULL default0,  depname VARCHAR(20)NOTNULL DEFAULT "",memo VARCHAR(200)NOTNULL DEFAULT "");/*员工表,存在则进行删除*/DROP tableifEXISTS emp;CREATETABLE emp (  idintunsigned PRIMARY KEY auto_increment,  empno MEDIUMINTUNSIGNED notnulldefault0,  empname VARCHAR(20) notnulldefault "",  job VARCHAR(9) notnulldefault "",  mgr MEDIUMINTUNSIGNED notnulldefault0,  hiredate datetime notnull,  sal DECIMAL(7,2) notnull,  comn DECIMAL(7,2) notnull,depno MEDIUMINTUNSIGNED notnulldefault0 
);

2、创建两个函数:生成随机字符串和随机编号

/* 产生随机字符串的函数*/DELIMITER $
DROP FUNCTION ifEXISTS rand_string;CREATE FUNCTION rand_string ( n INT) RETURNS VARCHAR(255)BEGIN  DECLARE
    chars_str VARCHAR(100) DEFAULT 'abcdefghijklmlopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ';  DECLARE
    return_str VARCHAR(255) DEFAULT '';  DECLARE
    i INT DEFAULT0;  WHILE
      i < n DOSET return_str = CONCAT( return_str, SUBSTRING( chars_str, FLOOR(1+ RAND()*52),1));SET i = i +1;  END WHILE;  RETURN return_str;END $DELIMITER;/*产生随机部门编号的函数*/DELIMITER $
DROP FUNCTION ifEXISTS rand_num;CREATE FUNCTION rand_num () RETURNS INT(5)BEGIN  DECLARE
    i INT DEFAULT0;SET i = FLOOR(100+ RAND()*10);  RETURN i;END $DELIMITER;

3、编写存储过程,模拟500W的员工数据

/*建立存储过程:往emp表中插入数据*/DELIMITER $
DROP PROCEDUREifEXISTS insert_emp;CREATE PROCEDURE insert_emp (IN START INT(10),IN max_num INT(10)) BEGINDECLARE i INT DEFAULT0;/*set autocommit =0 把autocommit设置成0,把默认提交关闭*/SET autocommit =0;REPEATSET i = i +1;INSERTINTO emp ( empno, empname, job, mgr, hiredate, sal, comn, depno )VALUES(( START + i ),    rand_string (6),'SALEMAN',0001,    now(),2000,400,    rand_num ());UNTIL i = max_numEND
REPEAT
;  COMMIT;END $DELIMITER;/*插入500W条数据*/CALL insert_emp (0,5000000);

4、编写存储过程,模拟120的部门数据

/*建立存储过程:往dep表中插入数据*/DELIMITER $
DROP PROCEDUREifEXISTS insert_dept;CREATE PROCEDURE insert_dept (IN START INT(10),IN max_num INT(10)) BEGINDECLARE i INT DEFAULT0;SET autocommit =0;REPEATSET i = i +1;INSERTINTO dep ( depno, depname, memo )VALUES(( START + i ), rand_string (10), rand_string (8));UNTIL i = max_numEND
REPEAT
;  COMMIT;END $DELIMITER;/*插入120条数据*/CALL insert_dept (1,120);

5、建立关键字段的索引

这边是跑完数据之后再建索引,会导致建索引耗时长,但是跑数据就会快一些。

/*建立关键字段的索引:[排序]()、条件*/
  CREATE INDEX idx_emp_id ON emp(id);
  CREATE INDEX idx_emp_depno ON emp(depno);
  CREATE INDEX idx_dep_depno ON dep(depno);

四、测试

1、测试数据

/*偏移量为100,取25*/
  SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  from emp a left join dep b on a.depno = b.depno 
  order by a.id desc limit 100,25;
  /*偏移量为4800000,取25*/
  SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  from emp a left join dep b on a.depno = b.depno 
  order by a.id desc limit 4800000,25;

2、执行结果

[SQL]SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depnamefrom emp a left join dep b on a.depno = b.depno order by a.id desc limit 100,25;受影响的行:0时间:0.001s
     [SQL]SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depnamefrom emp a left join dep b on a.depno = b.depno order by a.id desc limit 4800000,25;受影响的行:0时间:12.275s

因为扫描的数据多,所以这个明显不是一个量级上的耗时。

五、解决方案

1、使用索引覆盖+子查询优化

因为我们有主键id,并且在上面建了索引,所以可以先在索引树中找到开始位置的 id值,再根据找到的id值查询行数据。

/*子查询获取偏移100条的位置的id,在这个位置上往后取25*/
    SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
    from emp a left join dep b on a.depno = b.depno
    where a.id >= (select id from emp order by id limit100,1)
    order by a.id limit 25;
    /*子查询获取偏移4800000条的位置的id,在这个位置上往后取25*/
    SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
    from emp a left join dep b on a.depno = b.depno
    where a.id >= (select id from emp order by id limit4800000,1)
    order by a.id limit 25;

执行结果

执行效率相比之前有大幅的提升:

[SQL]
   SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
   from emp a left join dep b on a.depno = b.depno
   where a.id >= (select id from emp order by id limit 100,1)
   order by a.id limit 25;受影响的行:0时间:0.106s
   [SQL]SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
   from emp a left join dep b on a.depno = b.depno
   where a.id >= (select id from emp order by id limit 4800000,1)
   order by a.id limit 25;受影响的行:0时间:1.541s

2、起始位置重定义

记住上次查找结果的主键位置,避免使用偏移量 offset。

/*记住了上次的分页的最后一条数据的id是100,这边就直接跳过100,从101开始扫描表*/
  SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  from emp a left join dep b on a.depno = b.depno
  where a.id >100
  order by a.id limit 25;
  /*记住了上次的分页的最后一条数据的id是4800000,这边就直接跳过4800000,从4800001开始扫描表*/
  SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname
  from emp a left join dep b on a.depno = b.depno
  where a.id > 4800000
  order by a.id limit 25;

执行结果

[SQL]
 SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname
 from emp a left join dep b on a.depno = b.depno
 where a.id >100
 order by a.id limit 25;受影响的行:0时间:0.001s
 [SQL]
 SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname
 from emp a left join dep b on a.depno = b.depno
 where a.id > 4800000
 order by a.id limit 25;受影响的行:0时间:0.000s

这个效率是最好的,无论怎么分页,耗时基本都是一致的,因为他执行完条件之后,都只扫描了25条数据。

但是有个问题,只适合一页一页的分页,这样才能记住前一个分页的最后Id。如果用户跳着分页就有问题了,比如刚刚刷完第25页,马上跳到35页,数据就会不对。

这种的适合场景是类似百度搜索或者腾讯新闻那种滚轮往下拉,不断拉取不断加载的情况。这种延迟加载会保证数据不会跳跃着获取。

3、降级策略

还有一种方案参考:配置limit的偏移量和获取数一个最大值,超过这个最大值,就返回空数据。

因为他觉得超过这个值你已经不是在分页了,而是在刷数据了,如果确认要找数据,应该输入合适条件来缩小范围,而不是一页一页分页。

request的时候 如果offset大于某个数值就先返回一个4xx的错误。

六、小结

使用第三个方案,对offset做一下限流,超过某个值,就返回空值。第二天使用第一种和第二种配合使用的方案对程序和数据库脚本进一步做了优化。

合理来说做任何功能都应该考虑极端情况,设计容量都应该涵盖极端边界测试。

另外,该有的限流、降级也应该考虑进去。比如工具多线程调用,在短时间频率内8000次调用,可以使用计数服务判断并反馈用户调用过于频繁,直接给予断掉。

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
7月前
|
存储 JSON 关系型数据库
《MySQL 简易速速上手小册》第9章:高级 MySQL 特性和技巧(2024 最新版)
《MySQL 简易速速上手小册》第9章:高级 MySQL 特性和技巧(2024 最新版)
79 1
|
7月前
|
关系型数据库 MySQL 索引
17. MYSQL超大分页怎么处理 ?
`MYSQL`超大分页效率低,因为实际是获取`offset+N`行再丢弃前`offset`行。解决方法:先通过索引快速定位所需ID,然后进行关联查询获取数据,以提高性能。
65 0
|
4月前
|
存储 关系型数据库 MySQL
mysql数据库查询时用到的分页方法有哪些
【8月更文挑战第16天】在MySQL中,实现分页的主要方法包括:1)使用`LIMIT`子句,简单直接但随页数增加性能下降;2)通过子查询优化`LIMIT`分页,提高大页码时的查询效率;3)利用存储过程封装分页逻辑,便于复用但需额外维护;4)借助MySQL变量实现,可能提供更好的性能但实现较复杂。这些方法各有优缺点,可根据实际需求选择适用方案。
391 2
|
27天前
|
SQL NoSQL 关系型数据库
2024Mysql And Redis基础与进阶操作系列(5)作者——LJS[含MySQL DQL基本查询:select;简单、排序、分组、聚合、分组、分页等详解步骤及常见报错问题所对应的解决方法]
MySQL DQL基本查询:select;简单、排序、分组、聚合、分组、分页、INSERT INTO SELECT / FROM查询结合精例等详解步骤及常见报错问题所对应的解决方法
|
2月前
|
缓存 关系型数据库 MySQL
一文彻底弄懂MySQL优化之深度分页
【10月更文挑战第24天】本文深入探讨了 MySQL 深度分页的原理、常见问题及优化策略。首先解释了深度分页的概念及其带来的性能和资源问题。接着介绍了基于偏移量(OFFSET)和限制(LIMIT)以及基于游标的分页方法,并分析了它们的优缺点。最后,提出了多种优化策略,包括合理创建索引、优化查询语句和使用数据缓存,帮助提升分页查询的性能和系统稳定性。
117 1
|
3月前
|
算法 关系型数据库 MySQL
MySQL高级篇——排序、分组、分页优化
排序优化建议、案例验证、范围查询时索引字段选择、filesort调优、双路排序和单路排序、分组优化、带排序的深分页优化
MySQL高级篇——排序、分组、分页优化
|
4月前
|
存储 算法 关系型数据库
探索MySQL递归查询,优雅的给树结构分页!
总结起来,对于MySQL中的树结构数据,递归查询结合预排序遍历树算法可以实现优雅的分页,但需要注意性能优化和数据更新的问题。这项技术提供了一种高效处理层级数据的工具,使得开发者可以在复杂的数据结构下实现直观和可靠的数据查询。
326 1
|
4月前
|
SQL 关系型数据库 MySQL
MySQL】-DQL(基本、条件、分组、排序、分页)详细版
通过这些查询方法,你可以高效地检索、分析和组织MySQL数据库中的数据,以满足各种应用需求。实践中,理解这些SQL语句的基础知识以及它们如何组合起来进行复杂的数据操作是至关重要的。
48 1
|
5月前
|
SQL 关系型数据库 MySQL
MySQL设计规约问题之为什么在使用LIMIT进行分页时要注意效率,并且LIMIT的值越大效率越低
MySQL设计规约问题之为什么在使用LIMIT进行分页时要注意效率,并且LIMIT的值越大效率越低
|
5月前
|
关系型数据库 MySQL 调度
MySQL高级功能与优化策略深度探索
MySQL高级功能与优化策略深度探索
下一篇
无影云桌面