三、MySQL高级分享-分页

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: 三、MySQL高级分享-分页

1、问题

1

1POST  domain/v1.0/module/method?order=condition&orderType=desc&offset=1800000&limit=500

domain、module 和 method 都是化名,代表接口的域、模块和实例方法名,后面的offset和limit代表 分页操作的偏移量每页的数量, 也就是说该用户是在 翻第(1800000/500+1=3601)页。初步捞了一下日志,发现 有8000多次这样调用。

这太神奇了,而且页面上的分页单页数量也不是500,而是 25条每页,这个绝对不是人为的在功能页面上进行一页一页的翻页操作,而是数据被刷了(说明下,生产环境数据有1亿+)。详细对比日志发现,很多分页的时间是重叠的,对方应该是多线程调用。

2、分析

对于MySQL查询语句来说,整体效率还是可以的,该有的联表查询优化都有,该简略的查询内容也有,关键条件字段和排序字段该有的索引也都在,问题在于他一页一页的分页去查询,查到越后面的页数,扫描到的数据越多,也就越慢。

我们在查看前几页的时候,发现速度非常快,比如  limit 200,25,瞬间就出来了。但是越往后,速度就越慢,特别是百万条之后,卡到不行,那这个是什么原理呢。先看一下我们翻页翻到后面时,查询的sql是怎样的:

select * from t_name where c_name1='xxx'order by c_name2 limit 2000000,25;

这种查询的慢,其实是因为limit后面的偏移量太大导致的。 比如像上面的 limit 2000000,25 ,这个等同于数据库要扫描出 2000025条数据,然后再丢弃前面的 20000000条数据,返回剩下25条数据给用户,这种取法明显不合理。

查询性能优化中,

分页操作通常会使用limit加上偏移量的办法实现,同时再加上合适的order by子句。但这会出现一个常见问题:当偏移量非常大的时候,它会导致MySQL扫描大量不需要的行然后再抛弃掉。

三、数据模拟

那好,了解了问题的原理,那就要试着解决它了。涉及数据敏感性,我们这边模拟一下这种情况,构造一些数据来做测试。

1、创建两个表:员工表和部门表

/*部门表,存在则进行删除 */DROPTABLE ifEXISTS dep;CREATETABLE dep (  id INTUNSIGNED PRIMARY KEY auto_increment,  depno MEDIUMINTUNSIGNEDNOTNULL default0,  depname VARCHAR(20)NOTNULL DEFAULT "",memo VARCHAR(200)NOTNULL DEFAULT "");/*员工表,存在则进行删除*/DROP tableifEXISTS emp;CREATETABLE emp (  idintunsigned PRIMARY KEY auto_increment,  empno MEDIUMINTUNSIGNED notnulldefault0,  empname VARCHAR(20) notnulldefault "",  job VARCHAR(9) notnulldefault "",  mgr MEDIUMINTUNSIGNED notnulldefault0,  hiredate datetime notnull,  sal DECIMAL(7,2) notnull,  comn DECIMAL(7,2) notnull,depno MEDIUMINTUNSIGNED notnulldefault0 
);

2、创建两个函数:生成随机字符串和随机编号

/* 产生随机字符串的函数*/DELIMITER $
DROP FUNCTION ifEXISTS rand_string;CREATE FUNCTION rand_string ( n INT) RETURNS VARCHAR(255)BEGIN  DECLARE
    chars_str VARCHAR(100) DEFAULT 'abcdefghijklmlopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ';  DECLARE
    return_str VARCHAR(255) DEFAULT '';  DECLARE
    i INT DEFAULT0;  WHILE
      i < n DOSET return_str = CONCAT( return_str, SUBSTRING( chars_str, FLOOR(1+ RAND()*52),1));SET i = i +1;  END WHILE;  RETURN return_str;END $DELIMITER;/*产生随机部门编号的函数*/DELIMITER $
DROP FUNCTION ifEXISTS rand_num;CREATE FUNCTION rand_num () RETURNS INT(5)BEGIN  DECLARE
    i INT DEFAULT0;SET i = FLOOR(100+ RAND()*10);  RETURN i;END $DELIMITER;

3、编写存储过程,模拟500W的员工数据

/*建立存储过程:往emp表中插入数据*/DELIMITER $
DROP PROCEDUREifEXISTS insert_emp;CREATE PROCEDURE insert_emp (IN START INT(10),IN max_num INT(10)) BEGINDECLARE i INT DEFAULT0;/*set autocommit =0 把autocommit设置成0,把默认提交关闭*/SET autocommit =0;REPEATSET i = i +1;INSERTINTO emp ( empno, empname, job, mgr, hiredate, sal, comn, depno )VALUES(( START + i ),    rand_string (6),'SALEMAN',0001,    now(),2000,400,    rand_num ());UNTIL i = max_numEND
REPEAT
;  COMMIT;END $DELIMITER;/*插入500W条数据*/CALL insert_emp (0,5000000);

4、编写存储过程,模拟120的部门数据

/*建立存储过程:往dep表中插入数据*/DELIMITER $
DROP PROCEDUREifEXISTS insert_dept;CREATE PROCEDURE insert_dept (IN START INT(10),IN max_num INT(10)) BEGINDECLARE i INT DEFAULT0;SET autocommit =0;REPEATSET i = i +1;INSERTINTO dep ( depno, depname, memo )VALUES(( START + i ), rand_string (10), rand_string (8));UNTIL i = max_numEND
REPEAT
;  COMMIT;END $DELIMITER;/*插入120条数据*/CALL insert_dept (1,120);

5、建立关键字段的索引

这边是跑完数据之后再建索引,会导致建索引耗时长,但是跑数据就会快一些。

/*建立关键字段的索引:[排序]()、条件*/
  CREATE INDEX idx_emp_id ON emp(id);
  CREATE INDEX idx_emp_depno ON emp(depno);
  CREATE INDEX idx_dep_depno ON dep(depno);

四、测试

1、测试数据

/*偏移量为100,取25*/
  SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  from emp a left join dep b on a.depno = b.depno 
  order by a.id desc limit 100,25;
  /*偏移量为4800000,取25*/
  SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  from emp a left join dep b on a.depno = b.depno 
  order by a.id desc limit 4800000,25;

2、执行结果

[SQL]SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depnamefrom emp a left join dep b on a.depno = b.depno order by a.id desc limit 100,25;受影响的行:0时间:0.001s
     [SQL]SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depnamefrom emp a left join dep b on a.depno = b.depno order by a.id desc limit 4800000,25;受影响的行:0时间:12.275s

因为扫描的数据多,所以这个明显不是一个量级上的耗时。

五、解决方案

1、使用索引覆盖+子查询优化

因为我们有主键id,并且在上面建了索引,所以可以先在索引树中找到开始位置的 id值,再根据找到的id值查询行数据。

/*子查询获取偏移100条的位置的id,在这个位置上往后取25*/
    SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
    from emp a left join dep b on a.depno = b.depno
    where a.id >= (select id from emp order by id limit100,1)
    order by a.id limit 25;
    /*子查询获取偏移4800000条的位置的id,在这个位置上往后取25*/
    SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
    from emp a left join dep b on a.depno = b.depno
    where a.id >= (select id from emp order by id limit4800000,1)
    order by a.id limit 25;

执行结果

执行效率相比之前有大幅的提升:

[SQL]
   SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
   from emp a left join dep b on a.depno = b.depno
   where a.id >= (select id from emp order by id limit 100,1)
   order by a.id limit 25;受影响的行:0时间:0.106s
   [SQL]SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname
   from emp a left join dep b on a.depno = b.depno
   where a.id >= (select id from emp order by id limit 4800000,1)
   order by a.id limit 25;受影响的行:0时间:1.541s

2、起始位置重定义

记住上次查找结果的主键位置,避免使用偏移量 offset。

/*记住了上次的分页的最后一条数据的id是100,这边就直接跳过100,从101开始扫描表*/
  SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  from emp a left join dep b on a.depno = b.depno
  where a.id >100
  order by a.id limit 25;
  /*记住了上次的分页的最后一条数据的id是4800000,这边就直接跳过4800000,从4800001开始扫描表*/
  SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname
  from emp a left join dep b on a.depno = b.depno
  where a.id > 4800000
  order by a.id limit 25;

执行结果

[SQL]
 SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname
 from emp a left join dep b on a.depno = b.depno
 where a.id >100
 order by a.id limit 25;受影响的行:0时间:0.001s
 [SQL]
 SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname
 from emp a left join dep b on a.depno = b.depno
 where a.id > 4800000
 order by a.id limit 25;受影响的行:0时间:0.000s

这个效率是最好的,无论怎么分页,耗时基本都是一致的,因为他执行完条件之后,都只扫描了25条数据。

但是有个问题,只适合一页一页的分页,这样才能记住前一个分页的最后Id。如果用户跳着分页就有问题了,比如刚刚刷完第25页,马上跳到35页,数据就会不对。

这种的适合场景是类似百度搜索或者腾讯新闻那种滚轮往下拉,不断拉取不断加载的情况。这种延迟加载会保证数据不会跳跃着获取。

3、降级策略

还有一种方案参考:配置limit的偏移量和获取数一个最大值,超过这个最大值,就返回空数据。

因为他觉得超过这个值你已经不是在分页了,而是在刷数据了,如果确认要找数据,应该输入合适条件来缩小范围,而不是一页一页分页。

request的时候 如果offset大于某个数值就先返回一个4xx的错误。

六、小结

使用第三个方案,对offset做一下限流,超过某个值,就返回空值。第二天使用第一种和第二种配合使用的方案对程序和数据库脚本进一步做了优化。

合理来说做任何功能都应该考虑极端情况,设计容量都应该涵盖极端边界测试。

另外,该有的限流、降级也应该考虑进去。比如工具多线程调用,在短时间频率内8000次调用,可以使用计数服务判断并反馈用户调用过于频繁,直接给予断掉。

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
1月前
Mybatis+mysql动态分页查询数据案例——分页工具类(Page.java)
Mybatis+mysql动态分页查询数据案例——分页工具类(Page.java)
22 1
|
3月前
|
存储 SQL 关系型数据库
二、MySQL高级分享2
二、MySQL高级分享2
36 0
|
6月前
|
存储 关系型数据库 MySQL
MySQL基础详讲(高级部分)
MySQL是一种关系型数据库管理系统(RDBMS),它是一种开源数据库软件,广泛用于Web应用程序的开发和数据存储
67 3
|
1月前
|
SQL 关系型数据库 MySQL
MYSQL分页limit速度太慢优化方法
MYSQL分页limit速度太慢优化方法
32 0
|
3月前
|
关系型数据库 MySQL 数据库
深入理解MySQL:从基础到高级数据库管理
深入理解MySQL:从基础到高级数据库管理
110 0
|
9天前
|
SQL 关系型数据库 MySQL
排序与分页——“MySQL数据库”
排序与分页——“MySQL数据库”
|
18天前
|
SQL 关系型数据库 MySQL
mysql基本查询、运算符、排序和分页
mysql基本查询、运算符、排序和分页
|
2月前
|
SQL 关系型数据库 MySQL
Java中的MySQL高级使用手册:解锁数据库之道
Java中的MySQL高级使用手册:解锁数据库之道
49 1
|
3月前
|
存储 关系型数据库 MySQL
MySQL基础篇(运算符、排序分页、多表查询、函数)-3
MySQL基础篇(运算符、排序分页、多表查询、函数)
50 0
|
3月前
|
SQL 关系型数据库 MySQL
MySQL基础篇(运算符、排序分页、多表查询、函数)-2
MySQL基础篇(运算符、排序分页、多表查询、函数)
40 0