mysql分页读取数据重复问题

本文涉及的产品
RDS AI 助手,专业版
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
RDS MySQL DuckDB 分析主实例,基础系列 4核8GB
简介: 在服务端开发中,与MySQL数据库进行数据交互时,常因数据量大、网络延迟等因素需分页读取数据。文章介绍了使用`limit`和`offset`参数实现分页的方法,并针对分页过程中可能出现的数据重复问题进行了详细分析,提出了利用时间戳或确保排序规则绝对性等解决方案。

服务端开发过程中,我们通常需要与mysql数据库进行数据交互。在大多数情况下,由于数据量过大、网络时延、mysql参数配置限制,以及业务逻辑的限制等,需要我们对所需的数据进行分页读取。尤其是需要读取的数据量过大时,我们经常会遇到下面这种错误类型。

text

代码解读

复制代码

vttablet: rpc error: code = ResourceExhausted desc = grpc: trying to send message larger than max (48340144 vs. 33554432)')

这个时候就需要我们利用limit和offset参数来实现数据的分页读取。例如,我们需要按照更新时间降序的顺序按照每页5000条数据的规则分页读取全部数据。读取第一页的SQL语句如下所示:

sql

代码解读

复制代码

SELECT * FROM table_name order by update_time limit 5000 offset 0

一般情况下该语句可以按照我们的意愿返回正确的结果,但是在某些情况下可能会出现不同页中存在相同数据的问题。这种特殊情况主要分为两种情况:

  • 一种发生在同时对数据库进行读和写操作时。
  • 另一种发生在当数据无法按照排序字段完成准确排序时。

接下来我们分别介绍原因以及解决方案。

1、同时读写操作导致数据重复

数据重复原因

例如我们需要按照需求分页获取10条数据,每页获取5条。当我们执行前5条数据的指令时

sql

代码解读

复制代码

SELECT * FROM table_name order by update_time limit 5 offset 0

数据库返回前五条记录1-5。如果此时恰好数据库执行插入数据库操作。新插入了一条新的数据。当读取操作获取第二页数据时

sql

代码解读

复制代码

SELECT * FROM table_name order by update_time limit 5 offset 0

由于新插入的数据的时间最靠前,排序后新插入的数据将排在第一条的位置,此时获取的第二页数据为第6-10条数据。此刻的第六数据就是第一页数据的第5条。因此我们期望获取前10条数据,最终只获得了9条,其中第5条数据重复。

解决方案

这种情况我们通常利用时间戳来保证我们多次获取的数据是同一个时间分片状态下的数据。具体如下

golang

代码解读

复制代码

now := time.Now()
pageNum := 50

for i:=0;i<2;i++{
    sqlStr := fmt.sprintf("SELECT * FROM table_name where create_tiem < '%s' order by update_time limit %d offset %d",now,pageNum,i*pageNum)

    db.Exec(sqlStr).Scan(&result)
}

2、无法准确排序导致数据重复

重复原因

首先我们明确一点,mysql排序规则如下:

(1)mysql查询不指定排序规则时,会默认按照ID进行排序。

(2)一旦指定排序值,则按照排序值进行排序,排序值相同的记录,顺序则是随机的。

如上所述,当我们执行如下sql时

sql

代码解读

复制代码

SELECT * FROM table_name order by update_time limit 50 offset 0

如果部分数据是批量插入或者修改,就会存在update_time 相同的数据,此时这些数据将随机排序,如果恰好我们的分页位置处在这些具有相同update_time的数据之间时,可能存在第一次查询某条数据在第一页,第二次查询时某条数据又出现在第二页。从而导致数据重复。

解决方法

这种情况的解决方法非常简单,要么不指定排序字段,按照自增id排序,要么保证指定的排序规则可以使数据实现绝对排序,即不存在随机顺序的可能。具体sql如下:

sql

代码解读

复制代码

SELECT * FROM table_name order by update_time desc, id desc limit 50 offset 0

以上就是当mysql分页读取数据时产生数据重复问题的两种常见原因分析以及解决方案。


转载来源:https://juejin.cn/post/7199812069050449980

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
10月前
|
缓存 NoSQL 关系型数据库
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
|
8月前
|
SQL 人工智能 关系型数据库
如何实现MySQL百万级数据的查询?
本文探讨了在MySQL中对百万级数据进行排序分页查询的优化策略。面对五百万条数据,传统的浅分页和深分页查询效率较低,尤其深分页因偏移量大导致性能显著下降。通过为排序字段添加索引、使用联合索引、手动回表等方法,有效提升了查询速度。最终建议根据业务需求选择合适方案:浅分页可加单列索引,深分页推荐联合索引或子查询优化,同时结合前端传递最后一条数据ID的方式实现高效翻页。
417 0
|
7月前
|
存储 关系型数据库 MySQL
在CentOS 8.x上安装Percona Xtrabackup工具备份MySQL数据步骤。
以上就是在CentOS8.x上通过Perconaxtabbackup工具对Mysql进行高效率、高可靠性、无锁定影响地实现在线快速全量及增加式数据库资料保存与恢复流程。通过以上流程可以有效地将Mysql相关资料按需求完成定期或不定期地保存与灾难恢复需求。
543 10
|
8月前
|
SQL 存储 缓存
MySQL 如何高效可靠处理持久化数据
本文详细解析了 MySQL 的 SQL 执行流程、crash-safe 机制及性能优化策略。内容涵盖连接器、分析器、优化器、执行器与存储引擎的工作原理,深入探讨 redolog 与 binlog 的两阶段提交机制,并分析日志策略、组提交、脏页刷盘等关键性能优化手段,帮助提升数据库稳定性与执行效率。
205 0
|
10月前
|
存储 SQL 关系型数据库
京东面试:mysql深度分页 严重影响性能?根本原因是什么?如何优化?
京东面试:mysql深度分页 严重影响性能?根本原因是什么?如何优化?
京东面试:mysql深度分页 严重影响性能?根本原因是什么?如何优化?
|
11月前
|
关系型数据库 MySQL Linux
在Linux环境下备份Docker中的MySQL数据并传输到其他服务器以实现数据级别的容灾
以上就是在Linux环境下备份Docker中的MySQL数据并传输到其他服务器以实现数据级别的容灾的步骤。这个过程就像是一场接力赛,数据从MySQL数据库中接力棒一样传递到备份文件,再从备份文件传递到其他服务器,最后再传递回MySQL数据库。这样,即使在灾难发生时,我们也可以快速恢复数据,保证业务的正常运行。
504 28
|
12月前
|
存储 SQL 关系型数据库
【YashanDB知识库】MySQL迁移至崖山char类型数据自动补空格问题
**简介**:在MySQL迁移到崖山环境时,若字段类型为char(2),而应用存储的数据仅为&#39;0&#39;或&#39;1&#39;,查询时崖山会自动补空格。原因是mysql的sql_mode可能启用了PAD_CHAR_TO_FULL_LENGTH模式,导致保留CHAR类型尾随空格。解决方法是与应用确认数据需求,可将崖山环境中的char类型改为varchar类型以规避补空格问题,适用于所有版本。
|
10月前
|
存储 SQL 缓存
mysql数据引擎有哪些
MySQL 提供了多种存储引擎,每种引擎都有其独特的特点和适用场景。以下是一些常见的 MySQL 存储引擎及其特点:
263 0
|
12月前
|
SQL 关系型数据库 MySQL
【YashanDB知识库】字符集latin1的MySQL中文数据如何迁移到YashanDB
本文探讨了在使用YMP 23.2.1.3迁移MySQL Server字符集为latin1的中文数据至YashanDB时出现乱码的问题。问题根源在于MySQL latin1字符集存放的是实际utf8编码的数据,而YMP尚未支持此类场景。文章提供了两种解决方法:一是通过DBeaver直接迁移表数据;二是将MySQL表数据转换为Insert语句后手动插入YashanDB。同时指出,这两种方法适合单张表迁移,多表迁移可能存在兼容性问题,建议对问题表单独处理。
【YashanDB知识库】字符集latin1的MySQL中文数据如何迁移到YashanDB
|
12月前
|
缓存 NoSQL 关系型数据库
Redis和Mysql如何保证数据⼀致?
1. 先更新Mysql,再更新Redis,如果更新Redis失败,可能仍然不⼀致 2. 先删除Redis缓存数据,再更新Mysql,再次查询的时候在将数据添加到缓存中 这种⽅案能解决1 ⽅案的问题,但是在⾼并发下性能较低,⽽且仍然会出现数据不⼀致的问题,⽐如线程1删除了 Redis缓存数据,正在更新Mysql,此时另外⼀个查询再查询,那么就会把Mysql中⽼数据⼜查到 Redis中 1. 使用MQ异步同步, 保证数据的最终一致性 我们项目中会根据业务情况 , 使用不同的方案来解决Redis和Mysql的一致性问题 : 1. 对于一些一致性要求不高的场景 , 不做处理例如 : 用户行为数据 ,