解决MySQL自增id用尽的问题

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 本文介绍了解决文章点击记录表(`article_click_record`)数据量激增问题的方案。由于用户量大,每天新增约400万条记录,导致表id接近溢出(2,100,000,000),且占用空间超320G。解决方案包括:1) 新建`article_click_record_new`表,将id类型改为BIGINT以避免溢出;2) 过渡阶段同时写入新旧表,待旧表id溢出后切换至新表;3) 定时清理过期数据或转移旧表内容。实现方式涉及修改相关接口和服务逻辑,确保业务平稳过渡。

1. 背景介绍

我们项目中有一张article_click_record表,用户每次点进一篇文章,就会往该表中插入一条记录

article_click_record表主要有如下三列:

  1. id:自增主键,INT类型
  2. user_id:用户id
  3. article_id:该用户点击的文章id

这张表主要有两个用途:

  1. 统计文章的被浏览次数(在上次统计的基础上进行增量统计,每小时统计一次)
  2. 获取文章最近两天的浏览用户数

因此,实际上,我们项目最多只会访问这张表的最近两天的数据

ArticleClickRecordService的接口定义大致如下:

java

体验AI代码助手

代码解读

复制代码

public interface ArticleClickRecordService {

    /**
     * 插入一条文章点击记录
     * 
     * @return 该记录的id
     */
    Integer insert(ArticleClickRecord record);

    /**
     * 对所有id大于lastMaxId的记录进行统计
     *
     * @param lastMaxId 上次统计结果中的最大id
     */
    List<ArticleStatisticResult> statisticAfter(Integer lastMaxId);
}

2. 问题描述

由于本项目的用户量比较大,因此每天会产生约4,000,000个文章点击事件,导致数据量激增

经过几年的积累,article_click_record表出现了如下两个问题:

  1. 该表的最大id已接近2,100,000,000,预计半个月后会达到最大值2,147,483,647
  2. 由于没有及时清理过期数据,因此这张表的占用空间也很大,已超过320G

3. 解决方案

首先,对于表的自增id即将溢出的问题,由于该表存在大量记录,因此不能直接将该表的id列改为BIGINT类型

我们实际采用的解决id溢出的方式是:

  1. 新增一张article_click_record_new表,其结构和article_click_record表基本一致,但id列的类型为BIGINT
  2. 在过渡阶段,当产生一个文章点击事件时,会同时往这两张表中写入数据,但仍读取旧表;这一步是在对新表进行数据预热
  3. 等旧表的id溢出后,新表的数据也就预热完成了,此时只往新表中写入数据,并且在读表时,也可以直接读取新表了

新表的id列采用BIGINT类型的原因:

  1. 避免再次出现自增id用尽的问题
  2. 由于业务需要,我们希望id是保持递增的,不能因另起一张表而导致id重置

而要解决表占用空间过大的问题,只需加一个定时任务来清理过期数据即可;或者等新表的数据预热完成后,转移旧表

4. 实现方式

4.1. 准备工作

首先要将ArticleClickRecord类的Integer id字段改为Long类型,所有涉及到该字段的代码都要相应地修改

这一步主要是为了在确保原有的业务逻辑不变的情况下,为引入新表做好准备

修改后的ArticleClickRecordService接口如下:

java

体验AI代码助手

代码解读

复制代码

public interface ArticleClickRecordService {

    /**
     * 插入一条文章点击记录
     * 
     * @return 该记录的id;更改为Long类型
     */
    Long insert(ArticleClickRecord record);

    /**
     * 对所有id大于lastMaxId的记录进行统计
     *
     * @param lastMaxId 上次统计结果中的最大id;更改为Long类型
     */
    List<ArticleStatisticResult> statisticAfter(Long lastMaxId);
}

4.2. insert()方法修改

java

体验AI代码助手

代码解读

复制代码

public class ArticleClickRecordServiceImpl implements ArticleClickRecordService {

    @Autowired
    private ArticleClickRecordMapper articleClickRecordMapper;

    /**
     * 旧表的id是否已经溢出,初始化为false
     */
    private final AtomicBoolean oldTableIdOverflow = new AtomicBoolean(false);

    /**
     * 插入一条文章点击记录
     * 
     * @return 该记录的id
     */
    @Override
    @Transactional(rollbackFor = Exception.class)
    public Long insert(ArticleClickRecord record) {
        
        // 如果旧表id已经溢出,则直接往新表中写入数据
        if (oldTableIdOverflow.get()) {
            articleClickRecordMapper.insertNew(record);
            return record.getId();
        }
        
        // 否则,尝试往旧表中插入数据
        // 如果主键重复,说明id已经溢出(MySQL在自增id达到最大值后,下次再获取自增id时,还是会获取到最大值)
        // 因此,当出现DuplicateKeyException异常时,只需将oldTableIdOverflow设置为true,并往新表中写入数据即可
        try {
            articleClickRecordMapper.insert(record);
        } catch (DuplicateKeyException e) {
            oldTableIdOverflow.set(true);
            articleClickRecordMapper.insertNew(record);
            return record.getId();
        }
        
        // 如果旧表插入成功,则继续保存一份数据到新表中;注意这两行记录必须保持一致,包括id值,因此这里执行的SQL是:
        // INSERT INTO article_click_record_new(id, user_id, article_id) VALUES(#{id}, #{userId}, #{articleId})
        articleClickRecordMapper.insertNewCopy(record);
        return record.getId();
    }
}

4.3. statisticAfter()方法修改

java

体验AI代码助手

代码解读

复制代码

public class ArticleClickRecordServiceImpl implements ArticleClickRecordService {
    
    @Autowired
    private ArticleClickRecordMapper articleClickRecordMapper;

    /**
     * 对所有id大于lastMaxId的记录进行统计
     * 
     * @param lastMaxId 上次统计结果中的最大id
     */
    @Override
    public List<ArticleStatisticResult> statisticAfter(Long lastMaxId) {
        return readNewTable() ? 
                articleClickRecordMapper.statisticNewAfter(lastMaxId) :
                articleClickRecordMapper.statisticAfter(lastMaxId);
    }

    /**
     * 判断是否读取新表中的数据;需要做成可配置的,方便我们手动切换成新表
     * 比如:return redis.exists("READ_NEW_ARTICLE_CLICK_RECORD_TABLE")
     */
    private boolean readNewTable() {
        return false;
    }
}


转载来源:https://juejin.cn/post/7474138080577617959

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
打赏
0
5
5
0
171
分享
相关文章
2024Mysql And Redis基础与进阶操作系列(4-2)作者——LJS[含MySQL非空、唯一性、PRIMARY KEY、自增列/自增约束举例说明等详解步骤及常见报错问题对应的解决方法]
24MySQL非空、唯一性、PRIMARY KEY、自增列/自增约束举例说明等详解步骤及常见报错问题对应的解决方法(4-2) 学不会你来砍我!!!
MySQL主键谁与争锋:MySQL为何钟爱自增主键ID+UUID?
本文深入探讨了在MySQL中使用自增类型主键的优势与局限性。自增主键通过保证数据的有序性和减少索引维护成本,提升了查询和插入性能,简化了数据库管理和维护,并提高了数据一致性。然而,在某些业务场景下,如跨表唯一性需求或分布式系统中,自增主键可能无法满足要求,且存在主键值易预测的安全风险。因此,选择主键类型时需综合考虑业务需求和应用场景。
133 2
MySQL自增ID耗尽应对策略:技术解决方案全解析
在数据库管理中,MySQL的自增ID(AUTO_INCREMENT)属性为表中的每一行提供了一个唯一的标识符。然而,当自增ID达到其最大值时,如何处理这一情况成为了数据库管理员和开发者必须面对的问题。本文将探讨MySQL自增ID耗尽的原因、影响以及有效的应对策略。
314 3
MySQL 8.0特性-自增变量的持久化
【11月更文挑战第8天】在 MySQL 8.0 之前,自增变量(`AUTO_INCREMENT`)的行为在服务器重启后可能会发生变化,导致意外结果。MySQL 8.0 引入了自增变量的持久化特性,将其信息存储在数据字典中,确保重启后的一致性。这提高了开发和管理的稳定性,减少了主键冲突和数据不一致的风险。默认情况下,MySQL 8.0 启用了这一特性,但在升级时需注意行为变化。
132 1
MySQL自增ID耗尽解决方案:应对策略与实践技巧
在MySQL数据库中,自增ID(AUTO_INCREMENT)是一种特殊的属性,用于自动为新插入的行生成唯一的标识符。然而,当自增ID达到其最大值时,会发生什么?又该如何解决?本文将探讨MySQL自增ID耗尽的问题,并提供一些实用的解决方案。
183 1
MySQL设置表自增步长
MySQL设置表自增步长
231 0
【YashanDB知识库】原生mysql驱动配置连接崖山数据库
【YashanDB知识库】原生mysql驱动配置连接崖山数据库
【YashanDB知识库】原生mysql驱动配置连接崖山数据库
docker拉取MySQL后数据库连接失败解决方案
通过以上方法,可以解决Docker中拉取MySQL镜像后数据库连接失败的常见问题。关键步骤包括确保容器正确启动、配置正确的环境变量、合理设置网络和权限,以及检查主机防火墙设置等。通过逐步排查,可以快速定位并解决连接问题,确保MySQL服务的正常使用。
120 82