InnoDB重做日志架构和innodb_redo_log_capacity系统变量(译文)

本文涉及的产品
RDS AI 助手,专业版
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
RDS MySQL DuckDB 分析主实例,基础系列 4核8GB
简介: 说明:从MySQL 8.0.30开始,InnoDB的重做日志架构发生了重大变化,重做日志文件被固定为32个,并存放在一个专门的目录下面,用户可以使用系统变量innodb_redo_log_capacity在线修改重做日志容量,原来的innodb_log_files_in_group和innodb_log_file_size两个系统变量已经废弃。

说明:从MySQL 8.0.30开始,InnoDB的重做日志架构发生了重大变化,重做日志文件被固定为32个,并存放在一个专门的目录下面,用户可以使用系统变量innodb_redo_log_capacity在线修改重做日志容量,原来的innodb_log_files_in_group和innodb_log_file_size两个系统变量已经废弃。原文网址:https://lefred.be/content/dynamic-innodb-redo-log/ (有删节和修改)作者:Frédéric Descamps,Oracle公司MySQL社区经理,知名MySQL布道师 。



关于译者,姚远:

  • Oracle ACE(Oracle和MySQL数据库方向)
  • 华为云MVP
  • 《MySQL 8.0运维与优化》的作者
  • 中国唯一一位Oracle高可用大师
  • 拥有包括 Oracle 10g和12c OCM在内的20+数据库相关认证。
  • 曾任IBM公司数据库部门经理
  • 现在一家第三方公司任首席数据库专家,服务2万+客户。



01

系统变量innodb_redo_log_capacity


从MySQL 8.0.30开始,InnoDB的重做日志架构发生了重大变化,之前官方MySQL的大部分更新都是变得更加像Oracle,但这次把挺像Oracle的重做日志给改的不像Oracle了。重做日志文件被固定为32个,并存放在一个专门的目录下面,用户可以使用系统变量innodb_redo_log_capacity在线修改重做日志容量,原来的innodb_log_files_in_group和innodb_log_file_size两个系统变量已经废弃,除非innodb_redo_log_capacity没有设置。重做日志容量不;足会导致性能问题,但重做日志设置过大会浪费磁盘空间,并在崩溃恢复时增加恢复时间。

innodb_redo_log_capacity默认为100MB,如果容量不够,在MySQL的错误日志中会有下面的提示:

[Warning] [MY-013865] [InnoDB] Redo log writer is waiting for a new redo log file. Consider increasing innodb_redo_log_capacity.


可以使用下面的命令把日志容量设置为200MB:


set global innodb_redo_log_capacity=200*1024*1024;


重做日志文件的位置也变了,不在是在数据目录(datadir)下面,现在存放在innodb_log_group_home_dir变量指定的目录下的#innodb_redo(注意:前面的井号不是输入的错误)目录中,innodb_log_group_home_dir变量默认是数据目录(datadir)。检查这个目录内容如下:




root@ubuntu:/var/lib/mysql/#innodb_redo# ls'#ib_redo50634'  '#ib_redo50638'      '#ib_redo50642_tmp'  '#ib_redo50646_tmp'  '#ib_redo50650_tmp'  '#ib_redo50654_tmp'  '#ib_redo50658_tmp'  '#ib_redo50662_tmp''#ib_redo50635'  '#ib_redo50639'      '#ib_redo50643_tmp'  '#ib_redo50647_tmp'  '#ib_redo50651_tmp'  '#ib_redo50655_tmp'  '#ib_redo50659_tmp'  '#ib_redo50663_tmp''#ib_redo50636'  '#ib_redo50640_tmp'  '#ib_redo50644_tmp'  '#ib_redo50648_tmp'  '#ib_redo50652_tmp'  '#ib_redo50656_tmp'  '#ib_redo50660_tmp'  '#ib_redo50664_tmp''#ib_redo50637'  '#ib_redo50641_tmp'  '#ib_redo50645_tmp'  '#ib_redo50649_tmp'  '#ib_redo50653_tmp'  '#ib_redo50657_tmp'  '#ib_redo50661_tmp'  '#ib_redo50665_tmp'

这里有两类文件:

  • #ib_redoXXX(其中XXX是一个序列号):这些是活跃的重做日志文件,这里一共有6个。
  • #ib_redoXXX_tmp:那些是备用重做日志文件,这里一共26个。

InnoDB试图总共维护32个重做日志文件,每个文件的大小相等,并且是innodb_redo_log_capacity的1/32。



02

新的重做日志架构


下面的图说明了重做日志的架构,图中有32个格子,每个代表一个重做日志文件。


与重做日志相关的状态变量:

  • checkpoint_lsn(状态变量Innodb_redo_log_checkpoint_lsn):LSN的检查点,在这个点之前的所有更改都已写入到数据文件中,这个点之后的重做日志在进行崩溃恢复时有用。
  • flushed_to_disk_lsn(状态变量Innodb_redo_log_flushed_to_disk_lsn):重做日志中已刷新到磁盘的最后一个位置,但并不一定刷新到数据文件中。
  • current_lsn(状态变量Innodb_redo_log_current_lsn):重做日志中已刷新到操作系统缓存中的最后一个位置,但并不一定刷新到磁盘中。

当重做日志到达第31个文件的末尾时,日志文件管理器将执行一些清理,一些不再需要的活动文件将成为新的备用文件,图中表示方法是把虚线部分的格子被从左边移动到右边。







SELECT file_id, start_lsn, end_lsn,        if(is_full=1,'100%',          concat(round((((               select VARIABLE_VALUE                  from performance_schema.global_status                 where VARIABLE_NAME='Innodb_redo_log_current_lsn'               )-start_lsn)/(end_lsn-start_lsn)*100),2),'%')) full,          concat(format_bytes(size_in_bytes)," / " ,          format_bytes(@@innodb_redo_log_capacity) ) file_size,       (select VARIABLE_VALUE from performance_schema.global_status         where VARIABLE_NAME='Innodb_redo_log_checkpoint_lsn') checkpoint_lsn,      (select VARIABLE_VALUE from performance_schema.global_status         where VARIABLE_NAME='Innodb_redo_log_current_lsn') current_lsn,       (select VARIABLE_VALUE from performance_schema.global_status         where VARIABLE_NAME='Innodb_redo_log_flushed_to_disk_lsn') flushed_to_disk_lsn,      (select count from information_schema.INNODB_METRICS         where name like 'log_lsn_checkpoint_age') checkpoint_age FROM performance_schema.innodb_redo_log_files;


03

蛇的比喻


新的重做日志架构可以被视为一条蛇,这条蛇对应崩溃恢复时需要的重做日志信息,它分布在笼子上,每个笼子对应一个重做日志文件。这些笼子连续连接,这样蛇就可以持续前进。蛇的大小可以长得更长或缩小,当重做日志增加时,蛇的头部(current_lsn)向右移动,当InnoDB将肮页从缓冲池刷新到数据文件中时,不需要的重做日志信息被截断,蛇的尾巴(checkpoint_lsn)也向右移动。当蛇到达右边倒数第二个笼子的末端时,InnoDB从左边取出不再需要的笼子,把这些笼子放在右边。笼子的数量总是32个(除非非常特殊的情况)。下面看看蛇的长度和负载的关系的例子,当没有负载时:

在没有负载时,我们可以看到current_lsn、checkpoint_lsn和flushed_to_disk_lsn具有相同的值。它们都在最后一个活动日志中(id 10844)。这是蛇的长度是最小值,512个字节。有负载时:

这时蛇的长度是7.68Mib。

04

计算最佳InnoDB重做日志容量


可以根据Innodb_redo_log_current_lsn系统变量的变化计算出产生的InnoDB重做日志大小,在业务高峰期,您可以执行下面的4条SQL(放在一行中)计算InnoDB产生的重做日志的大小:





select VARIABLE_VALUE from performance_schema.global_status  where VARIABLE_NAME='Innodb_redo_log_current_lsn' into @a;select sleep(60) into @garb ;select VARIABLE_VALUE from performance_schema.global_status  where VARIABLE_NAME='Innodb_redo_log_current_lsn' into @b;select  format_bytes(abs(@a - @b)) per_min, format_bytes(abs(@a - @b)*60) per_hour;


经验是把重做日志容量设置到足以容纳1小时的日志,以免InnoDB在受到重做日志容量压力的情况下被迫把脏页刷新到磁盘,再大就没有必要了。


相关实践学习
通过日志服务实现云资源OSS的安全审计
本实验介绍如何通过日志服务实现云资源OSS的安全审计。
相关文章
|
5月前
|
存储 调度 C++
16 倍性能提升,成本降低 98%! 解读 SLS 向量索引架构升级改造
大规模数据如何进行语义检索? 当前 SLS 已经支持一站式的语义检索功能,能够用于 RAG、Memory、语义聚类、多模态数据等各种场景的应用。本文分享了 SLS 在语义检索功能上,对模型推理和部署、构建流水线等流程的优化,最终带给用户更高性能和更低成本的针对大规模数据的语义索引功能。
501 52
|
10月前
|
监控 容灾 算法
阿里云 SLS 多云日志接入最佳实践:链路、成本与高可用性优化
本文探讨了如何高效、经济且可靠地将海外应用与基础设施日志统一采集至阿里云日志服务(SLS),解决全球化业务扩展中的关键挑战。重点介绍了高性能日志采集Agent(iLogtail/LoongCollector)在海外场景的应用,推荐使用LoongCollector以获得更优的稳定性和网络容错能力。同时分析了多种网络接入方案,包括公网直连、全球加速优化、阿里云内网及专线/CEN/VPN接入等,并提供了成本优化策略和多目标发送配置指导,帮助企业构建稳定、低成本、高可用的全球日志系统。
1025 54
|
存储 SQL 关系型数据库
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log、原理、写入过程;binlog与redolog区别、update语句的执行流程、两阶段提交、主从复制、三种日志的使用场景;查询日志、慢查询日志、错误日志等其他几类日志
1034 35
MySQL日志详解——日志分类、二进制日志bin log、回滚日志undo log、重做日志redo log
|
11月前
|
存储 NoSQL Redis
阿里面试:Redis 为啥那么快?怎么实现的100W并发?说出了6大架构,面试官跪地: 纯内存 + 尖端结构 + 无锁架构 + EDA架构 + 异步日志 + 集群架构
阿里面试:Redis 为啥那么快?怎么实现的100W并发?说出了6大架构,面试官跪地: 纯内存 + 尖端结构 + 无锁架构 + EDA架构 + 异步日志 + 集群架构
阿里面试:Redis 为啥那么快?怎么实现的100W并发?说出了6大架构,面试官跪地: 纯内存 + 尖端结构 +  无锁架构 +  EDA架构  + 异步日志 + 集群架构
|
存储 缓存 关系型数据库
图解MySQL【日志】——Redo Log
Redo Log(重做日志)是数据库中用于记录数据页修改的物理日志,确保事务的持久性和一致性。其主要作用包括崩溃恢复、提高性能和保证事务一致性。Redo Log 通过先写日志的方式,在内存中缓存修改操作,并在适当时候刷入磁盘,减少随机写入带来的性能损耗。WAL(Write-Ahead Logging)技术的核心思想是先将修改操作记录到日志文件中,再择机写入磁盘,从而实现高效且安全的数据持久化。Redo Log 的持久化过程涉及 Redo Log Buffer 和不同刷盘时机的控制参数(如 `innodb_flush_log_at_trx_commit`),以平衡性能与数据安全性。
756 5
图解MySQL【日志】——Redo Log
|
监控 Java 应用服务中间件
Tomcat log日志解析
理解和解析Tomcat日志文件对于诊断和解决Web应用中的问题至关重要。通过分析 `catalina.out`、`localhost.log`、`localhost_access_log.*.txt`、`manager.log`和 `host-manager.log`等日志文件,可以快速定位和解决问题,确保Tomcat服务器的稳定运行。掌握这些日志解析技巧,可以显著提高运维和开发效率。
1410 13
|
缓存 Java 编译器
|
SQL 存储 关系型数据库
简单聊聊MySQL的三大日志(Redo Log、Binlog和Undo Log)各有什么区别
在MySQL数据库管理中,理解Redo Log(重做日志)、Binlog(二进制日志)和Undo Log(回滚日志)至关重要。Redo Log确保数据持久性和崩溃恢复;Binlog用于主从复制和数据恢复,记录逻辑操作;Undo Log支持事务的原子性和隔离性,实现回滚与MVCC。三者协同工作,保障事务ACID特性。文章还详细解析了日志写入流程及可能的异常情况,帮助深入理解数据库日志机制。
1538 0
|
存储 关系型数据库 MySQL
图解MySQL【日志】——Undo Log
Undo Log(回滚日志)是 MySQL 中用于实现事务原子性和一致性的关键机制。在默认的自动提交模式下,MySQL 隐式开启事务,每条增删改语句都会记录到 Undo Log 中。其主要作用包括:
602 0