InnoDB重做日志架构和innodb_redo_log_capacity系统变量(译文)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
日志服务 SLS,月写入数据量 50GB 1个月
简介: 说明:从MySQL 8.0.30开始,InnoDB的重做日志架构发生了重大变化,重做日志文件被固定为32个,并存放在一个专门的目录下面,用户可以使用系统变量innodb_redo_log_capacity在线修改重做日志容量,原来的innodb_log_files_in_group和innodb_log_file_size两个系统变量已经废弃。

说明:从MySQL 8.0.30开始,InnoDB的重做日志架构发生了重大变化,重做日志文件被固定为32个,并存放在一个专门的目录下面,用户可以使用系统变量innodb_redo_log_capacity在线修改重做日志容量,原来的innodb_log_files_in_group和innodb_log_file_size两个系统变量已经废弃。原文网址:https://lefred.be/content/dynamic-innodb-redo-log/ (有删节和修改)作者:Frédéric Descamps,Oracle公司MySQL社区经理,知名MySQL布道师 。



关于译者,姚远:

  • Oracle ACE(Oracle和MySQL数据库方向)
  • 华为云MVP
  • 《MySQL 8.0运维与优化》的作者
  • 中国唯一一位Oracle高可用大师
  • 拥有包括 Oracle 10g和12c OCM在内的20+数据库相关认证。
  • 曾任IBM公司数据库部门经理
  • 现在一家第三方公司任首席数据库专家,服务2万+客户。



01

系统变量innodb_redo_log_capacity


从MySQL 8.0.30开始,InnoDB的重做日志架构发生了重大变化,之前官方MySQL的大部分更新都是变得更加像Oracle,但这次把挺像Oracle的重做日志给改的不像Oracle了。重做日志文件被固定为32个,并存放在一个专门的目录下面,用户可以使用系统变量innodb_redo_log_capacity在线修改重做日志容量,原来的innodb_log_files_in_group和innodb_log_file_size两个系统变量已经废弃,除非innodb_redo_log_capacity没有设置。重做日志容量不;足会导致性能问题,但重做日志设置过大会浪费磁盘空间,并在崩溃恢复时增加恢复时间。

innodb_redo_log_capacity默认为100MB,如果容量不够,在MySQL的错误日志中会有下面的提示:

[Warning] [MY-013865] [InnoDB] Redo log writer is waiting for a new redo log file. Consider increasing innodb_redo_log_capacity.


可以使用下面的命令把日志容量设置为200MB:


set global innodb_redo_log_capacity=200*1024*1024;


重做日志文件的位置也变了,不在是在数据目录(datadir)下面,现在存放在innodb_log_group_home_dir变量指定的目录下的#innodb_redo(注意:前面的井号不是输入的错误)目录中,innodb_log_group_home_dir变量默认是数据目录(datadir)。检查这个目录内容如下:




root@ubuntu:/var/lib/mysql/#innodb_redo# ls'#ib_redo50634'  '#ib_redo50638'      '#ib_redo50642_tmp'  '#ib_redo50646_tmp'  '#ib_redo50650_tmp'  '#ib_redo50654_tmp'  '#ib_redo50658_tmp'  '#ib_redo50662_tmp''#ib_redo50635'  '#ib_redo50639'      '#ib_redo50643_tmp'  '#ib_redo50647_tmp'  '#ib_redo50651_tmp'  '#ib_redo50655_tmp'  '#ib_redo50659_tmp'  '#ib_redo50663_tmp''#ib_redo50636'  '#ib_redo50640_tmp'  '#ib_redo50644_tmp'  '#ib_redo50648_tmp'  '#ib_redo50652_tmp'  '#ib_redo50656_tmp'  '#ib_redo50660_tmp'  '#ib_redo50664_tmp''#ib_redo50637'  '#ib_redo50641_tmp'  '#ib_redo50645_tmp'  '#ib_redo50649_tmp'  '#ib_redo50653_tmp'  '#ib_redo50657_tmp'  '#ib_redo50661_tmp'  '#ib_redo50665_tmp'

这里有两类文件:

  • #ib_redoXXX(其中XXX是一个序列号):这些是活跃的重做日志文件,这里一共有6个。
  • #ib_redoXXX_tmp:那些是备用重做日志文件,这里一共26个。

InnoDB试图总共维护32个重做日志文件,每个文件的大小相等,并且是innodb_redo_log_capacity的1/32。



02

新的重做日志架构


下面的图说明了重做日志的架构,图中有32个格子,每个代表一个重做日志文件。


与重做日志相关的状态变量:

  • checkpoint_lsn(状态变量Innodb_redo_log_checkpoint_lsn):LSN的检查点,在这个点之前的所有更改都已写入到数据文件中,这个点之后的重做日志在进行崩溃恢复时有用。
  • flushed_to_disk_lsn(状态变量Innodb_redo_log_flushed_to_disk_lsn):重做日志中已刷新到磁盘的最后一个位置,但并不一定刷新到数据文件中。
  • current_lsn(状态变量Innodb_redo_log_current_lsn):重做日志中已刷新到操作系统缓存中的最后一个位置,但并不一定刷新到磁盘中。

当重做日志到达第31个文件的末尾时,日志文件管理器将执行一些清理,一些不再需要的活动文件将成为新的备用文件,图中表示方法是把虚线部分的格子被从左边移动到右边。







SELECT file_id, start_lsn, end_lsn,        if(is_full=1,'100%',          concat(round((((               select VARIABLE_VALUE                  from performance_schema.global_status                 where VARIABLE_NAME='Innodb_redo_log_current_lsn'               )-start_lsn)/(end_lsn-start_lsn)*100),2),'%')) full,          concat(format_bytes(size_in_bytes)," / " ,          format_bytes(@@innodb_redo_log_capacity) ) file_size,       (select VARIABLE_VALUE from performance_schema.global_status         where VARIABLE_NAME='Innodb_redo_log_checkpoint_lsn') checkpoint_lsn,      (select VARIABLE_VALUE from performance_schema.global_status         where VARIABLE_NAME='Innodb_redo_log_current_lsn') current_lsn,       (select VARIABLE_VALUE from performance_schema.global_status         where VARIABLE_NAME='Innodb_redo_log_flushed_to_disk_lsn') flushed_to_disk_lsn,      (select count from information_schema.INNODB_METRICS         where name like 'log_lsn_checkpoint_age') checkpoint_age FROM performance_schema.innodb_redo_log_files;


03

蛇的比喻


新的重做日志架构可以被视为一条蛇,这条蛇对应崩溃恢复时需要的重做日志信息,它分布在笼子上,每个笼子对应一个重做日志文件。这些笼子连续连接,这样蛇就可以持续前进。蛇的大小可以长得更长或缩小,当重做日志增加时,蛇的头部(current_lsn)向右移动,当InnoDB将肮页从缓冲池刷新到数据文件中时,不需要的重做日志信息被截断,蛇的尾巴(checkpoint_lsn)也向右移动。当蛇到达右边倒数第二个笼子的末端时,InnoDB从左边取出不再需要的笼子,把这些笼子放在右边。笼子的数量总是32个(除非非常特殊的情况)。下面看看蛇的长度和负载的关系的例子,当没有负载时:

在没有负载时,我们可以看到current_lsn、checkpoint_lsn和flushed_to_disk_lsn具有相同的值。它们都在最后一个活动日志中(id 10844)。这是蛇的长度是最小值,512个字节。有负载时:

这时蛇的长度是7.68Mib。

04

计算最佳InnoDB重做日志容量


可以根据Innodb_redo_log_current_lsn系统变量的变化计算出产生的InnoDB重做日志大小,在业务高峰期,您可以执行下面的4条SQL(放在一行中)计算InnoDB产生的重做日志的大小:





select VARIABLE_VALUE from performance_schema.global_status  where VARIABLE_NAME='Innodb_redo_log_current_lsn' into @a;select sleep(60) into @garb ;select VARIABLE_VALUE from performance_schema.global_status  where VARIABLE_NAME='Innodb_redo_log_current_lsn' into @b;select  format_bytes(abs(@a - @b)) per_min, format_bytes(abs(@a - @b)*60) per_hour;


经验是把重做日志容量设置到足以容纳1小时的日志,以免InnoDB在受到重做日志容量压力的情况下被迫把脏页刷新到磁盘,再大就没有必要了。


相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
12天前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
121 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
1月前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
220 3
|
8天前
|
存储 Oracle 关系型数据库
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
本文介绍了MySQL InnoDB存储引擎中的数据文件和重做日志文件。数据文件包括`.ibd`和`ibdata`文件,用于存放InnoDB数据和索引。重做日志文件(redo log)确保数据的可靠性和事务的持久性,其大小和路径可由相关参数配置。文章还提供了视频讲解和示例代码。
113 11
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
|
1月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1630 14
|
1月前
|
Python
log日志学习
【10月更文挑战第9天】 python处理log打印模块log的使用和介绍
31 0
|
1月前
|
数据可视化
Tensorboard可视化学习笔记(一):如何可视化通过网页查看log日志
关于如何使用TensorBoard进行数据可视化的教程,包括TensorBoard的安装、配置环境变量、将数据写入TensorBoard、启动TensorBoard以及如何通过网页查看日志文件。
194 0
|
1月前
|
存储 分布式计算 NoSQL
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
大数据-136 - ClickHouse 集群 表引擎详解1 - 日志、Log、Memory、Merge
40 0
|
1月前
|
缓存 Linux 编译器
【C++】CentOS环境搭建-安装log4cplus日志组件包及报错解决方案
通过上述步骤,您应该能够在CentOS环境中成功安装并使用log4cplus日志组件。面对任何安装或使用过程中出现的问题,仔细检查错误信息,对照提供的解决方案进行调整,通常都能找到合适的解决之道。log4cplus的强大功能将为您的项目提供灵活、高效的日志管理方案,助力软件开发与维护。
54 0
|
3月前
|
Kubernetes Ubuntu Windows
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
131 3
|
2月前
|
Java
日志框架log4j打印异常堆栈信息携带traceId,方便接口异常排查
日常项目运行日志,异常栈打印是不带traceId,导致排查问题查找异常栈很麻烦。