33_mysql事务日志

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群版 2核4GB 100GB
推荐场景:
搭建个人博客
日志服务 SLS,月写入数据量 50GB 1个月
简介: 每天进步亿点点
参考来源:

康师傅:https://www.bilibili.com/video/BV1iq4y1u7vj?p=169

一、MySQL事务日志

事务有4种特性:原子性、一致性、隔离性和持久性。那么事务的四种特性到底是基于什么机制实现呢?

  • 事务的隔离性由锁机制实现。
  • 而事务的原子性、一致性和持久性由事务的 redo 日志和 undo 日志来保证。

    • REDO LOG称为重做日志,提供再写入操作,恢复提交事务修改的页操作,用来保证事务的持久性。
    • UNDO LOG称为回滚日志,回滚行记录到某个特定版本,用来保证事务的原子性、一致性。

有的 DBA 或许会认为 UNDO 是 REDO 的逆过程,其实不然。REDO 和 UNDO 都可以视为是一种恢复操作,但是:

  • redo log:是存储引擎层(innodb)生成的日志,记录的是"物理级别"上的页修改操作,比如页号xxx、偏移量yyy写入了'zzz'数据。主要为了保证数据的可靠性;
  • undo log:是存储引擎层(innodb)生成的日志,记录的是逻辑操作日志,比如对某一行数据进行了 INSERT 语句操作,那么 undo log 就记录一条与之相反的 DELETE 操作。主要用于事务的回滚( undo log 记录的是每个修改操作的逆操作)和一致性非锁定读( undo log 回滚行记录到某种特定的版本---MVCC,即多版本并发控制)。

1. redo 日志

InnoDB 存储引擎是以页为单位来管理存储空间的。在真正访问页面之前,需要把在磁盘上的页缓存到内存中的 Buffer Pool 之后才可以访问。所有的变更都必须先更新缓冲池中的数据,然后缓冲池中的脏页会以一定的频率被刷入磁盘( checkPoint 机制),通过缓冲池来优化 CPU 和磁盘之间的鸿沟,这样就可以保证整体的性能不会下降太快。

1.1 为什么需要REDO日志

一方面,缓冲池可以帮助我们消除 CPU 和磁盘之间的鸿沟,checkpoint 机制可以保证数据的最终落盘,然而由于 checkpoint 并不是每次变更的时候就触发的,而是 master 线程隔一段时间去处理的。所以最坏的情况就是事务提交后,刚写完缓冲池,数据库宕机了,那么这段数据就是丢失的,无法恢复。

另一方面,事务包含持久性的特性,就是说对于一个已经提交的事务,在事务提交后即使系统发生了崩溃,这个事务对数据库中所做的更改也不能丢失。

那么如何保证这个持久性呢?一个简单的做法:在事务提交完成之前把该事务所修改的所有页面都刷新到磁盘,但是这个简单粗暴的做法有些问题:

  • 修改量与刷新磁盘工作量严重不成比例
    有时候我们仅仅修改了某个页面中的一个字节,但是我们知道在 InnoDB 中是以页为单位来进行磁盘 IO 的,也就是说我们在该事务提交时不得不将一个完整的页面从内存中刷新到磁盘,我们又知道一个页面默认是 16KB 大小,只修改一个字节就要刷新 16KB 的数据到磁盘上显然是太小题大做了。
  • 随机 IO 刷新较慢
    一个事务可能包含很多语句,即使是一条语句也可能修改许多页面,假如该事务修改的这些页面可能并不相邻,这就意味着在将某个事务修改的 Buffer Pool 中的页面刷新到磁盘时,需要进行很多的随机 IO,随机 IO 比顺序 IO 要慢,尤其对于传统的机械硬盘来说。

另一个解决的思路:我们只是想让已经提交了的事务对数据库中数据所做的修改永久生效,即使后来系统崩溃,在重启后也能把这种修改恢复出来。所以我们其实没有必要在每次事务提交时就把该事务在内存中修改过的全部页面刷新到磁盘,只需要把修改了哪些东西记录一下就好。比如,某个事务将系统表空间中第 10 号页面中偏移量为 100 处的那个字节的值 1 改成 2。我们只需要记录一下:将第 0 号表空间的 10 号页面的偏移量为 100 处的值更新为 2。

InnoDB 引擎的事务采用了 WAL 技术(Write-Ahead Logging ),这种技术的思想就是先写日志,再写磁盘,只有日志写入成功,才算事务提交成功,这里的日志就是 redo log。当发生宕机且数据未刷到磁盘的时候,可以通过 redo log 来恢复,保证 ACID 中的D,这就是redo log的作用。

122.png

1.2 REDO日志的好处、特点

1. 好处

  • redo 日志降低了刷盘频率
  • redo 日志占用的空间非常小

存储表空间 ID、页号、偏移量以及需要更新的值,所需的存储空间是很小的,刷盘快。

2. 特点

  • redo 日志是顺序写入磁盘的

    在执行事务的过程中,每执行一条语句,就可能产生若干条 redo 日志,这些日志是按照产生的顺序写入磁盘的,也就是使用顺序 IO,效率比随机 IO 快。

  • 事务执行过程中,redo log 不断记录

    redo log 跟 bin log 的区别,redo log 是存储引擎层产生的,而 bin log 是数据库层产生的。假设一个事务,对表做 10万行的记录插入,在这个过程中,一直不断的往 redo log 顺序记录,而 bin log 不会记录,直到这个事务提交,才会一次写入到 bin log 文件中。

1.3 redo的组成

Redo log 可以简单分为以下两个部分:

  1. 重做日志的缓冲(redo log buffer),保存在内存中,是易失的。

    在服务器启动时就向操作系统申请了一大片称之为 redo log buffer 的连续内存空间,翻译成中文就是 redo 日志缓冲区。这片内存空间被划分成若干个连续的 redo log block。一个 redo log block 占用 512 字节大小。

    123.png

    参数设置:innodb_log_buffer_size

    redo log buffer 大小,默认 16M,最大值是 4096M,最小值为 1M。

    mysql> show variables like '%innodb_log_buffer_size%';
    +------------------------+---------+
    | Variable_name          | Value   |
    +------------------------+---------+
    | innodb_log_buffer_size | 1048576 |
    +------------------------+---------+
    1 row in set, 1 warning (0.06 sec)
  2. 重做日志文件( redo log file),保存在硬盘中,是持久的。

    REDO 日志文件如图所示,其中的 ib_logfile0 和 ib_logfile1 即为 REDO 日志。

    124.png

1.4 redo 的整体流程

以一个更新事务为例,redo log 流转过程,如下图所示:

125.png

第1步:先将原始数据从磁盘中读入内存中来,修改数据的内存拷贝
第2步:生成一条重做日志并写入redo log buffer,记录的是数据被修改后的值
第3步:当事务commit时,将redo log buffer中的内容刷新到 redo log file,对 redo log file 采用追加写的方式
第4步:定期将内存中修改的数据刷新到磁盘中

体会:
Write-Ahead Log(预先日志持久化):在持久化一个数据页之前,先将内存中相应的日志页持久化。

1.5 redo log 的刷盘策略

redo log 的写入并不是直接写入磁盘的,InnoDB 引擎会在写 redo log 的时候先写 redo log buffer,之后以一定的频率刷入到真正的 redo log file 中。这里的一定频率怎么看待呢?这就是我们要说的刷盘策略。

126.png

注意,redo log buffer 刷盘到 redo log file 的过程并不是真正的刷到磁盘中去,只是刷入到文件系统缓存(pagecache)中去(这是现代操作系统为了提高文件写入效率做的一个优化),真正的写入会交给系统自己来决定(比如 page cache 足够大了)。那么对于 InnoDB 来说就存在一个问题,如果交给系统来同步,同样如果系统宕机,那么数据也丢失了(虽然整个系统宕机的概率还是比较小的)。

针对这种情况,InnoDB 给出 innodb_flush_log_at_trx_commit 参数,该参数控制 commit 提交事务时,如何将 redo log buffer 中的日志刷新到 redo log file 中。它支持三种策略:

  • 设置为 0:表示每次事务提交时不进行刷盘操作。(系统默认 master thread 每隔 1s 进行一次重做日志的同步)
  • 设置为 1:表示每次事务提交时都将进行同步,刷盘操作(默认值)
  • 设置为 2:表示每次事务提交时都只把 redo log buffer 内容写入 page cache,不进行同步。由os自己决定什么时候同步到磁盘文件。
mysql> show variables like 'innodb_flush_log_at_trx_commit';
+--------------------------------+-------+
| Variable_name                  | Value |
+--------------------------------+-------+
| innodb_flush_log_at_trx_commit | 1     |
+--------------------------------+-------+
1 row in set, 1 warning (0.01 sec)

另外,InnoDB 存储引擎有一个后台线程,每隔1秒,就会把 redo log buffer 中的内容写到文件系统缓存( page cache ),然后调用刷盘操作。

127.png

也就是说,一个没有提交事务的 redo log 记录,也可能会刷盘。因为在事务执行过程 redo log 记录是会写入 redo log buffer 中,这些 redo log 记录会被后台线程刷盘。

128.png

除了后台线程每秒1次的轮询操作,还有一种情况,当 redo log buffer 占用的空间即将达到 innodb_log_buffer_size (这个参数默认是16M)的一半的时候,后台线程会主动刷盘。

1.6 不同刷盘策略演示

1. 流程图

129.png

小结:innodb_flush_log_at_trx_commit=1
1 时,只要事务提交成功, redo log 记录就一定在硬盘里,不会有任何数据丢失。
如果事务执行期间 MySQL 挂了或宕机,这部分日志丢了,但是事务并没有提交,所以日志丢了也不会有损失。可以保证 ACID 的D,数据绝对不会丢失,但是 效率最差的。
建议使用默认值,虽然操作系统宕机的概率理论小于数据库宕机的概率,但是一般既然使用了事务,那么数据的安全相对来说更重要些。

131.png

小结:innodb_flush_log_at_trx_commit=0
0 时,master thread 中每1秒进行一次重做日志的 fsync 操作,因此实例 crash 最多丢失1秒钟内的事务。( master thread 是负责将缓冲池中的数据异步刷新到磁盘,保证数据的一致性)

数值 0 肯定是效率最高的,但是无法保证 D 持久性(视频中讲的有错误,下面有案例演示)。

130.png

小结:innodb_flush_log_at_trx_commit=2
2 时,只要事务提交成功, redo log buffer 中的内容只写入文件系统缓存( page cache )
如果仅仅只是 MySQL 挂了不会有任何数据丢失,但是 操作系统宕机可能会有 1秒数据的丢失,这种情况下无法满足 ACID 中的D。

数值 2 的话,是一种折中的做法,它的 IO 效率理论是高于1的,低于0的,这种策略也有丢失数据的风险,也无法保证 D 持久性(视频中讲的有错误,下面有案例演示)

2. 举例

比较 innodb_flush_log_at_trx_commit 对事务的影响。

# 创建测试表
CREATE TABLE test_load(
a INT,
b CHAR(80)
)ENGINE=INNODB;

# 创建存储过程,用于向test_load中添加数据
DELIMITER//
CREATE PROCEDURE p_load(COUNT INT UNSIGNED)
BEGIN
DECLARE s INT UNSIGNED DEFAULT 1;
DECLARE c CHAR(80)DEFAULT REPEAT('a',80);
WHILE s<=COUNT DO
INSERT INTO test_load SELECT NULL,c;
COMMIT;
SET s=s+1;
END WHILE;
END //
DELIMITER;

# 设置并查看:innodb_flush_log_at_trx_commit
# set GLOBAL innodb_flush_log_at_trx_commit = 1;
SHOW VARIABLES LIKE 'innodb_flush_log_at_trx_commit';

存储过程代码中,每插入一条数据就进行一次显式的 COMMIT 操作。在默认的设置下,即参数 innodb_flush_log_at_trx_commit 为1的情况下,InnoDB 存储引擎会将重做日志缓冲中的日志写入文件,并调用一次 fsync 操作。

执行命令 CALL p_load (30000),向表中插入3万行的记录,并执行3万次的 fsync 操作。在默认情况下所需的时间:

#调用存储过程
CALL p_load(30000); #1min 23sec

1 min 23 sec 的时间显然是不能接受的。而造成时间比较长的原因就在于 fsync 操作所需的时间。修改参数 innodb_flush_log_at_trx_commit,设置为0:

#测试2:设置为0:
TRUNCATE TABLE test_load;

SELECT COUNT(*) FROM test_load;

SET GLOBAL innodb_flush_log_at_trx_commit = 0;

SHOW VARIABLES LIKE 'innodb_flush_log_at_trx_commit';

#调用存储过程
CALL p_load(30000); #38.789 sec

此时,插入3万行记录的时间缩短为 38.789 秒。
而形成这个现象的主要原因是:后者大大减少了 fsync 的次数,从而提高了数据库执行的性能。

innodb_flush_log_at_trx_commit,设置为2:

#测试3:设置为2:
TRUNCATE TABLE test_load;

SELECT COUNT(*) FROM test_load;

SET GLOBAL innodb_flush_log_at_trx_commit = 2;

SHOW VARIABLES LIKE 'innodb_flush_log_at_trx_commit';

#调用存储过程
CALL p_load(30000); # 46.016 sec

此时,插入3万行记录的时间缩短为 46.016 秒,介于 0 和 1 之间。
只要事务提交成功,redo log buffer 中的内容只写入文件系统缓存( page cache ),没有调用 fsync 操作

下表显示了在 innodb_flush_log_at_trx_commit 的不同设置下,调用存储过程 p_load 插入3万 行记录所需的时间:

innodb_flush_log_at_trx_commit 执行所用的时间
0 38.789 sec
1 1min 23sec
2 46.016 sec

而针对上述存储过程,为了提高事务的提交性能,应该在将3万行记录插入表后进行一次的 COMMIT 操作,而不是每插入一条记录后进行一次 COMMIT 操作。这样做的好处是可以使事务方法在 rollback 时回滚到事务最开始的确定状态。

虽然用户可以通过设置参数 innodb_flush_log_at_trx_commit 为 0 或 2 来提高事务提交的性能,但需清楚,这种设置方法丧失了事务的 ACID 特性。

1.7 写入 redo log buffer 过程(了解)

1. 补充概念:Mini-Transaction

MySQL 把对底层页面中的一次原子访问的过程称之为一个 Mini-Transaction,简称 mtr,比如,向某个索引对应的 B+ 树中插入一条记录的过程就是一个 Mini-Transaction。一个所谓的 mtr 可以包含一组 redo 日志,在进行崩溃恢复时这一组 redo 日志作为一个不可分割的整体。

一个事务可以包含若干条语句,每一条语句其实是由若干个 mtr 组成,每一个 mtr 又可以包含若干条 redo 日志,画个图表示它们的关系就是这样:

132.png

2. redo日志写入log buffer

向 log buffer 中写入 redo 日志的过程是顺序的,也就是先往前边的 block 中写,当该 block 的空闲空间用完之后再往下一个 block 中写。当我们想往 log buffer 中写入 redo 日志时,第一个遇到的问题就是应该写在哪个 block 的哪个偏移量处,所以 InnoDB 的设计者特意提供了一个称之为 buf_free 的全局变量,该变量指明后续写入的 redo 日志应该写入到 log buffer 中的哪个位置,如图所示:

133.png

一个 mtr 执行过程中可能产生若干条 redo 日志,这些 redo 日志是一个不可分割的组,所以其实并不是每生成一条redo日志,就将其插入到 log buffer 中,而是每个 mtr 运行过程中产生的日志先暂时存到一个地方,当该 mtr 结束的时候,将过程中产生的一组 redo 日志再全部复制到 log buffer 中。我们现在假设有两个名为 T1T2 的事务,每个事务都包含2个 mtr,我们给这几个 mtr 命名一下:

  • 事务 T1 的两个 mtr 分别称为 mtr_T1_1mtr_T1_2
  • 事务 T2 的两个 mtr 分别称为 mtr_T2_1mtr_T2_2

每个mtr都会产生一组redo日志,用示意图来描述一下这些mtr产生的日志情况:

134.png

不同的事务可能是并发执行的,所以 T1T2 之间的 mtr 可能是交替执行的。每当一个 mtr 执行完成时,伴随该 mtr 生成的一组 redo 日志就需要被复制到 log buffe r中,也就是说不同事务的 mtr 可能是交替写入 log buffer 的,我们画个示意图(为了美观,我们把一个 mtr 中产生的所有的 redo 日志当作一个整体来画)︰

135.png

有的 mtr 产生的 redo 日志量非常大,比如 mtr_t1_2 产生的 redo 日志占用空间比较大,占用了3个 block 来存储。

3. redo log block的结构图

一个 redo log block 是由日志头、日志体、日志尾组成。日志头占用12字节,日志尾占用8字节,所以一个 block 真正能存储的数据就是512-12-8=492 字节。

为什么一个 block 设计成 512 字节?

这个和磁盘的扇区有关,机械磁盘默认的扇区就是 512 字节,如果你要写入的数据大于 512 字节,那么要写入的扇区肯定不止一个,这时就要涉及到盘片的转动,找到下一个扇区,假设现在需要写入两个扇区A和B,如果扇区A写入成功,而扇区B写入失败,那么就会出现非原子性的写入,而如果每次只写入和扇区的大小一样的 512 字节,那么每次的写入都是原子性的。

136.png

真正的 redo 日志都是存储到占用 496 字节大小的 log block body 中,图中的 log block headerlogblock trailer 存储的是一些管理信息。我们来看看这些所谓的管理信息都有什么。

137.png

  • log block header 的属分别如下(了解):

    • LOG_BLOCK_HDR_NO:log buffer 是由 log block 组成,在内部 log buffer 就好似一个数组,因此 LOG_BLOCK_HDR_NO 用来标记这个数组中的位置。其是递增并且循环使用的,占用4个字节,但是由于第一位用来判断是否是 flush bit,所以最大的值为2G。
    • LOG_BLOCK_HDR_DATA_LEN:表示block中已经使用了多少字节,初始值为12(因为 log block body 从第12个字节处开始)。随着往 block 中写入的 redo 日志越来也多,本属性值也跟着增长。如果 logblock body 已经被全部写满,那么本属性的值被设置为 512。
    • LOG_BLOCK_FIRST_REC_GROUP:一条 redo 日志也可以称之为一条 redo 日志记录(redo log record),一个 mtr 会生产多条 redo 日志记录,这些 redo 日志记录被称之为一个 redo 日志记录组(redo log record group)。 LOG_BLOCK_FIRST_REC_GROUP 就代表该 block 中第一个 mtr 生成的 redo 日志记录组的偏移量(其实也就是这个 block 里第一个 mtr 生成的第一条 redo 日志的偏移量)。如果该值的大小和 LOG_BLOCK_HDR_DATA_LEN 相同,则表示当前 log block 不包含新的日志。
    • LOG_BLOCK_CHECKPOINT_NO:占用4字节,表示该 log block 最后被写入时的 checkpoint。
  • log block trailer 中属性的意思如下(了解):

    • LOG_BLOCK_CHECKSUM:表示block的校验值,用于正确性校验(其值和 LOG_BLOCK_HDR_NO 相同),我们暂时不关心它。

1.8 redo log file

1. 相关参数设置

  • innodb_log_group_home_dir:指定 redo log 文件组所在的路径,默认值为 ./,表示在数据库的数据目录下。Linux 中 MySQL 的默认数据目录( var/lib/mysql)下默认有两个名为 ib_logfile0ib_logfile1 的文件,log buffer 中的日志默认情况下就是刷新到这两个磁盘文件中。此 redo 日志文件位置还可以修改。
  • innodb_log_files_in_group:指明 redo log file 的个数,命名方式如:ib_logfile0,iblogfile1... iblogfilen。默认2个,最大100个。
mysql>  show variables like 'innodb_log_group_home_dir';
+---------------------------+-------+
| Variable_name             | Value |
+---------------------------+-------+
| innodb_log_group_home_dir | .\    |
+---------------------------+-------+
1 row in set, 1 warning (0.00 sec)

mysql> show variables like 'innodb_log_files_in_group';
+---------------------------+-------+
| Variable_name             | Value |
+---------------------------+-------+
| innodb_log_files_in_group | 2     |
+---------------------------+-------+
1 row in set, 1 warning (0.01 sec)
  • innodb_flush_log_at_trx_commit:控制 redo log 刷新到磁盘的策略,默认为1。
  • innodb_log_file_size:单个 redo log 文件设置大小,默认值为48M。最大值为512G,注意最大值指的是整个 redo log 系列文件之和,即(innodb_log_files_in_group * innodb_log_file_size)不能大于最大值512G。
mysql> show variables like 'innodb_log_file_size';
+----------------------+----------+
| Variable_name        | Value    |
+----------------------+----------+
| innodb_log_file_size | 50331648 |
+----------------------+----------+
1 row in set, 1 warning (0.00 sec)

根据业务修改其大小,以便容纳较大的事务。编辑 my.cnf 文件并重启数据库生效,如下所示

[root@localhost ~]# vim /etc/my.cnf
innodb_log_file_size=200M
在数据库实例更新比较频繁的情况下,可以适当加大 redo log 组数和大小。但也不推荐 redo log 设置过大,在 MySQL 崩溃恢复时会重新执行 REDO 日志中的记录。

2. 日志文件组

从上边的描述中可以看到,磁盘上的 redo 日志文件不只一个,而是以一个日志文件组的形式出现的。这些文件以 ib_logfile[数字]数字可以是0、1、2...)的形式进行命名,每个的 redo 日志文件大小都是一样的。

在将 redo 日志写入日志文件组时,是从 ib_logfile0 开始写,如果 ib_logfile0 写满了,就接着 ib_logfile1 写。同理,ib_logfile1 写满了就去写 ib_logfile2,依此类推。如果写到最后一个文件该咋办?那就重新转到 ib_logfile 日继续写,所以整个过程如下图所示:

138.png

总共的 redo 日志文件大小其实就是:innodb_log_file_size x innodb_log_files_in_group

采用循环使用的方式向 redo 日志文件组里写数据的话,会导致后写入的redo日志覆盖掉前边写的 redo 日志?当然!所以 InnoDB 的设计者提出了 checkpoint 的概念。

3.checkpoint

在整个日志文件组中还有两个重要的属性,分别是 write pos、checkpoint

  • write pos 是当前记录的位置,一边写一边后移
  • checkpoint 是当前要擦除的位置,也是往后推移

每次刷盘 redo log 记录到日志文件组中,write pos 位置就会后移更新。每次 MySQL 加载日志文件组恢复数据时,会清空加载过的 redo log 记录,并把 checkpoint 后移更新。write pos 和 checkpoint 之间的还空着的部分可以用来写入新的 redo log 记录。

139.png

如果 write pos 追上 checkpoint,表示日志文件组满了,这时候不能再写入新的 redo log 记录,MySQL 得停下来,清空一些记录,把 checkpoint 推进一下。

140.png

1.9 redo log 小结

相信大家都知道 redo log 的作用和它的刷盘时机、存储形式:
InnoDB 的更新操作采用的是 Write Ahead Log (预先日志持久化)策略,即先写日志,再写入磁盘

141.png

2. Undo 日志

redo log 是事务持久性的保证,undo log 是事务原子性的保证。在事务中更新数据前置操作其实是要先写入一个 undo log

2.1 如何理解 Undo 日志

事务需要保证原子性,也就是事务中的操作要么全部完成,要么什么也不做。但有时候事务执行到一半会出现一些情况,比如:

  • 情况一:事务执行过程中可能遇到各种错误,比如服务器本身的错误操作系统错误,甚至是突然断电导致的错误。
  • 情况二:程序员可以在事务执行过程中手动输入ROLLBACK 语句结束当前事务的执行。

以上情况出现,我们需要把数据改回原先的样子,这个过程称之为回滚,这样就可以造成一个假象:这个事务看起来什么都没做,所以符合原子性要求。

每当我们要对一条记录做改动时(这里的改动可以指 INSERTDELETEUPDATE ),都需要"留一手"——把回滚时所需的东西记下来。比如:

  • 插入一条记录时,至少要把这条记录的主键值记下来,之后回滚的时候只需要把这个主键值对应的记录删掉就好了。(对于每个 INSERT, InnoDB 存储引擎会完成一个 DELETE)
  • 删除了一条记录,至少要把这条记录中的内容都记下来,这样之后回滚时再把由这些内容组成的记录插入到表中就好了。(对于每个 DELETE, InnoDB 存储引擎会执行一个 INSERT)
  • 修改了一条记录,至少要把修改这条记录前的旧值都记录下来,这样之后回滚时再把这条记录更新为旧值就好了。(对于每个 UPDATE, InnoDB存储引擎会执行一个相反的 UPDATE,将修改前的行放回去)

MySQL把这些为了回滚而记录的这些内容称之为撤销日志或者回滚日志(即 undo log )。注意,由于查询操作( SELECT )并不会修改任何用户记录,所以在查询操作执行时,并不需要记录相应的 undo日志。

此外,undo log 会产生 redo log,也就是 undo log 的产生会伴随着 redo log 的产生,这是因为 undo log 也需要持久性的保护。

2.2 Undo 日志的作用

  • 作用1:回滚数据

    用户对 undo 日志可能有误解:undo用于将数据库物理地恢复到执行语句或事务之前的样子。但事实并非如此。undo 是逻辑日志,因此只是将数据库逻辑地恢复到原来的样子。所有修改都被逻辑地取消了,但是数据结构和页本身在回滚之后可能大不相同。

    这是因为在多用户并发系统中,可能会有数十、数百甚至数千个并发事务。数据库的主要任务就是协调对数据记录的并发访问。比如,一个事务在修改当前一个页中某几条记录,同时还有别的事务在对同一个页中另几条记录进行修改。因此,不能将一个页回滚到事务开始的样子,因为这样会影响其他事务正在进行的工作。

  • 作用2:MVCC

    undo 的另一个作用是 MVCC,即在 InnoDB 存储引擎中 MVCC 的实现是通过 undo 来完成。当用户读取一行记录时,若该记录已经被其他事务占用,当前事务可以通过 undo 读取之前的行版本信息,以此实现非锁定读取。

2.3 undo 的存储结构

1. 回滚段与undo页

InnoDB 对 undo log 的管理采用段的方式,也就是回滚段(rollback segment)。每个回滚段记录了 1024undo log segment,而在每个 undo log segment 段中进行 undo 页的申请。

  • InnoDB1.1 版本之前(不包括1.1版本),只有一个 rollback segment,因此支持同时在线的事务限制为 1024。虽然对绝大多数的应用来说都已经够用。
  • 从1.1版本开始 InnoDB 支持最大 128 个 rollback segment,故其支持同时在线的事务限制提高到了128*1024

    # 查看 回滚段 个数(自己测试的时候没有数据)
    mysql> show variables like 'innodb_undo_logs';

虽然 InnoDB1.1 版本支持了 128 个 rollback segment,但是这些 rollback segment 都存储于共享表空间 ibdata 中。从 InnoDB1.2 版本开始,可通过参数对 rollback segment 做进一步的设置。这些参数包括:

  • innodb_undo_directory:设置 rollback segment 文件所在的路径。这意味着 rollback segment 可以存放在共享表空间以外的位置,即可以设置为独立表空间。该参数的默认值为 “.”,表示当前 InnoDB 存储引擎的目录。
  • innodb_undo_logs:设置 rollback segment 的个数,默认值为 128。在 InnoDB1.2 版本中,该参数用来替换之前版本的参数 innodb_rollback_segments。
  • innodb_undo_tablespaces:设置构成 rollback segment 文件的数量,这样 rollback segment 可以较为平均地分布在多个文件中。设置该参数后,会在路径 innodb_undo_directory 看到 undo 为前缀的文件,该文件就代表 rollback segment 文件。

undo log相关参数一般很少改动。

undo页的重用

当我们开启一个事务需要写 undo log 的时候,就得先去 undo log segment 中去找到一个空闲的位置,当有空位的时候,就去申请 undo 页,在这个申请到的 undo 页中进行 undo log 的写入。我们知道 mysql 默认一页的大小是 16k。为每一个事务分配一个页,是非常浪费的(除非你的事务非常长),假设你的应用的TPS(每秒处理的事务数目)为1000,那么 1s 就需要 1000 个页,大概需要 16M 的存储,1分钟大概需要 1G 的存储。如果照这样下去除非 MySQL 清理的非常勤快,否则随着时间的推移,磁盘空间会增长的非常快,而且很多空间都是浪费的。

于是 undo 页就被设计的可以重用了,当事务提交时,并不会立刻删除 undo 页。因为重用,所以这个 undo 页可能混杂着其他事务的 undo log。undo log 在 commit 后,会被放到一个链表中,然后判断undo页的使用空间是否小于 3/4,如果小于 3/4 的话,则表示当前的 undo 页可以被重用,那么它就不会被回收,其他事务的 undo log 可以记录在当前 undo 页的后面。由于undo log是离散的,所以清理对应的磁盘空间时,效率不高。

2.回滚段与事务

  1. 每个事务只会使用一个回滚段,一个回滚段在同一时刻可能会服务于多个事务。
  2. 当一个事务开始的时候,会制定一个回滚段,在事务进行的过程中,当数据被修改时,原始的数据会被复制到回滚段。
  3. 在回滚段中,事务会不断填充盘区,直到事务结束或所有的空间被用完。如果当前的盘区不够用,事务会在段中请求扩展下一个盘区,如果所有已分配的盘区都被用完,事务会覆盖最初的盘区或者在回滚段允许的情况下扩展新的盘区来使用。
  4. 回滚段存在于 undo 表空间中,在数据库中可以存在多个 undo 表空间,但同一时刻只能使用一个 undo 表空间。

    mysql> show variables like 'innodb_undo_tablespaces';
    +-------------------------+-------+
    | Variable_name           | Value |
    +-------------------------+-------+
    | innodb_undo_tablespaces | 2     |
    +-------------------------+-------+
    1 row in set, 1 warning (0.00 sec)
    
    # undo log 的数量最少为2,undo log 的 truncate 操作由 purge 协调线程发起。在 truncate 某个 undo log 表空间的过程中,保证有一个可用的 undo log 可用。
  5. 当事务提交时, InnoDB 存储引擎会做以下两件事情:

    • 将 undo log 放入列表中,以供之后的 purge 操作
    • 判断 undo log 所在的页是否可以重用,若可以分配给下个事务使用

3. 回滚段中的数据分类

  1. 未提交的回滚数据(uncommitted undo information):该数据所关联的事务并未提交,用于实现读一致性,所以该数据不能被其他事务的数据覆盖。
  2. 已经提交但未过期的回滚数据(committed undo information):该数据关联的事务已经提交,但是仍受到 undo retention 参数的保持时间的影响。
  3. 事务已经提交并过期的数据(expired undo information):事务已经提交,而且数据保存时间已经超过 undo retention 参数指定的时间,属于已经过期的数据。当回滚段满了之后,会优先覆盖"事务已经提交并过期的数据"。

事务提交后并不能马上删除 undo log 及 undo log 所在的页。这是因为可能还有其他事务需要通过 undo log 来得到行记录之前的版本。故事务提交时将 undo log 放入一个链表中,是否可以最终删除 undo log 及 undo log 所在页由 purge 线程来判断。

2.4 undo 的类型

在InnoDB存储引擎中,undo log分为:

  • insert undo log
    insert undo log 是指在 insert 操作中产生的 undo log。因为 insert 操作的记录,只对事务本身可见,对其他事务不可见(这是事务隔离性的要求),故该 undo log 可以在事务提交后直接删除。不需要进行 purge 操作。
  • update undo log
    update undo log 记录的是对 delete 和 update 操作产生的 undo log。该 undo log 可能需要提供 MVCC 机制,因此不能在事务提交时就进行删除。提交时放入 undo log 链表,等待 purge 线程进行最后的删除。

2.5 undo log 的生命周期

1. 简要生成过程

以下是 undo+redo 事务的简化过程

假设有2个数值,分别为 A=1 和 B=2 ,然后将 A 修改为 3,B 修改为 4

1. start transaction;
2.记录 A=1 到 undo log;
3. update A = 3;
4.记录 A=3 到 redo log;
5.记录 B=2 到 undo log;
6. update B = 4;
7.记录 B =4 到 redo log;
8.将 redo log 刷新到磁盘
9. commit

只有Buffer Pool的流程:

142.png

有了Redo Log和Undo Log之后:

143.png

在更新 Buffer Pool 中的数据之前,我们需要先将该数据事务开始之前的状态写入 Undo Log 中。假设更新到一半出错了,我们就可以通过 Undo Log 来回滚到事务开始前。

2. 详细生成过程

对于 InnoDB 引擎来说,每个行记录除了记录本身的数据之外,还有几个隐藏的列:

  • DB_ROW_ID:如果没有为表显式的定义主键,并且表中也没有定义唯一索引,那么 InnoDB 会自动为表添加一个 row_id 的隐藏列作为主键。
  • DB_TRX_ID:每个事务都会分配一个事务 ID,当对某条记录发生变更时,就会将这个事务的事务 ID 写入 trx_id 中。
  • DB_ROLL_PTR:回滚指针,本质上就是指向 undo log 的指针。

144.png

当我们执行 INSERT 时:

begin;
INSERT INTO user ( name ) VALUES ( "tom" ) ;

插入的数据都会生成一条 insert undo log ,并且数据的回滚指针会指向它。undo log 会记录 undo log 的序号、插入主键的列和值...,那么在进行 rollback 的时候,通过主键直接把对应的数据删除即可。

145.png

当我们执行 UPDATE 时:

对于更新的操作会产生 update undo log,并且会分更新主键的和不更新主键的,假设现在执行:

UPDATE user SET name= 'Sun' WHERE id=1;

146.png

这时会把老的记录写入新的 undo log,让回滚指针指向新的 undo log,它的 undo no 是1,并且新的 undo log 会指向老的 undo log (undo no=0)。

假设现在执行:

UPDATE user SET id=2 WHERE id=1;

147.png

对于更新主键的操作,会先把原来的数据 deletemark 标识打开,这时并没有真正的删除数据,真正的删除会交给清理线程去判断,然后在后面插入一条新的数据,新的数据也会产生 undo log,并且 undo log 的序号会递增。可以发现每次对数据的变更都会产生一个 undo log,当一条记录被变更多次时,那么就会产生多条 undo log,undo log 记录的是变更前的日志,并且每个 undo log 的序号是递增的,那么当要回滚的时候,按照序号依次向前推,就可以找到我们的原始数据了。

3. undo log是如何回滚的

以上面的例子来说,假设执行 rollback,那么对应的流程应该是这样:

  1. 通过 undo no = 3 的日志把 id = 2 的数据删除
  2. 通过 undo no = 2 的日志把 id = 1 的数据的 deletemark 还原成 0
  3. 通过 undo no = 1的日志把 id = 1 的数据的 name 还原成 Tom
  4. 通过 undo no = 0的日志把 id = 1 的数据删除

4. undo log的删除

  • 针对于 insert undo log
    因为 insert 操作的记录,只对事务本身可见,对其他事务不可见。故该 undo log 可以在事务提交后直接删除,不需要进行 purge 操作。
  • 针对于 update undo log
    该 undo log 可能需要提供MVCC机制,因此不能在事务提交时就进行删除。提交时放入 undo log 链表,等待 purge 线程进行最后的删除。

    补充:
    purge 线程两个主要作用是: 清理 undo 页清除 page 里面带有 Delete_Bit 标识的数据行。在 InnoDB 中,事务中的 Delete 操作实际上并不是真正的删除掉数据行,而是一种 Delete Mark 操作,在记录上标识 Delete_Bit,而不删除记录。是一种"假删除".只是做了个标记,真正的删除工作需要后台 purge 线程去完成。

2.6 小结

148.png

undo log 是逻辑日志,对事务回滚时,只是将数据库逻辑地恢复到原来的样子。

redo log 是物理日志,记录的是数据页的物理变化,undo log 不是 redo log 的逆过程。

目录
相关文章
|
8天前
|
SQL 关系型数据库 MySQL
MySQL 事务回滚。在执行删除、更新等操作时,防止误操作
MySQL 事务回滚。在执行删除、更新等操作时,防止误操作
21 2
|
3天前
|
存储 SQL 关系型数据库
深入解析MySQL事务机制和锁机制
深入解析MySQL事务机制和锁机制
|
5天前
|
算法 关系型数据库 MySQL
一天五道Java面试题----第七天(mysql索引结构,各自的优劣--------->事务的基本特性和隔离级别)
这篇文章是关于MySQL的面试题总结,包括索引结构的优劣、索引设计原则、MySQL锁的类型、执行计划的解读以及事务的基本特性和隔离级别。
|
11天前
|
SQL 关系型数据库 MySQL
MySQL 常见日志清理策略
MySQL 数据库服务器使用多种类型的日志来记录操作和事件,这对于故障诊断、审计和性能分析非常重要。然而,这些日志文件会随着时间的推移而不断增长,可能会占用大量的磁盘空间。因此,定期清理这些日志是必要的,本篇文章我们一起来学习下如何清理 MySQL 中的日志文件。
31 3
|
4天前
|
算法 关系型数据库 MySQL
一天五道Java面试题----第七天(mysql索引结构,各自的优劣--------->事务的基本特性和隔离级别)
这篇文章是关于MySQL的面试题总结,包括索引结构的优劣、索引设计原则、MySQL锁的类型、执行计划的解读以及事务的基本特性和隔离级别。
|
6天前
|
SQL 安全 关系型数据库
Go 语言中的 MySQL 事务操作
在现代应用中,确保数据完整与一致至关重要。MySQL的事务机制提供了可靠保障。本文首先解释了事务的概念及其ACID特性,随后介绍了如何在Go语言中使用`database/sql`包进行MySQL事务操作。通过一个银行转账的例子,演示了如何通过Go开启事务、执行操作并在必要时回滚或提交,确保数据一致性。最后,还讨论了不同事务隔离级别的含义及如何在Go中设置这些级别。通过本文的学习,开发者能更好地掌握MySQL事务的应用。
11 0
|
7天前
|
SQL 关系型数据库 MySQL
MySQL——如何查看MySQL登录日志
MySQL——如何查看MySQL登录日志
19 0
|
12天前
|
关系型数据库 MySQL
清理MySQL的binlog日志
清理MySQL的binlog日志
|
13天前
|
缓存 关系型数据库 MySQL
MySQL调优秘籍曝光!从索引到事务,全方位解锁高可用秘诀,让你的数据库性能飞起来!
【8月更文挑战第6天】MySQL是顶级关系型数据库之一,其性能直接影响应用的高可用性与用户体验。本文聚焦MySQL的高性能调优,从索引设计到事务管理,逐一解析。介绍如何构建高效索引,如联合索引`CREATE INDEX idx_order_customer ON orders(order_id, customer_id);`,以及索引覆盖查询等技术。
37 0
|
6天前
|
SQL 存储 JSON
更快更强,SLS 推出高性能 SPL 日志查询模式
从海量的日志数据中,按照各种灵活的条件进行即时查询搜索,是可观测场景下的基本需求。本文介绍了 SLS 新推出的高性能 SPL 日志查询模式,支持 Unix 风格级联管道式语法,以及各种丰富的 SQL 处理函数。同时通过计算下推、向量化计算等优化,使得 SPL 查询可以在数秒内处理亿级数据,并支持 SPL 过滤结果分布图、随机翻页等特性。
221 66