日志逻辑序列号(log sequence number,LSN)
LSN单调递增,对应redo log的写入点。比如写入length长度的redo log, 则LSN+length。
LSN也会写到InnoDB的数据,以确保数据页不会被多次执行重复的redo log。
如图3所示,是三个并发事务(trx1, trx2, trx3)在prepare 阶段,都写完redo log buffer,持久化到磁盘的过程,对应的LSN分别是50、120 和160。
- redo log 组提交
TODO - trx1第一个到达,被选为这组的leader
- 等trx1要开始写盘,组里已经有了三个事务,LSN也变成了160
- trx1去写盘时,带的就是LSN=160。所以,等trx1返回时,所有LSN≤160的redo log,都已被持久化到磁盘
- 这时,trx2和trx3就可直接返回
所以,一次组提交里,组员越多,节约磁盘IOPS效果越好。但若只有单线程压测,则只能老老实实地一个事务对应一次持久化操作。
在并发更新场景下,第一个事务写完redo log buffer后,接下来这个fsync越晚调用,组员可能越多,节约IOPS效果越好。
为了让一次fsync带的组员更多,MySQL采取优化:拖时间。
两阶段提交
写binlog实际上分成两步:
- 先把binlog从binlog cache中写到磁盘上的binlog文件
- 调用fsync持久化
MySQL为了让组提交效果更好,把redo log做fsync的时间拖到了step1后面:
- 两阶段提交细化
- 这样的话,binlog也可以组提交。上图的step4时,若有多个事务的binlog已经写完,也是一起持久化的,这样也能减少IOPS。
一般step3执行很快,所以binlog的write、fsync间隔时间很短,导致能集合到一起持久化的binlog较少,因此binlog的组提交的效果通常不如redo log的效果。
若想提升binlog组提交效果,可设置:
binlog_group_commit_sync_delay参数
延迟多少微秒后才调用fsync
binlog_group_commit_sync_no_delay_count参数
累积多少次以后才调用fsync
这两个条件是或的关系,即只要有一个满足条件就会调用fsync。
这样的话,binlog_group_commit_sync_delay = 0 时,binlog_group_commit_sync_no_delay_count就无效了。
WAL是减少磁盘写,可每次提交事务都要写redo log和binlog,这磁盘的读写次数也没变少呀?s所以现在就能理解了,WAL主要得益于:
redo log 和 binlog都是顺序写,磁盘的顺序写比随机写速度要快
组提交机制,可大幅度降低磁盘IOPS
所以,若MySQL出现IO性能瓶颈,可通过如下方法优化:
设置 binlog_group_commit_sync_delay 、binlog_group_commit_sync_no_delay_count,减少binlog写盘次数
该方案是基于“额外的故意等待”来实现的,因此可能会增加语句的响应时间,但不会丢数据
将sync_binlog 设为大于1的值(推荐100~1000)
风险是,主机掉电时会丢binlog日志。
将innodb_flush_log_at_trx_commit设为2
风险是,主机掉电的时候会丢数据。
不推荐把innodb_flush_log_at_trx_commit 设成0。因为此时表示redo log只保存在内存,这样MySQL本身异常重启也会丢数据,风险太大。而redo log写到文件系统的page cache的速度是很快的,所以将该参数设成2跟设成0性能差不多,但这样做MySQL异常重启时就不会丢数据了。
小结
MySQL是“怎么保证redo log和binlog是完整的”。
crash-safe
执行一个update后,再执行hexdump直接查看ibd文件内容,为什么没有看到数据有改变?
可能因为WAL。update语句执行完后,InnoDB只保证写完了redo log、内存,可能还没来得及将数据写磁盘。
为什么binlog cache是每个线程自己维护的,而redo log buffer是全局共用?
binlog不能“被打断”。一个事务的binlog必须连续写,因此要整个事务完成后,再一起写到文件。
而redo log没有这个要求,中间有生成的日志可以写到redo log buffer。redo log buffer中的内容还能“搭便车”,其他事务提交的时候可以被一起写到磁盘。
事务执行期间,还没到提交阶段,若发生crash,redo log肯定丢了,这会不会导致主备不一致呢?
不会。因为此时binlog还在binlog cache,没发给备库。crash之后,redo log和binlog都没有了,从业务角度看这个事务也没有提交,所以数据是一致的。
若binlog写完盘以后发生crash,这时还没给客户端答复就重启了。等客户端再重连进来,发现事务已经提交成功了,这是不是bug?
不是。设想一下更极端场景,整个事务都提交成功,redo log commit完成了,备库也收到binlog并执行了。但主库和客户端网络断了,导致事务成功的包返回不回去,这时客户端也会收到“网络断开”的异常。这种也只能算是事务成功的,不能认为是bug。
实际上DB的crash-safe保证的是:
如果客户端收到事务成功的消息,事务就一定持久化了
如果客户端收到事务失败(比如主键冲突、回滚等)的消息,事务就一定失败了
如果客户端收到“执行异常”的消息,应用需要重连后通过查询当前状态来继续后续的逻辑。此时DB只需要保证内部(数据和日志之间,主库和备库之间)一致即可。