事务已提交,数据却丢了,赶紧检查下这个配置!!! | 数据库系列

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 有个星球水友提问:沈老师,我们有一次MySQL崩溃,重启后发现有些已经提交的事务对数据的修改丢失了,不是说事务能保证ACID特性么,想问下什么情况下可能导致“事务已经提交,数据却丢失”呢?

有个星球水友提问:沈老师,我们有一次MySQL崩溃,重启后发现有些已经提交的事务对数据的修改丢失了,不是说事务能保证ACID特性么,想问下什么情况下可能导致“事务已经提交,数据却丢失”呢? 这个问题有点复杂,且容我系统性梳理下思路,先从redo log说起吧。画外音:水友问的是MySQL,支持事务的是InnoDB,本文以InnoDB为例展开叙述,其他数据库不是很了解,但估计原理是相同的。 为什么要有redo log事务提交后,必须将事务对数据页的修改刷(fsync)到磁盘上,才能保证事务的ACID特性。 这个刷盘,是一个随机写,随机写性能较低,如果每次事务提交都刷盘,会极大影响数据库的性能 随机写性能差,有什么优化方法呢?架构设计中有两个常见的优化方法:(1)先写日志(write log first),将随机写优化为顺序写(2)将每次写优化为批量写这两个优化,数据库都用上了。 先说第一个优化,将对数据的修改先顺序写到日志里,这个日志就是redo log 假如某一时刻,数据库崩溃,还没来得及将数据页刷盘,数据库重启时,会重做redo log里的内容,以保证已提交事务对数据的影响被刷到磁盘上。 一句话,redo log是为了保证已提交事务的ACID特性,同时能够提高数据库性能的技术 既然redo log能保证事务的ACID特性,那为什么还会出现,水友提问中出现的“数据库奔溃,丢数据”的问题呢?一起看下redo log的实现细节。 redo log的三层架构?

image.png

花了一个丑图,简单说明下redo log的三层架构

  • 粉色,是InnoDB的一项很重要的内存结构(In-Memory Structure)日志缓冲区(Log Buffer),这一层,是MySQL应用程序用户态

  • 屎黄色,是操作系统的缓冲区(OS cache),这一层,是OS内核态

  • 蓝色,是落盘的日志文件

  redo log 最终落盘的步骤如何? 首先 ,事务提交的时候,会写入 Log Buffer ,这里调用的是MySQL自己的函数 WriteRedoLog   接着 ,只有当MySQL发起系统调用写文件 write 时, Log Buffer 里的数据,才会写到 OS cache 。注意,MySQL系统调用完 write 之后,就认为文件已经写完,如果不 flush ,什么时候落盘,是操作系统决定的; 画外音:有时候打日志,明明 printf 了, tail -f 却看不到,就是这个原因,这个细节在《明明打印到文件了,为啥tail -f看不到》一文里说过,此处不再展开。   最后 ,由操作系统(当然,MySQL也可以主动 flush )将 OS cache 里的数据,最终 fsync 到磁盘上;   操作系统为什么要缓冲数据到 OS cache 里,而不直接刷盘呢? 这里就是将“每次写”优化为“批量写”,以 提高操作系统性能   数据库为什么要缓冲数据到 Log Buffer 里,而不是直接 write 呢? 这也是“每次写”优化为“批量写”思路的体现,以 提高数据库性能 画外音:这个优化思路,非常常见,高并发的MQ落盘,高并发的业务数据落盘,都可以使用。   redo log 的三层架构,MySQL做了一次批量写优化,OS做了一次批量写优化,确实能极大提升性能,但有什么副作用吗? 画外音:有优点,必有缺点。   这个副作用,就是 可能丢失数据 (1)事务提交时,将 redo log 写入 Log Buffer ,就会认为事务提交成功;
(2)如果写入 Log Buffer 的数据, write OS cache 之前, 数据库崩溃 ,就会出现数据丢失;

(3)如果写入 OS cache 的数据, fsync 入磁盘之前, 操作系统奔溃 ,也可能出现数据丢失; 画外音:如上文所说,应用程序系统调用完 write 之后(不可能每次 write 后都立刻 flush ,这样写日志很蠢),就认为写成功了,操作系统何时 fsync ,应用程序并不知道,如果操作系统崩溃,数据可能丢失。   任何脱离业务的技术方案都是耍流氓: (1)有些业务允许低效,但不允许一丁点数据丢失; (2)有些业务必须高性能高吞吐,能够容忍少量数据丢失; MySQL是如何折衷的呢?   MySQL有一个参数: innodb_flush_log_at_trx_commit 能够控制事务提交时,刷 redo log 的策略。   目前有三种策略
image.png

策略一:最佳性能(innodb_flush_log_at_trx_commit=0)

每隔一秒 ,才将 Log Buffer 中的数据 批量 write OS cache 同时 MySQL 主动 fsync 这种策略,如果数据库奔溃,有一秒的数据丢失。   策略二:强一致 (innodb_flush_log_at_trx_commit =1 ) 每次 事务提交,都将 Log Buffer 中的数据 write OS cache 同时 MySQL 主动 fsync 这种策略,是InnoDB的默认配置,为的是保证事务ACID特性。   策略三:折衷 (innodb_flush_log_at_trx_commit =2 ) 每次 事务提交,都将 Log Buffer 中的数据 write OS cache 每隔一秒 ,MySQL主动将 OS cache 中的数据 批量 fsync 画外音:磁盘IO次数不确定,因为操作系统的fsync频率并不是MySQL能控制的。 这种策略,如果操作系统奔溃,最多有一秒的数据丢失。 画外音:因为OS也会fsync,MySQL主动fsync的周期是一秒,所以最多丢一秒数据。
image.png

讲了这么多,回到水友的提问上来,数据库崩溃,重启后丢失了数据,有很大的可能,是将innodb_flush_log_at_trx_commit参数设置为0了,这位水友最好和DBA一起检查一下InnoDB的配置。

  可能有水友要问,高并发的业务,InnoDB运用哪种刷盘策略最合适?
高并发业务,行业最佳实践,是使用第三种折衷配置
(=2) ,这是因为: (1)配置为2和配置为0, 性能差异并不大 ,因为将数据从 Log Buffer 拷贝到 OS cache ,虽然跨越用户态与内核态,但毕竟只是内存的数据拷贝,速度很快; (2)配置为2和配置为0, 安全性差异巨大 ,操作系统崩溃的概率相比MySQL应用程序崩溃的概率,小很多,设置为2,只要操作系统不奔溃,也绝对不会丢数据。

总结
一、为了保证事务的ACID特性,理论上每次事务提交都应该刷盘,但此时效率很低,有两种优化方向:
(1)随机写优化为顺序写;
(2)每次写优化为批量写;

二、
redo log 是一种顺序写,它有三层架构:
(1)MySQL应用层:
Log Buffer
(2)OS内核层:
OS cache
(3)OS文件:
log file

三、为了满足不用业务对于吞吐量与一致性的需求,MySQL事务提交时刷redo log有三种策略:
(1)0:每秒
write 一次 OS cache ,同时 fsync 刷磁盘,性能好;
(2)1:每次都
write OS cache ,同时 fsync 刷磁盘,一致性好;
(3)2:每次都
write OS cache ,每秒 fsync 刷磁盘,折衷;

四、高并发业务,行业内的最佳实践,是:
innodb_flush_log_at_trx_commit=2

知其然,知其所以然,希望大家有收获。

本文转自“架构师之路”公众号,58沈剑提供。

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
1月前
|
存储 监控 数据处理
flink 向doris 数据库写入数据时出现背压如何排查?
本文介绍了如何确定和解决Flink任务向Doris数据库写入数据时遇到的背压问题。首先通过Flink Web UI和性能指标监控识别背压,然后从Doris数据库性能、网络连接稳定性、Flink任务数据处理逻辑及资源配置等方面排查原因,并通过分析相关日志进一步定位问题。
176 61
|
2天前
|
存储 Java easyexcel
招行面试:100万级别数据的Excel,如何秒级导入到数据库?
本文由40岁老架构师尼恩撰写,分享了应对招商银行Java后端面试绝命12题的经验。文章详细介绍了如何通过系统化准备,在面试中展示强大的技术实力。针对百万级数据的Excel导入难题,尼恩推荐使用阿里巴巴开源的EasyExcel框架,并结合高性能分片读取、Disruptor队列缓冲和高并发批量写入的架构方案,实现高效的数据处理。此外,文章还提供了完整的代码示例和配置说明,帮助读者快速掌握相关技能。建议读者参考《尼恩Java面试宝典PDF》进行系统化刷题,提升面试竞争力。关注公众号【技术自由圈】可获取更多技术资源和指导。
|
5天前
|
前端开发 JavaScript 数据库
获取数据库中字段的数据作为下拉框选项
获取数据库中字段的数据作为下拉框选项
30 5
|
3天前
|
SQL 存储 Java
数据库———事务及bug的解决
事务的一些概念,并发事务以及并发事务引起的bug,脏读,不可重复读,幻读,数据库中的隔离级别,事务的简单应用
|
1月前
|
数据库连接 Linux Shell
Linux下ODBC与 南大通用GBase 8s数据库的无缝连接配置指南
本文详细介绍在Linux系统下配置GBase 8s数据库ODBC的过程,涵盖环境变量设置、ODBC配置文件编辑及连接测试等步骤。首先配置数据库环境变量如GBASEDBTDIR、PATH等,接着修改odbcinst.ini和odbc.ini文件,指定驱动路径、数据库名称等信息,最后通过catalog.c工具或isql命令验证ODBC连接是否成功。
|
1月前
|
关系型数据库 MySQL 数据库
GBase 数据库如何像MYSQL一样存放多行数据
GBase 数据库如何像MYSQL一样存放多行数据
|
1月前
|
消息中间件 资源调度 关系型数据库
如何在Flink on YARN环境中配置Debezium CDC 3.0,以实现实时捕获数据库变更事件并将其传输到Flink进行处理
本文介绍了如何在Flink on YARN环境中配置Debezium CDC 3.0,以实现实时捕获数据库变更事件并将其传输到Flink进行处理。主要内容包括安装Debezium、配置Kafka Connect、创建Flink任务以及启动任务的具体步骤,为构建实时数据管道提供了详细指导。
95 9
|
6天前
|
存储 Oracle 关系型数据库
数据库传奇:MySQL创世之父的两千金My、Maria
《数据库传奇:MySQL创世之父的两千金My、Maria》介绍了MySQL的发展历程及其分支MariaDB。MySQL由Michael Widenius等人于1994年创建,现归Oracle所有,广泛应用于阿里巴巴、腾讯等企业。2009年,Widenius因担心Oracle收购影响MySQL的开源性,创建了MariaDB,提供额外功能和改进。维基百科、Google等已逐步替换为MariaDB,以确保更好的性能和社区支持。掌握MariaDB作为备用方案,对未来发展至关重要。
23 3
|
6天前
|
安全 关系型数据库 MySQL
MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!
《MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!》介绍了MySQL中的三种关键日志:二进制日志(Binary Log)、重做日志(Redo Log)和撤销日志(Undo Log)。这些日志确保了数据库的ACID特性,即原子性、一致性、隔离性和持久性。Redo Log记录数据页的物理修改,保证事务持久性;Undo Log记录事务的逆操作,支持回滚和多版本并发控制(MVCC)。文章还详细对比了InnoDB和MyISAM存储引擎在事务支持、锁定机制、并发性等方面的差异,强调了InnoDB在高并发和事务处理中的优势。通过这些机制,MySQL能够在事务执行、崩溃和恢复过程中保持
28 3
|
6天前
|
SQL 关系型数据库 MySQL
数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog
《数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog》介绍了如何利用MySQL的二进制日志(Binlog)恢复误删除的数据。主要内容包括: 1. **启用二进制日志**:在`my.cnf`中配置`log-bin`并重启MySQL服务。 2. **查看二进制日志文件**:使用`SHOW VARIABLES LIKE 'log_%';`和`SHOW MASTER STATUS;`命令获取当前日志文件及位置。 3. **创建数据备份**:确保在恢复前已有备份,以防意外。 4. **导出二进制日志为SQL语句**:使用`mysqlbinlog`
33 2