事务已提交,数据却丢了,赶紧检查下这个配置!!! | 数据库系列

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 有个星球水友提问:沈老师,我们有一次MySQL崩溃,重启后发现有些已经提交的事务对数据的修改丢失了,不是说事务能保证ACID特性么,想问下什么情况下可能导致“事务已经提交,数据却丢失”呢?

有个星球水友提问:沈老师,我们有一次MySQL崩溃,重启后发现有些已经提交的事务对数据的修改丢失了,不是说事务能保证ACID特性么,想问下什么情况下可能导致“事务已经提交,数据却丢失”呢? 这个问题有点复杂,且容我系统性梳理下思路,先从redo log说起吧。画外音:水友问的是MySQL,支持事务的是InnoDB,本文以InnoDB为例展开叙述,其他数据库不是很了解,但估计原理是相同的。 为什么要有redo log事务提交后,必须将事务对数据页的修改刷(fsync)到磁盘上,才能保证事务的ACID特性。 这个刷盘,是一个随机写,随机写性能较低,如果每次事务提交都刷盘,会极大影响数据库的性能 随机写性能差,有什么优化方法呢?架构设计中有两个常见的优化方法:(1)先写日志(write log first),将随机写优化为顺序写(2)将每次写优化为批量写这两个优化,数据库都用上了。 先说第一个优化,将对数据的修改先顺序写到日志里,这个日志就是redo log 假如某一时刻,数据库崩溃,还没来得及将数据页刷盘,数据库重启时,会重做redo log里的内容,以保证已提交事务对数据的影响被刷到磁盘上。 一句话,redo log是为了保证已提交事务的ACID特性,同时能够提高数据库性能的技术 既然redo log能保证事务的ACID特性,那为什么还会出现,水友提问中出现的“数据库奔溃,丢数据”的问题呢?一起看下redo log的实现细节。 redo log的三层架构?

image.png

花了一个丑图,简单说明下redo log的三层架构

  • 粉色,是InnoDB的一项很重要的内存结构(In-Memory Structure)日志缓冲区(Log Buffer),这一层,是MySQL应用程序用户态

  • 屎黄色,是操作系统的缓冲区(OS cache),这一层,是OS内核态

  • 蓝色,是落盘的日志文件

  redo log 最终落盘的步骤如何? 首先 ,事务提交的时候,会写入 Log Buffer ,这里调用的是MySQL自己的函数 WriteRedoLog   接着 ,只有当MySQL发起系统调用写文件 write 时, Log Buffer 里的数据,才会写到 OS cache 。注意,MySQL系统调用完 write 之后,就认为文件已经写完,如果不 flush ,什么时候落盘,是操作系统决定的; 画外音:有时候打日志,明明 printf 了, tail -f 却看不到,就是这个原因,这个细节在《明明打印到文件了,为啥tail -f看不到》一文里说过,此处不再展开。   最后 ,由操作系统(当然,MySQL也可以主动 flush )将 OS cache 里的数据,最终 fsync 到磁盘上;   操作系统为什么要缓冲数据到 OS cache 里,而不直接刷盘呢? 这里就是将“每次写”优化为“批量写”,以 提高操作系统性能   数据库为什么要缓冲数据到 Log Buffer 里,而不是直接 write 呢? 这也是“每次写”优化为“批量写”思路的体现,以 提高数据库性能 画外音:这个优化思路,非常常见,高并发的MQ落盘,高并发的业务数据落盘,都可以使用。   redo log 的三层架构,MySQL做了一次批量写优化,OS做了一次批量写优化,确实能极大提升性能,但有什么副作用吗? 画外音:有优点,必有缺点。   这个副作用,就是 可能丢失数据 (1)事务提交时,将 redo log 写入 Log Buffer ,就会认为事务提交成功;
(2)如果写入 Log Buffer 的数据, write OS cache 之前, 数据库崩溃 ,就会出现数据丢失;

(3)如果写入 OS cache 的数据, fsync 入磁盘之前, 操作系统奔溃 ,也可能出现数据丢失; 画外音:如上文所说,应用程序系统调用完 write 之后(不可能每次 write 后都立刻 flush ,这样写日志很蠢),就认为写成功了,操作系统何时 fsync ,应用程序并不知道,如果操作系统崩溃,数据可能丢失。   任何脱离业务的技术方案都是耍流氓: (1)有些业务允许低效,但不允许一丁点数据丢失; (2)有些业务必须高性能高吞吐,能够容忍少量数据丢失; MySQL是如何折衷的呢?   MySQL有一个参数: innodb_flush_log_at_trx_commit 能够控制事务提交时,刷 redo log 的策略。   目前有三种策略
image.png

策略一:最佳性能(innodb_flush_log_at_trx_commit=0)

每隔一秒 ,才将 Log Buffer 中的数据 批量 write OS cache 同时 MySQL 主动 fsync 这种策略,如果数据库奔溃,有一秒的数据丢失。   策略二:强一致 (innodb_flush_log_at_trx_commit =1 ) 每次 事务提交,都将 Log Buffer 中的数据 write OS cache 同时 MySQL 主动 fsync 这种策略,是InnoDB的默认配置,为的是保证事务ACID特性。   策略三:折衷 (innodb_flush_log_at_trx_commit =2 ) 每次 事务提交,都将 Log Buffer 中的数据 write OS cache 每隔一秒 ,MySQL主动将 OS cache 中的数据 批量 fsync 画外音:磁盘IO次数不确定,因为操作系统的fsync频率并不是MySQL能控制的。 这种策略,如果操作系统奔溃,最多有一秒的数据丢失。 画外音:因为OS也会fsync,MySQL主动fsync的周期是一秒,所以最多丢一秒数据。
image.png

讲了这么多,回到水友的提问上来,数据库崩溃,重启后丢失了数据,有很大的可能,是将innodb_flush_log_at_trx_commit参数设置为0了,这位水友最好和DBA一起检查一下InnoDB的配置。

  可能有水友要问,高并发的业务,InnoDB运用哪种刷盘策略最合适?
高并发业务,行业最佳实践,是使用第三种折衷配置
(=2) ,这是因为: (1)配置为2和配置为0, 性能差异并不大 ,因为将数据从 Log Buffer 拷贝到 OS cache ,虽然跨越用户态与内核态,但毕竟只是内存的数据拷贝,速度很快; (2)配置为2和配置为0, 安全性差异巨大 ,操作系统崩溃的概率相比MySQL应用程序崩溃的概率,小很多,设置为2,只要操作系统不奔溃,也绝对不会丢数据。

总结
一、为了保证事务的ACID特性,理论上每次事务提交都应该刷盘,但此时效率很低,有两种优化方向:
(1)随机写优化为顺序写;
(2)每次写优化为批量写;

二、
redo log 是一种顺序写,它有三层架构:
(1)MySQL应用层:
Log Buffer
(2)OS内核层:
OS cache
(3)OS文件:
log file

三、为了满足不用业务对于吞吐量与一致性的需求,MySQL事务提交时刷redo log有三种策略:
(1)0:每秒
write 一次 OS cache ,同时 fsync 刷磁盘,性能好;
(2)1:每次都
write OS cache ,同时 fsync 刷磁盘,一致性好;
(3)2:每次都
write OS cache ,每秒 fsync 刷磁盘,折衷;

四、高并发业务,行业内的最佳实践,是:
innodb_flush_log_at_trx_commit=2

知其然,知其所以然,希望大家有收获。

本文转自“架构师之路”公众号,58沈剑提供。

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
17小时前
|
SQL 关系型数据库 数据库
实时计算 Flink版产品使用问题之如何同步一个数据库的数据转换到另一个库
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
17小时前
|
Oracle 关系型数据库 数据库
实时计算 Flink版产品使用问题之连接到Oracle数据库但无法读取到数据,是什么导致的
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
1天前
|
SQL 关系型数据库 MySQL
MySQL数据库——事务操作-begin-commit-rollback
MySQL数据库——事务操作-begin-commit-rollback
6 1
|
1天前
|
SQL 关系型数据库 MySQL
MySQL数据库子查询练习——单个数据的子查询
MySQL数据库子查询练习——单个数据的子查询
7 1
|
5天前
|
SQL 安全 数据库
数据库||数据定义
数据库||数据定义
|
5天前
|
缓存 运维 Serverless
Serverless 应用引擎产品使用合集之基于django应用模板创建的FC,如何配置数据库
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
|
5天前
|
SQL 存储 数据管理
数据管理DMS产品使用合集之如何把整个数据库的表和数据全部导出来
阿里云数据管理DMS提供了全面的数据管理、数据库运维、数据安全、数据迁移与同步等功能,助力企业高效、安全地进行数据库管理和运维工作。以下是DMS产品使用合集的详细介绍。
|
6天前
|
存储 SQL 关系型数据库
使用关系型数据库三级模式存储数据的优缺点
【6月更文挑战第10天】数据模型是DBMS的核心,提供数据透明性和设计指导。包括概念、逻辑和物理三层:概念模型(如ER模型)用于理解和收集需求,逻辑模型(如关系模型)关注设计,物理模型涉及实际存储实现。
11 0
使用关系型数据库三级模式存储数据的优缺点
|
8天前
|
分布式计算 DataWorks 关系型数据库
MaxCompute产品使用合集之DataWorks是否支持通过SQL方式在MaxCompute中查询数据,并通过数据集成服务将查询结果同步至MySQL数据库
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
9天前
|
SQL 关系型数据库 MySQL
MySQL数据库——视图-检查选项(cascaded、local)
MySQL数据库——视图-检查选项(cascaded、local)
11 0