redo log buffer小结

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 整理自《OCA/OCP认证考试指南》 001     日志重做缓冲区是小型的、用于短期存储将写入到磁盘上的重做日志的变更向量的临时区域。“变更向量”是应用于某些对象的修改,执行DML语句会生成应用于数据的变更向量。
整理自《OCA/OCP认证考试指南
001
    日志重做缓冲区是小型的、用于短期存储将写入到磁盘上的重做日志的变更向量的临时区域。“变更向量”是应用于某些对象的修改,执行DML语句会生成应用于数据的变更向量。有了重做日志,数据库就可以确保数据永不丢失:每当数据块发生更改时,都会将应用于块的变更向量写到重做日志,如果需要还原数据文件,则通过重做日志,可以将变更向量提取并应用于数据文件备份。

002
     会话服务器进程不将重做记录直接写入重做日志文件,否则,每当执行DML语句时,会话将不得不等待磁盘I/O操作完成。相反,会话将重做记录写入到内存中的redo log buffer。这样做的速度将远比写入磁盘快。此后,日志缓冲区(可能包含交替的多个会话的变更向量)写出到联机重做日志文件。因此,redo log buffer对磁盘的一次写入是来自多个事务的一批变更向量。即使如此,redo log buffer中的变更向量也是接近实时地写入磁盘,当会话发出commit语句时,会实时执行redo log buffer写操作。写操作由日志写入器后台进程(LGWR)完成。

003
    与其它内存结构相比,redo log buffer较小,因为它是一个 非常短暂的存储区域。将变更向量插入其中,并几乎实时地使其流向磁盘。redo log buffer最多不必超过数MB。的确,如果将其设置为大于默认值,就会对性能产生极坏的影响。默认值由Oracle服务器确定,而且取决于服务器节点中的CPU数量。

004 redo log buffer的大小设置
     不可设置小于默认值的日志缓冲区。如果尝试这么做,则日志缓冲区一定会被设置为默认大小。可以创建一个大于默认值的缓冲区,但通常不提倡这样做。问题在于,当发出commit语句时,一部分提交处理涉及将redo log buffer内容写入磁盘上的联机重做日志文件。写操作实时执行,在其进行过程中,发出commit语句的会话将挂起。提交处理是Oracle体系结构的关键部分。要确保提交的事务永不丢失,那么,在缓存中的数据块发生更改(意味着事务已完成)而且将变更向量写入磁盘上的重做日志(如有必要,可以恢复事务)前,不能将完成提交的消息返回给会话。大日志缓冲区意味着:在发出commit语句时,需要写入的内容更多,在发出完成提交消息以及会话恢复工作之前,需要耗费更长的时间。
    注意:就某些应用程序而言,有必要将日志缓冲区大小设置为高于默认值,但通常使用默认日志缓冲区开始调整。

005 redo log buffer相关瓶颈
    日志缓冲区在启动实例时分配,如果不重新启动实例,就不能在随后调整其大小。它是一个循环缓冲区。在服务器进程向其中写入变更向量时,当前的写地址会来回移动。日志写入器进程以批处理方式写出向量,此时,其占用的空间将变得可用,并可由更多的变更向量覆盖。在活动高峰时刻,变更向量的生成速度可能高于日志写入器进程的写出速度。如果发生这种情况,在日志写入器清理缓冲区时,所有的DML活动都将停止数毫秒。
    在Oracle体系结构中,将日志缓冲区转储到磁盘是基本瓶颈之一。DML的速度不能超过LGWR将变更向量转储到联机重做日志文件的速度。
    提示:如果重做生成是限制数据库性能的因素,唯一的选项是使用RAC。在RAC数据库中,每个实例都有自己的日志缓冲区和自己的LGWR。这是将重做数据并行写入磁盘的唯一方法。

006 考点
    日志缓冲区的大小固定不变,在启动实例时被设置为固定值。无法对其进行自动管理。

007 整理
    redo log buffer的作用是啥?buffer是啥?buffer是缓冲区。缓冲区用来做什么的?缓冲区用来提速的。所以,redo log buffer的存在的目的肯定也是用来提速的。根据buffer的前缀redo log来推断,这个提速应该是用在redo log相关的东西上。那么具体怎么提速?
    首先,既然有提速,那么肯定存在慢的地方。慢的地方在哪里?从字面意思来看,redo log buffer和联机重做日志有关,而联机重做日志是由log buffer写入到磁盘中的,也就是说,如果日志不经过redo log buffer,速度比经过redo log buffer慢。
    具体的说,redo里面记录的是“变更向量”,也就是应用于某些对象的修改的整个记录。通过重做日志还原数据文件,就是将日志里的变更向量提取出来,应用于数据文件。每次执行DML语句,就会产生变更向量,也就是所谓的重做记录,如果不经过redo log buffer,那每次必须等到服务器进程把重做记录写到磁盘才能进行真正的块修改。
    所以这就是redo log buffer的意义所在,将变更向量先暂时寄存在redo log buffer中,然后通过redo log buffer再写到磁盘中,而不是直接写到磁盘中。也就是说,将重做记录写到redo log buffer替代了将重做记录直接写入磁盘的日志文件。
    至于为什么这样会提速。是因为CPU和硬盘两者处理数据的速率差距太大,硬盘根本跟不上CPU的处理速率。缓冲区的处理数据的速度比cpu慢,比磁盘快,在计算机里,数据在两个部件之间I/O速度由慢的那个部件来确定。比如由cpu向磁盘写重做记录,那必须按照磁盘能够接受的速度,而不是cpu的速度来传输。所以cpu把数据传输给内存,这个速度比直接把数据给磁盘快多了,但是内存到磁盘的速度,依然还是只能按照磁盘的来;但是因为重做记录数据量小,重做记录写入磁盘是实时或者几乎实时写入的。
    将重做记录直接写入硬盘的结果就是始终按照硬盘的速度来处理数据,这样一来,重做记录不写好,用户那边就没法得到事务提交成功的反馈,而且重做记录生成的速率会比重做记录写到磁盘的速率快得多,然后导致一系列的后续恶果,整个数据库就没法高效运行了。
    和redo log buffer相关的另一个问题是redo log buffer大小的设置。在这之前先简要 描述一个“快速提交”机制。当遇到需要大量修改块的事务时,当客户端发出commit命令时,几乎会瞬间响应,提示你事务已提交完成。这里事务已提交完成并不见得是所有修改的块——脏块真的全部都刷到磁盘,而是指关于这个事务的所有重做记录都已经刷到磁盘的online redo log里面了。
    那么问题来了,如果redo log buffer的大小设置的比较大,会出现什么情况?
    在发出commit语句的时候,在redo log buffer中相关的重做记录就要刷到磁盘的redo去,在刷立志,哦不,是日志这个过程中,发出commit语句的会话会被挂起。要确保提交的事务永不丢失,那么在缓存中的数据块发生更改而且将变更向量写入磁盘上的redo前,不能将提交完成的消息返回给会话。执行的时间客户端是感受不到也不需要知道的。客户只要知道他所做的更改生效就行。
    所以问题就是:大的redo log buffer意味着:在发出commit语句时,需要写入的内容更多,在发出提交完成的消息以及会话恢复正常工作之前,需要比合适大小的log buffer耗费更长的时间。
    补充一点,如果DML语句生成重做的速度比LGWR将变更向量写到磁盘的redo中的速度更快的话,DML活动就会停止一段时间,因为log buffer里面已经没有空闲空间了,必须等LGWR来清理一些可用空间来。
    所以,将redo log buffer里的变更向量转储到磁盘的redo中是数据库性能的一个基本瓶颈。解决这个瓶颈的办法有上好存储,或者使用RAC,扩大redo log buffer不是好主意,会造成之前说的提交延迟的毛病。
    redo log buffer在数据库中对应的参数是log_buffer,修改redo log buffer的大小单位只能默认为字节,k,m,g都是不行的,例如:
    ALTER SYSTEM SET log_buffer = 65536 scope=spfile;

相关的等待事件:
logbuffer allocate: 等待分配log buffer的时间
redo copy: 写入redo file的时间
出现这些等待事件不代表有问题,但是allocate等待事件过多,就代表着log buffer确实不够用了,redo copy时间过长则代表lgwr的数目不足, 或者磁盘写入效率过低; 快速提交实现的原理也就是写入log而不是真正的修改数据块, 数据块被改变的时候是我们执行sql的时候,那个时间是真真正正的修改数据块的时间 , 其实真正数据的修改速度是没有被提升的, 只不过commit的时间缩短了
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
6天前
|
SQL 存储 关系型数据库
美团面试:binlog、redo log、undo log的底层原理是什么?它们分别实现ACID的哪个特性?
老架构师尼恩在其读者交流群中分享了关于 MySQL 中 redo log、undo log 和 binlog 的面试题及其答案。这些问题涵盖了事务的 ACID 特性、日志的一致性问题、SQL 语句的执行流程等。尼恩详细解释了这些日志的作用、所在架构层级、日志形式、缓存机制以及写文件方式等内容。他还提供了多个面试题的详细解答,帮助读者系统化地掌握这些知识点,提升面试表现。此外,尼恩还推荐了《尼恩Java面试宝典PDF》和其他技术圣经系列PDF,帮助读者进一步巩固知识,实现“offer自由”。
美团面试:binlog、redo log、undo log的底层原理是什么?它们分别实现ACID的哪个特性?
|
13天前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1576 12
|
27天前
|
存储 缓存 关系型数据库
redo log 原理解析
redo log 原理解析
29 0
redo log 原理解析
|
2月前
|
API C# 开发框架
WPF与Web服务集成大揭秘:手把手教你调用RESTful API,客户端与服务器端优劣对比全解析!
【8月更文挑战第31天】在现代软件开发中,WPF 和 Web 服务各具特色。WPF 以其出色的界面展示能力受到欢迎,而 Web 服务则凭借跨平台和易维护性在互联网应用中占有一席之地。本文探讨了 WPF 如何通过 HttpClient 类调用 RESTful API,并展示了基于 ASP.NET Core 的 Web 服务如何实现同样的功能。通过对比分析,揭示了两者各自的优缺点:WPF 客户端直接处理数据,减轻服务器负担,但需处理网络异常;Web 服务则能利用服务器端功能如缓存和权限验证,但可能增加服务器负载。希望本文能帮助开发者根据具体需求选择合适的技术方案。
96 0
|
2月前
|
存储 关系型数据库 MySQL
深入MySQL:事务日志redo log详解与实践
【8月更文挑战第24天】在MySQL的InnoDB存储引擎中,为确保事务的持久性和数据一致性,采用了redo log(重做日志)机制。redo log记录了所有数据修改,在系统崩溃后可通过它恢复未完成的事务。它由内存中的redo log buffer和磁盘上的redo log file组成。事务修改先写入buffer,再异步刷新至磁盘,最后提交事务。若系统崩溃,InnoDB通过redo log重放已提交事务并利用undo log回滚未提交事务,确保数据完整。理解redo log工作流程有助于优化数据库性能和确保数据安全。
391 0
|
3月前
|
关系型数据库 分布式数据库 数据库
PolarDB产品使用问题之如何设置Redo日志保存时间
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
4月前
|
存储 关系型数据库 MySQL
|
12天前
|
XML JSON Java
Logback 与 log4j2 性能对比:谁才是日志框架的性能王者?
【10月更文挑战第5天】在Java开发中,日志框架是不可或缺的工具,它们帮助我们记录系统运行时的信息、警告和错误,对于开发人员来说至关重要。在众多日志框架中,Logback和log4j2以其卓越的性能和丰富的功能脱颖而出,成为开发者们的首选。本文将深入探讨Logback与log4j2在性能方面的对比,通过详细的分析和实例,帮助大家理解两者之间的性能差异,以便在实际项目中做出更明智的选择。
87 3
|
2月前
|
Kubernetes Ubuntu Windows
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
110 3
|
8天前
|
Python
log日志学习
【10月更文挑战第9天】 python处理log打印模块log的使用和介绍
15 0