Oracle Online Redo Log能否放在Flash闪存卡上?

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:

Flash 闪存卡的性能远超SAS 盘,所以在数据库中使用广泛。 但是online redo log 是否应该存放在闪存卡上一直是有争议的话题。今天由DBA+社群合肥发起人戴明明来谈一谈他通过理论和实际的实验去测试这个问题。

 

专家简介

  

 

20160628024509716.jpg
戴明明

DBA+社群合肥发起人

 

Oracle ACE Associate,中国 ORACLE 用户组(ACOUG) 核心成员,中国浙江应用中间件与数据库用户组成员。 超过7年的DBA经验,在Oracle 高可用性方面有一定的经验积累,擅长Oracle数据库诊断、性能调优,热衷于Oracle 技术的研究与分享。从2014年开始一直在研究基于PCIe 闪存卡的数据库解决方案。

 

 

 

 

1 Oracle 官方的建议

 

Alternative and Specialised Options as to How to Avoid Waiting for Redo Log Synchronization (文档 ID 857576.1)

 

在这篇MOS的文章中,提到如下一句话:

Also putting the SLOG on an SSD (Solid State Disk) will reduce redo log latency further.  This will help improve the performance of synchronous writes.

 

 

Oracle 建议把redo log 放在SSD上,这样可以减少延时,提升同步写的性能。

 

Troubleshooting: 'Log file sync' Waits (文档 ID 1376916.1)

 

在这篇MOS文章中,Oracle 的建议如下。

 

If the proportion of the 'log file sync' time spent on 'log file parallel write' times is high, then most of the wait time is due to IO (waiting for the redo to be written). The performance of  LGWR in terms of IO should be examined. As a rule of thumb, an average time for 'log file parallel write' over 20 milliseconds suggests a problem with IO subsystem.

 

 

Recommendations

 

  • Work with the system administrator to examine the filesystems where the redologs are located with a view to improving the performance of IO.

 

  • Do not place redo logfiles on a RAID configuration which requires the calculation of parity, such as RAID-5 or RAID-6.

 

  • Do not put redo logs on Solid State Disk (SSD)

     

    Although generally, Solid State Disks write performance is good on average, they may endure write peaks which will highly increase waits on 'log file sync'.

     

    (Exception to this would be for Engineered Systems (Exadata, SuperCluster and Oracle Database Appliance) which have been optimized to use SSDs for REDO)

 

  • Look for other processes that may be writing to that same location and ensure that the disks have sufficient bandwidth to cope with the required capacity. If they don't then move the activity or the redo.

 

  • Ensure that the log_buffer is not too big. A very large log_buffer can have an adverse affect  as waits will be longer when flushes occur. When the buffer fills up, it has to write all the data into the redo log file and the LGWR will wait until the last I/O is completed.

 

这里Oracle 不建议把redo log 放在SSD上,但也补充到,Exadata 系统的redo 是存放在SSD上的。

 

MOS上也提到如下一句:

 

Although generally, Solid State Disks write performance is good on average, they may endure write peaks which will highly increase waits on 'log file sync'.

 

 

Oracle 的意思是说SSD 写性能很好,但是可能某个时刻出现写高峰,从而导致更高的log file sync。 注意这里是may,是可能。

 

Flasn 闪存卡使用的Flash 介质有三种型号:SLC,MLC,TLC。  

 

民用级的SSD 采用的是MLC和TLC,而采用TLC,容量大,因受民用价钱的约束,民用级的SSD, OP值都比较低,一般在10%以内,当满盘写之后,性能会下降,并且写放大系数也会比企业级的SSD高,在这种情况下,确实可能出现oracle 说的may的可能性。

 

但企业级的PCIE Flash采用的是MLC,OP值可以达到27%,OP值高,写放大系数可以控制的更低,大的OP可以给闪存卡提供更好的性能。所以在这种情况下,不会出现oracle 说的write peaks。

 

 

2 4K Online Redo Log

 

在MOS 中,Troubleshooting: 'Log file sync' Waits (文档 ID 1376916.1)。 Oracle 提到XD 上redo log 是放在SSD盘的。然后有另外一篇MOS文章:

 

Using 4k Redo Logs on Flash and SSD-based Storage (文档 ID 1681266.1)

 

 

2.1扇区大小

 

 

现在的存储都支持4k的扇区,而上一代存储多采用512 bytes的扇区。 扇区即每次最小IO的大小。

 

4k 扇区有两种工作模式:native mode 和 emulation mode。

 

1)Native mode,即4k模式,物理和逻辑的block大小一样,都是4096 bytes。 但native mode 的缺点是需要操作系统和软件(如DB)的支持。  Oracle 从11gR2 之后,就支持4k IO操作,操作系统方面, Linux 内核在2.6.32 之后都支持4k IO操作。

 

2)emulation mode:也称512e。 在该模式下,物理块还是4k,但逻辑块是512 bytes。 这种模式主要是为了向后兼容。 但在该模式下,底层物理还是4k进行操作,所以就会导致Partial I/O 和4k 对齐的问题。

 

在emulation mode下,每次IO操作大小是512 bytes,底层存储平台的IO操作必须是4k大小,如果要读512 bytes的数据,实际需要读4k,是原来的8倍,这个就是partial IO。 另外在512 bytes 写的情况下,实际也是先读4k 的物理block,然后更新其中的512 bytes的数据,在把4k 写回去。 所以在emulation mode下,增加的工作会增加延时,降低性能。

 

在Oracle 数据库的文件中,默认情况下,datafile的block 是8KB,控制文件是16KB,所以都没有partial IO的问题,唯有online redo log,默认是512 bytes,存在partial IO的问题。

 

 

2.2Online Redo Logs

 

 

默认情况下,Oracle online redo log file 是512 bytes 的block size。 从Oracle 11gR2 开始,可以修改redo log 的Blocksize 为512,1024,4096。

 

如:alter database add logfile group 5 size 100m blocksize 4096;

 

当然,前提条件是底层的存储支持4k 扇区。 对于native mode 的存储,修改redo log block size 没有问题。 如果是emulation mode存储,物理上4k扇区,但逻辑上是512 bytes 扇区,那么修改就可能会触发如下错误:

 

ORA-01378: The logical block size (4096) of file +DATA is not compatible with the disk sector size (media sector size is 512 and host sector size is 512)

 

 

只要确认底层存储物理是4k的扇区,那么可以设置_disk_sector_size_override参数为true,来覆盖扇区的设置。该参数支持动态修改:

 

ALTER SYSTEM SET “_DISK_SECTOR_SIZE_OVERRIDE”=”TRUE”;

 

 

3 实际测试 

 

 

3.1测试环境

 

 

20160628024839689.jpg

20160628024853204.jpg

20160628024901404.jpg

 

测试工具: HAMMER DB

测试数据量: 5000个warehouse

--数据库: 12.1.0.2

 

20160628024909396.jpg

 

测试用的PDB是ANIQNG。

 

 

3.2Online redo log 存放在PCIE 闪存卡

 

 

3.2.1 查看online redo log

 

20160628024916384.jpg

 

3.2.2 先创建一个快照

 

SQL> execute dbms_workload_repository.create_snapshot();

 

3.2.3 TPCC 测试

 

20160628024927771.jpg

 

20160628024936439.jpg

 

 

在创建一个AWR 快照:

 

SQL> execute dbms_workload_repository.create_snapshot();

PL/SQL procedure successfully completed.

 

生成AWR 报告:

SQL>@?/rdbms/admin/awrrpt.sql

 

3.2.4 AWR 数据

 

我们这里只看2个部分:Load Profile 和 Top 10 Foreground Events by Total Wait Time

 

20160628024944542.jpg

 

20160628024953873.jpg

 

 

3.3Online redo log 存放在SAS硬盘

 

 

3.3.1 移动online redo log 到SAS盘

 

20160628024824823.png

 

3.3.2 先创建一个快照:

 

SQL> execute dbms_workload_repository.create_snapshot();

 

3.3.3 TPCC 测试

 

在之前同等的20个virtual 用户下,根本无法压到最大值:

 

20160628025132190.jpg

 

修改成120个virtual user:

 

20160628025008352.jpg

 

20160628025019644.jpg

 

在创建一个AWR 快照:

 

SQL> execute dbms_workload_repository.create_snapshot();

PL/SQL procedure successfully completed.

SQL> @?/rdbms/admin/awrrpt.sql

 

3.3.4 AWR 数据

 

20160628025152919.jpg

 

20160628025202607.jpg

 

 

3.4使用4k 的Redo log 并存放在PCIE 闪存卡

 

 

3.4.1 创建4k的online redo log

 

把redo log 迁移到PCIE SSD上,然后使用4k的blocksize。

 

20160628024745316.png

 

我们这里确实是4k的sector size。

 

20160628025211336.jpg

 

3.4.2 先创建一个快照:

 

SQL> execute dbms_workload_repository.create_snapshot();

 

3.4.3TPCC 测试

 

使用20个virtual 进行压测:

 

20160628025218244.jpg

 

20160628025226965.jpg

 

SQL> execute dbms_workload_repository.create_snapshot();

PL/SQL procedure successfully completed.

SQL> @?/rdbms/admin/awrrpt.sql

 

3.4.4 AWR 数据

 

20160628025233847.jpg

 

20160628025240358.jpg

 

4 三种测试方案的数据对比

 

测试压力的方法,就是把系统的CPU 压倒100%,看最大的TPM,最终对比数据如下表:

 

20160628025251238.jpg

从这个数据对比,可以看出,在使用SSD的情况下,log file sync占DB time的比率下降非常明显,从63.6% 到18.5%,性能也有明显的提升。 并且从测试结果看,在使用SAS 盘的情况下,TPM 波动更加明显,这个可以直接从Hammer DB的测试截图看出。

 

总结:根据实测数据,在Oracle 数据库下,使用4k 的online redo log 加企业级的PCIE Flash闪存卡可以明显提升系统的性能,而不用担心使用PCIE Flash对性能的不利影响。


本文来自云栖社区合作伙伴"DBAplus",原文发布时间:2015-12-09

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
6天前
|
存储 SQL Oracle
关系型数据库Oracle归档日志备份
【7月更文挑战第19天】
28 5
|
11天前
|
Oracle 关系型数据库 MySQL
实时计算 Flink版产品使用问题之在online模式下增量抓取Oracle数据时,在archive_log切换时,出现数据丢失的情况,是什么原因
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
19天前
|
Oracle 关系型数据库
oracle redo 最佳实践
oracle redo 最佳实践
20 0
|
1月前
|
SQL Oracle 关系型数据库
探索 Linux 命令 `db_archive`:Oracle 数据库归档日志的工具
探索 Linux 中的 `db_archive`,实际与 Oracle 数据库归档日志管理相关。在 Oracle 中,归档日志用于恢复,当在线重做日志满时自动归档。管理员可使用 SQL*Plus 查看归档模式,通过 `RMAN` 进行备份和恢复操作。管理归档日志需谨慎,避免数据丢失。了解归档管理对 Oracle 管理员至关重要,确保故障时能快速恢复数据库。
|
27天前
|
SQL DataWorks Oracle
DataWorks产品使用合集之datax解析oracle增量log日志该如何操作
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
21 0
|
2天前
|
Oracle 安全 关系型数据库
|
1天前
|
Oracle 关系型数据库 数据库
|
2天前
|
存储 Oracle 关系型数据库
|
3天前
|
存储 Oracle 关系型数据库
关系型数据库Oracle运行RMAN脚本
【7月更文挑战第23天】
12 4
|
5天前
|
存储 监控 Oracle
关系型数据库Oracle备份策略建议
【7月更文挑战第21天】
17 6

推荐镜像

更多