内存中OLTP(Hekaton)里的事务日志记录

本文涉及的产品
云数据库 RDS SQL Server,独享型 2核4GB
简介:

在今天的文章里,我想详细讨论下内存中OLTP里的事务日志如何写入事务日志。我们都知道,对于你的内存优化表(Memory Optimized Tables),内存中OLTP提供你2个持久性(durability)选项:

  • SCHEMA_ONLY
  • SCHEMA_AND_DATA

今天我不想更多讨论SCHEMA_ONLY,因为使用这个选项,在事务日志里没有发生任何日志(SQL Server 重启后你的数据会丢失)。今天我们会专门讲解下SCHEMA_AND_DATA选项的持久性。

SCHEMA_AND_DATA

使用SCHEMA_AND_DATA持久性选项,SQL Server必须记录你的事务到事务日志,因为每个内存中OLTP事务必须总是持久的。这个和传统基于硬盘表是一样的。但是内存中OLTP里写入事务日志比传统表更优化。内存中OLTP支持多个并发日志流(在SQL Server 2014里当前未实现),内存中OLTP只记录发生的逻辑事务(logical transaction)

逻辑事务是什么意思呢?假设你有5个非聚集索引定义的聚集表。如果你往表里插入1条记录,SQL Server必须记录插入到聚集索引,还有5个额外的插入非聚集索引。在你表上定义的非聚集索引越多,SQL Server需要的日志越多。而且SQL Server只能和事务日志一样快。

使用内存中OLTP事情就变了。内存中OLTP,SQL Server只记录在你事务里发生的逻辑修改。SQL Server对在你哈希或范围索引里的修改不记录。因此1条日志记录只描述发生的逻辑INSERT/UPDATE/DELETE语句。结果是,内存中OLTP写入更少的数据到你的事务日志,因此你的事务可以更快的提交。

我们来验证它!

我想用1个简单的例子向你展示下,当你首先插入10000条记录到传统基于硬盘表(Disk Based Table),然后插入内存优化表(Memory Optimized Table),SQL Server会有多少的数据写入你的事务日志。下列代码创建1个简单表,在while循环里插入10000条记录。然后我用sys.fn_dblog系统函数(未文档公开)来看事务日志。 

复制代码
 1 -- Create a Disk Based table
 2 CREATE TABLE TestTable_DiskBased
 3 (
 4     Col1 INT NOT NULL PRIMARY KEY,
 5     Col2 VARCHAR(100) NOT NULL INDEX idx_Col2 NONCLUSTERED,
 6     Col3 VARCHAR(100) NOT NULL
 7 )
 8 GO
 9 
10 -- Insert 10000 records into the table
11 DECLARE @i INT = 0
12 
13 BEGIN TRANSACTION
14 WHILE (@i < 10000)
15 BEGIN
16     INSERT INTO TestTable_DiskBased VALUES (@i, @i, @i)
17 
18     SET @i += 1 
19 END
20 COMMIT
21 GO
22 
23 -- SQL Server logged more than 20000 log records, because we have 2 indexes
24 -- defined on the table (Clustered Index, Non-Clustered Index)
25 SELECT * FROM sys.fn_dblog(NULL, NULL)
26 WHERE PartitionId IN
27 (
28     SELECT partition_id FROM sys.partitions
29     WHERE object_id = OBJECT_ID('TestTable_DiskBased')
30 )
31 GO
复制代码

从系统函数的输出你可以看到,你有比20000多一点的日志记录。这是正确的,因为我们在表上有2个索引定义(1个聚集索引,1个非聚集索引)。

现在我们来看下用内存优化表(Memory Optimized Table)日志记录有啥改变。下列代码展示了为内存中OLTP数据库必备工作:我们只加了1个新的内存优化文件组(Memory Optimized File Group),给它加了个容器:

复制代码
 1 --Add MEMORY_OPTIMIZED_DATA filegroup to the database.
 2 ALTER DATABASE InMemoryOLTP
 3 ADD FILEGROUP InMemoryOLTPFileGroup CONTAINS MEMORY_OPTIMIZED_DATA
 4 GO
 5 
 6 USE InMemoryOLTP
 7 GO
 8 
 9 -- Add a new file to the previously created file group
10 ALTER DATABASE InMemoryOLTP ADD FILE
11 (
12     NAME = N'InMemoryOLTPContainer', 
13     FILENAME = N'C:\Program Files\Microsoft SQL Server\MSSQL12.MSSQLSERVER\MSSQL\DATA\InMemoryOLTPContainer'
14 )
15 TO FILEGROUP [InMemoryOLTPFileGroup]
16 GO
复制代码

下一步我创建了1个新的内存优化表(Memory Optimized Table)。这里我在哈希索引上选择了16384的桶数来避免哈希碰撞(hash collisions)的可能。另外我在Col2和Col3列上创建了2个范围索引(Range Indexes)。

复制代码
 1 -- Creates a Memory Optimized table
 2 CREATE TABLE TestTable_MemoryOptimized
 3 (
 4     Col1 INT NOT NULL PRIMARY KEY NONCLUSTERED HASH WITH (BUCKET_COUNT = 16384),
 5     Col2 VARCHAR(100) COLLATE Latin1_General_100_Bin2 NOT NULL INDEX idx_Col2,
 6     Col3 VARCHAR(100) COLLATE Latin1_General_100_Bin2 NOT NULL INDEX idx_Col3
 7 ) WITH
 8 (
 9     MEMORY_OPTIMIZED = ON, 
10     DURABILITY = SCHEMA_AND_DATA
11 )
12 GO
复制代码

在那个表上合计有3个索引(1个哈希索引(Hash Index)和2个范围索引(Range Indexes))。当你往表里插入10000条记录,传统表会生成近30000的日志记录——每个索引里每个插入1条日志。

复制代码
 1 -- Copy out the highest 'Current LSN'
 2 SELECT * FROM sys.fn_dblog(NULL, NULL)
 3 GO
 4 
 5 -- Insert 10000 records into the table
 6 DECLARE @i INT = 0
 7 
 8 BEGIN TRANSACTION
 9 WHILE (@i < 10000)
10 BEGIN
11     INSERT INTO TestTable_MemoryOptimized VALUES (@i, @i, @i)
12 
13     SET @i += 1 
14 END
15 COMMIT
16 GO
17 
18 -- Just a few log records!
19 SELECT * FROM sys.fn_dblog(NULL, NULL)
20 WHERE [Current LSN] > '0000002f:000001c9:0032' -- Highest LSN from above
21 GO
复制代码

但现在当你看事务日志时,你会看到10000条插入只生成了很少日志记录——这里是17条!

 魔法发生在LOP_HK日志记录里。在这个特定日志记录里,内存中OLTP捆绑了多个修改到你的内存优化表(Memory Optimized Table)。你也可以通过使用sys.fn_dblog_xtp系统函数分解LOP_HK日志记录: 

1 -- Let's look into a LOP_HK log record
2 SELECT * FROM sys.fn_dblog_xtp(NULL, NULL)
3 WHERE [Current LSN] > '0000002f:000001c9:0032' AND Operation = 'LOP_HK'
4 GO

从图中你可以看到,内存中OLTP只生成了近10000条LOP_HK日志记录——在这个表上发生的每个逻辑插入对应1条记录。 

小结

内存中OLTP提供你惊艳的性能提升,因为它是基于全新原理,例如MVCC和Lock-Free Data Structrues。另外它只生成少量事务日志记录,因为只有逻辑改变被记录写入事务日志。我希望这个文章已给你更好的理解:内存中OLTP如何提升你的事务日志吞吐量。



本文转自Woodytu博客园博客,原文链接:http://www.cnblogs.com/woodytu/p/4716171.html,如需转载请自行联系原作者

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
4月前
|
缓存 关系型数据库 MySQL
MySQL Binlog--事务日志和BINLOG落盘参数对磁盘IO的影响
MySQL Binlog--事务日志和BINLOG落盘参数对磁盘IO的影响
44 0
|
4月前
|
存储 缓存 关系型数据库
认真学习MySQL的事务日志-Redo日志
认真学习MySQL的事务日志-Redo日志
44 0
|
4月前
|
监控 Java 数据库
Spring事务相关配置、案例:转账业务追加日志及事务传播行为
Spring事务相关配置、案例:转账业务追加日志及事务传播行为
46 0
|
4月前
|
消息中间件 分布式计算 Kafka
亿万级别Kafka演进之路:可靠性+事务+消息中间件+源码+日志
Kafka起初是由LinkedIn公司采用Scala语言开发的-一个多分区、多副本且基于ZooKeeper协调的分布式消息系统,现已被捐献给Apache基金会。目前Kafka已经定位为一个分布式流式处理平台,它以高吞吐、可持久化、可水平扩展、支持流数据处理等多种特性而被广泛使用。
|
1月前
|
存储 SQL 关系型数据库
[MySQL]事务原理之redo log,undo log
[MySQL]事务原理之redo log,undo log
|
1月前
|
SQL 缓存 关系型数据库
MySQL的万字总结(缓存,索引,Explain,事务,redo日志等)
MySQL的万字总结(缓存,索引,Explain,事务,redo日志等)
65 0
|
2月前
|
存储 监控 关系型数据库
MySQL Redo Log解密:事务故事的幕后英雄
MySQL Redo Log解密:事务故事的幕后英雄
25 0
|
7月前
|
SQL 关系型数据库 MySQL
数据库基本概念(SQL,索引,视图,事务,日志等)(二)
数据库基本概念(SQL,索引,视图,事务,日志等)(二)
194 0
|
3月前
|
存储 JSON 运维
【运维】Powershell 服务器系统管理信息总结(进程、线程、磁盘、内存、网络、CPU、持续运行时间、系统账户、日志事件)
【运维】Powershell 服务器系统管理信息总结(进程、线程、磁盘、内存、网络、CPU、持续运行时间、系统账户、日志事件)
49 0
|
4月前
|
存储 数据库 OceanBase
OceanBase数据库的磁盘配置包括数据盘和事务日志盘的大小
OceanBase数据库的磁盘配置包括数据盘和事务日志盘的大小
42 1

热门文章

最新文章