引言
现下,大型高性能数据库通常采用一写(主)多读(副本)这种标准部署方式来提高业务吞吐量。。然而,单主会导致单点故障,同时限制了写扩展性,也就是说带来了可用性和性能的双重挑战。而性能和可用性是衡量一个企业级数据库是否优秀最关键的两个方面。由此多主数据库应运而生。
多主数据库有 Shared-nothing 和 Shared-storage 两种架构。谷歌 Spanner、亚马逊 DynamoDB、CockroachDB、OceanBase 及其他一些数据库采用了 Shared-nothing 架构。亚马逊 Aurora 多主数据库、Oracle RAC 和 IBM DB2 pureScale 采用了 Shared-storage 架构。
对于 Shared-nothing 架构的多主,每个节点对一个小数据子集执行计算和存储。在高度分区的工作负载场景下,这类架构可以提供非常高的可扩展性。但在如下不均衡的工作负载场景中,其优势受限 —— 节点数越多可能意味着节点间数据交换越多:
数据无明显分区特征;
工作负载随时间变化;
存在热点数据场景。
同时,Shared-nothing 架构使用分布式提交协议,信息同步多轮交换,降低了多主系统的性能。
对于传统的 Shared-storage 架构,计算层与存储层分离。这类架构由于其高度集成及密集网络通信的特点,需要高端和专用的网络硬件,更适用于对成本不敏感的线下数据中心部署,不适用于云原生数据库。云的最核心特点是通过多用户共享基础设施平摊成本(包括网络硬件)来实现高成本收益。
云数据库性能的关键是对共享网络的优化。华为云数据库多主(Multi-Master)专注于从消息的数量和大小两方面减少网络流量,这一目标的达成并不容易,很多公司尝试过,但目前还没有看到成功案例。
华为云数据库多主黑科技解析
那究竟如何实现多主上云呢?华为云数据库多主有哪些硬核技术突破呢?
通过对网络流量消耗进行分析和归类后,我们发现主要的网络消耗是由于主节点写页面、时钟同步和锁信息交互三个方面。华为云数据库在如上三个方面进行了探索和尝试,并取得了可喜成绩。下面详细讨论在每类开销上,华为云数据库是如何尽最大可能减少网络计算开销的。
减少直接页面写入带来的网络消耗
此问题已有解决方案 ——2020 年 SIGMOD 会议上我们向会议研究团体介绍了华为云原生数据库单主解决方案:“Log As Database”(日志即数据库)。
简单说就是华为云数据库计算与存储分离,计算层包含一写(主)多读(副本)。计算层的作用是执行数据库的修改,主要功能有:接入连接、执行查询、管理事务以及生成 WAL 日志记录(日志用于描述对数据库页所做的修改)。事务更新时先生成日志记录,主节点将这些日志记录传送到存储层的 Log Stores 中进行存储,通过日志回放生成数据,从而无需通过网络执行整个数据页面的写入,节省了所需的网络带宽。详细见图 1。
图 1:华为云数据库组件及分层架构
cke_114.png
华为云数据库多主重用了一主多读架构中的思想,采用 Shared-storage 体系结构,所有 Master 之间共享日志存储和页面存储,继续沿用悲观并发控制,且引入了全局锁管理器 GLM(Global Lock Manager)。
各 Master 维护自己的预写日志(WAL)。用户事务在单主上执行 —— 没有分布式事务。日志记录写入执行事务的主机中。每个 Master 会定期将带有位置信息标识(哪个 Master 生成的)的新生成日志提交给所有其他 Master。通过位置信息,各 Master 读取其他所有 Master 上生成的日志记录,并更新进自己的缓冲池页面中。详细如图 2 所示。
图 2:华为云数据库多主组件及分层架构
cke_115.png
减少时钟同步带来的网络消耗
多主数据库特有的第二个网络开销来源是时钟同步。在单主数据库上,事务时钟信息可以直接使用本地物理时钟。然而,在分布式系统中,不同节点上的物理时钟很难精确保持一致。而通过网络连接同步和获取时间戳,会带来无法容忍的时间延迟。因此,对于分布式数据库物理时钟这种方法不再适用。
这在业界不是一个新近才提出的问题。早在 20 世纪 70 年代,莱斯利・兰伯特就为了解决此问题,提出并发明了标量时钟(常称为逻辑时钟,或兰伯特时钟)。此标量时钟由一个数字组成时间戳,仅在消息交换期间进行不同计算机间的时钟同步。兰伯特时钟的算法简单而优雅,但要通过它创建数据库的分布式快照基本不可能,而分布式快照对分布式数据库的性能又是非常重要的。同时,逻辑时钟无法保存事务间的因果关系。简单说,就是假设𝑇𝑆 (𝑎) < 𝑇𝑆 (𝑏),也就是事务 a 早于事务 b,使用逻辑时钟,无法识别是 a 导致了 b,还是 a 和 b 间仅是并发无因果关系。
逻辑时钟之后又出现了矢量时钟,用于解决逻辑时钟的局限性。然而,虽然矢量时钟能够创建分布式快照,但是,矢量时钟有一个很大的缺点 —— 加大了消息的大小。数据库之间的消息本来很小,矢量时间戳的加入使消息的大小增大为原来的两至三倍,从而加大了网络开销。
华为云数据库团队发明了一种新型的时钟 ——VS 时钟(VECTOR-SCALAR CLOCKS)。其关键的创新是,它既可以产生矢量时间戳,又可以产生标量时间戳,实现优势互补。VS 时钟的应用,既达成了较小的网络消耗又保证了数据库全局快照的创建能力。例如,由于每个节点对同一页面的修改必须是串行的,无需关注因果(先后)关系,因此对单个页面修改的日志记录添加时间戳时,发放标量时间戳即可;当为全局快照的创建发放时间戳时,需要使用完整的矢量时间戳以便理清各主节点事务间的先后关系。由于全局快照这一类事件的数量级远小于日志记录,故而全局快照矢量时间戳所带来的空间开销可以忽略不计。
优化锁协议减少网络消耗
多主数据库的第三个主要网络开销是锁信息交互带来的开销。
对数据库的某些更改需要被视为原子更改,例如对内部数据库页的修改,或事务对记录行的修改。通常,数据库使用锁来实现原子性。通过观察我们得到一个重要结论:鉴于所有行都是存储在页面上的,因此要修改或读取对应行,就意味着必须修改或读取此行所在的页面。
由此,我们提出了,对于数据库最底层的行页混合锁定,行锁信息不再作为单独的消息进行传递,而是作为页锁的一部分来传递。这种方案,会将锁信息的数量显著减少,从而进一步降低了网络负载。
数据库系统的行锁类型有:(普通)共享和独占行锁、间隙锁、next-key 锁和意向锁,在华为云数据库多主中讨论的 “行锁” 包括了所有这些类型的锁。行锁可以以不同的方式管理,我们在分析和对比了下面的三种不同方法后,选择了行锁跟随页锁的方法。
GLM 管理行锁:让全局锁管理器 GLM 同时管理页锁和行锁。这种方法每次行锁获取时都需要走 GLM,因而会增加网络负载。DB2 pureScale 采用了这种方法,并进行了各种优化。GLM 管理行锁的方案,网络流量很高,即使在工作负载大部分是分区的场景下,也依然很高;此外,GLM 还必须要能支持底层系统使用的所有行锁类型及这些锁之间的复杂交互。
在页面上存储行锁:将页面的行锁信息存储在本身所在的页面上。Oracle RAC 采用这种方法。华为云数据库未采用这种方法,有两个原因:1) 它需要将行锁获取 / 释放记录写入日志,从而增加了网络负载;2) 它需要更改磁盘上的页面格式,华为云数据库由单主升级到多主时必须做这种数据库格式转换,将损失华为云数据库的原有优势。
行锁跟随页锁:当 Master 获取页面锁时,一并获取该页面上的行锁列表,包括持有的锁和挂起的锁请求。之后,Master 可以在页面上授予额外的行锁,当然前提是这些行锁要与其页锁兼容。当 Master 向 GLM 释放页锁时,同时会将页面上当前行锁的信息发送给 GLM。需要说明的是,锁请求挂起的信息虽不是很关键,但它对 GLM 和 Master 上的锁调度决策很有用,因此也会传递给 GLM。华为云数据库最终选择了这种方法。
在华为云数据库中,GLM 只管理页锁,不授予或释放行锁,但页锁信息中跟随有行锁信息。GLM 将页面上的锁授予 Master 时,会将页的版本号(如果有)发给 Master,从而该 Master 将拥有页的最新版本,以及页上的行锁列表。接收了页锁的 Master 会将行锁信息添加到其本地锁管理器 LLM 中。当 Master 释放页锁(自愿或响应请求)时,它向 GLM 递交页面版本号和页面上的行锁列表。
在不涉及数据一致性的前提下,Master 上的行锁更改不需要立即与其他 Master 同步。除非另外的 Master 要请求锁定的页面与当前 Master 是有锁冲突的同一个页面。这种情况下页锁释放和回收流程将被启用,行锁信息被一并发送到 GLM,将很好地避免行锁授予或等待时频繁联系 GLM,可以显著减少行锁网络流量。以下是更详细的流程:
・释放页锁时(自愿或被动响应回收):
–Master 上:有关页面上所有行锁的信息将发送到 GLM。
–GLM 上:接收到的行锁信息缓存在内存中。
・请求和授予页锁时:
–Master 上:为了响应本地事务的行锁请求,Master 必须持有行所在页上的锁。如果 Master 没有拿到所需的页锁,它会首先向 GLM 发送页锁请求。
–GLM 上:当页面锁请求到达时,GLM 会判断同一页面是否有其他冲突锁或者挂起的其他 Master 锁请求,如果有,新的 Master 所请求需要等待。当 GLM 准备好授予页锁时,它首先回收页面上的冲突锁(如果有),并捕获新接收到的行锁信息;之后将页面锁授予 Master,并将响应消息、行锁信息及页面的最新版本号一并发给 Master。
–Master 上:收到页锁授权响应消息后,将行锁信息添加到 LLM(Local Lock Manager)中,并刷新页面版本号。本地事务再次尝试后可以成功获取所需的行锁。
华为云数据库多主架构效果验证。
我们首先测试了华为云数据库多主架构自身的性能和可扩展性。同时,我们将华为云数据库多主与亚马逊的 Aurora 多主(我们所知的唯一一个云原生 Shared-storage 数据库)进行了对比。最后,我们还将华为云数据库多主与 Shared-nothing 架构的 CockroachDB 进行了对比。
测试环境说明
实验验证运行在一个最多 8 个主节点的集群上,并在 4 个具有相同硬件配置的节点上部署了存储层(数据存储和日志存储)。详细见表 1。
表 1:测试环境规格
配置项
规格
说明
集群规模
4 存储节点 & 最多 8 个主节点
存储节点和主节点的硬件配置相同。
CPU
Intel Xeon Gold 6278C 2.6GHz CPU 28 核 * 2
在每个节点上,主 Master 独用一个 CPU,工作负载驱动程序使用第二个 CPU。
操作系统
CentOS 7.0
-
Buffer Pool
128GB
-
网络
25Gbps
-
在所有实验中均使用了两个标准工作负载:Sysbench 和 Percona TPC-C。
Sysbench 是一个流行的基准测试,它可以生成插入、删除、更新、点查、范围查询及这些类型的各种组合。我们扩展了 Sysbench,以便控制数据共享的程度。
在一个由 N 个主节点组成的集群上,实验将表逻辑上分为 N+1 组。前 N 组中的表是私有表,即每个组被分配给一个单独的主节点,只有指定的主节点可以访问对应组中的表。最后一个组是共享的,即任何主节点都可以访问此组中的表。
当实验指定共享程度为 X% 时,表示 X% 的数据库读写访问是针对共享表进行的,其余的读写访问是针对私有表进行的。完全分区的工作负载对应于 X=0%,完全共享的工作负载对应于 X=100%。实验设置中,对于共享工作负载场景,每个组包括 100 个表,每个主节点访问 100 个私有表以及 100 个共享表。对于完全分区的工作负载,每个组包含 200 个完全分区的表。每个表有 2.35M 行数据,每行约 200 字节, 因此对于所有的实验,每个主节点都可以访问约 100GB 的数据。
TPC-C 是评估 OLTP 系统性能的行业标准性基准。数据按仓库跨主节点分区,但 10% 的事务访问了远程的数据分区。除非另有说明,我们使用的是 1000 个仓库配置。
华为云数据库多主性能测试结果
华为云数据库多主在 Sysbench 只写、Sysbench 读写(80% 读取,20% 写入)和 TPC-C 基准测试上的性能表现如图 3 所示,3 (a-c)。
在 X 轴上,集群大小从 1 个主节点到 8 个主节点。
在 Y 轴上,显示了绝对吞吐量以及相对于单个主节点的吞吐量。
Sysbench 测试结果的每条线对应不同程度的数据共享。TPC-C 使用的是固定的 10% 共享查询。
对于只读工作负载,由于多版本的存在,其可以完美地扩展,因此这里略去不显示
从图中可以看出,对于完全分区的工作负载,随着主节点数量的增加其性能几乎线性扩展。8 个主节点集群规模下,10% 共享的 Sysbench 只写和读写场景,相较单个主节点,分别实现了 3.5 倍、4.5 倍的加速; TPC-C 工作负载下,相较单个主节点,实现了 5 倍的加速。
正如预期的一样,可扩展性受数据共享程度的影响较大。同样 8 个主节点集群上,30% 共享负载下的只写和 50% 共享负载下的读写,相较单个主节点,均实现了不到 2 倍的加速。
由于可用的硬件有限,我们未验证 16 个主节点集群的结果,但从图中不难看出,8 个主节点的可扩展性已接近线性。
图 3. 华为云数据库多主 Sysbench 和 TPC-C 性能测试结果
cke_116.png
与 Aurora 多主的性能对比
图 4 对比了基于相同 CPU 核数和内存缓冲池情况下华为云数据库多主和 Aurora 多主的性能。在所有测试中,我们观察到单主情况下,华为云数据库的性能超过了 Aurora。由于 Aurora 多主除了计算层之外,未暴露其他硬件细节,因此我们只测试对比了各自相对于其单主的性能数据。鉴于 Aurora 不允许超过 4 个主节点,因此 8 个主节点性能测试仅在华为云数据库多主上进行。对于完全分区的工作负载,两个数据库的扩展几乎相同,故测试时省略了不同分区负载的差异对比,而是选取了具有代表性的 10% 共享负载做性能对比测试。在此较小的共享负载场景下,华为云数据库处理工作负载的能力要好得多。在共享写入工作负载场景下,我们发现 Aurora 中所有主节点上存在大量因冲突导致的被中止事务,从而带来主节点之间的性能不均衡。华为云数据库的多主由于其基于混合行页锁的并发控制,未发生任何事务中止。
图 4 华为云数据库多主 VS Aurora 多主
cke_117.png
与 CockroachDB 的性能对比
我们还将华为云数据库多主与基于 Shared-nothing 架构的 CockroachDB(简称 CRDB)进行了比较。之所以选择 CRDB,是因为它是开源的,且根据相关报告分析,其性能比 Spanner 和 TiDB 更好。
实验使用两种配置规格,即分别将 CRDB 和华为云数据库部署在相同的 6 节点和 12 节点集群上,从而比较相同硬件条件下双方的性能。
由于华为云数据库专门使用 4 个节点用于存储层,而 CRDB 为 Shared-nothing 架构,每个节点上既有计算层又有存储层,因此将 6 个和 12 个节点 CRDB 分别与 2 个主节点和 8 个主节点的华为云数据库多主进行了比较。
对于 CRDB 和华为云数据库多主,实验时使用了尽可能大的连接数来提高吞吐量。对于华为云数据库多主来说,每个主节点上的连接数为 64 个;对于 CRDB,每个主节点上的连接数从 128 到 512 不等。
在 CRDB 上,我们运行了 CRDB 附带的类似 TPC-C 的基准测试。对于华为云数据库多主,我们运行了 Percona TPC-C。在表 2 中列出了 1000 和 5000 个仓库的结果。对于每次运行,我们记录了每秒可处理的新订单事务数(tpmC)、事务平均请求时延和 95% 事务的请求时延。在所有测试场景下:
华为云数据库多主吞吐量都明显更高,从 6 节点、5000 个仓库的吞吐量高出 60%,到 12 个节点、1000 个仓库的吞吐量高出 320%。
华为云数据库双主的交易延迟也要低得多,平均请求时延和 95% 事务的请求时延均低得多。
我们还计算了一个扩展比,即 12 节点相较 6 节点其吞吐量的增加比例,华为云数据库多主要优于 CRDB。
正如引言中所指出的,Shared-nothing 架构的开销受分布式事务提交的影响更明显,分布式事务提交的开销随着事务中涉及的节点数量的增加而增长。对于给定的工作负载,效率受限于事务复杂性。
表 2 华为云数据库多主 VS CockroachDB: TPC-C 结果
华为云数据库 MM
CRDB
1000w
5000w
1000w
5000w
6 节点 tpmC
250000
216000
121000
137000
时延 (ms)
17/48
16/35
90/150
220/620
12 节点 tpmC
691000
734000
164000
279000
时延 (ms)
21/106
19/80
150/300
590/1280
比例因子
2.8
3.4
1.4
2
效率
0.7
0.8
0.7
1.0
总结
华为云数据库多主是专门为云环境设计的云原生多主 OLTP 数据库系统。它是一个存算分离的云原生数据库系统,使用全局锁管理器来协调对数据库页和行的读写访问。现实业务中的许多 OLTP 工作负载大多是可分区的,其中只有一小部分页面在多个主节点之间共享。例如,在 TPC-C 中,只有 10% 的访问是对远程仓库的访问。华为云数据库多主设计的一个关键目标是为了在共享程度低的工作负载上实现良好的性能和可扩展性。
华为云数据库多主采用了两个关键创新技术: VS(vector-scalar)时钟和混合行页锁,旨在降低网络负载和提高性能。VS 时钟通过对系统中更频繁的消息(日志记录)使用单个标量时间戳,而数量很少的消息使用矢量时间戳来降低网络负载。同时,使用 VS 时钟,系统保留了查看系统级事务一致性状态的能力。混合行页锁技术通过减少发送到全局锁管理器的锁请求数量来提高事务吞吐量和减少延迟。特别是,如果页面被主节点访问一段时间后,行页锁将自动委托给单一的主节点。我们的实验结果证实了华为云数据库多主系统的性能和可扩展性。在 TPC-C 基准测试中, 4 个主节点的最大扩展效率为 84%, 8 个主节点的最大扩展效率为 62%。在最大 8 个计算节点的集群上,华为云数据库多主在 TPC-C 上展示了优于 Aurora 多主和 CRDB 的性能。
点击关注,第一时间了解华为云新鲜技术~