多主架构:VLDB 技术论文《Taurus MM: bringing multi-master to the cloud》解读

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 本文分享自华为云社区《多主创新,让云数据库性能更卓越》,作者: GaussDB 数据库。华为《Taurus MM: bringing multi-master to the cloud》论文被国际数据库顶会 VLDB 2023 录用,这篇论文里讲述了符合云原生数据库特点的超燃技术。介绍了如何通过各种黑科技减少云原生数据库的网络消耗,进而提升云原生数据库的性能和稳定性。下面就让我们抽丝剥茧,细细品味技术的魅力,揭开华为云数据库多主技术的面纱。说明:技术论文中的 Taurus 在华为云商用的产品名是 GaussDB (for MySQL),是 GaussDB (for MySQL) 的云原

引言
现下,大型高性能数据库通常采用一写(主)多读(副本)这种标准部署方式来提高业务吞吐量。。然而,单主会导致单点故障,同时限制了写扩展性,也就是说带来了可用性和性能的双重挑战。而性能和可用性是衡量一个企业级数据库是否优秀最关键的两个方面。由此多主数据库应运而生。

多主数据库有 Shared-nothing 和 Shared-storage 两种架构。谷歌 Spanner、亚马逊 DynamoDB、CockroachDB、OceanBase 及其他一些数据库采用了 Shared-nothing 架构。亚马逊 Aurora 多主数据库、Oracle RAC 和 IBM DB2 pureScale 采用了 Shared-storage 架构。

对于 Shared-nothing 架构的多主,每个节点对一个小数据子集执行计算和存储。在高度分区的工作负载场景下,这类架构可以提供非常高的可扩展性。但在如下不均衡的工作负载场景中,其优势受限 —— 节点数越多可能意味着节点间数据交换越多:

数据无明显分区特征;
工作负载随时间变化;
存在热点数据场景。
同时,Shared-nothing 架构使用分布式提交协议,信息同步多轮交换,降低了多主系统的性能。

对于传统的 Shared-storage 架构,计算层与存储层分离。这类架构由于其高度集成及密集网络通信的特点,需要高端和专用的网络硬件,更适用于对成本不敏感的线下数据中心部署,不适用于云原生数据库。云的最核心特点是通过多用户共享基础设施平摊成本(包括网络硬件)来实现高成本收益。

云数据库性能的关键是对共享网络的优化。华为云数据库多主(Multi-Master)专注于从消息的数量和大小两方面减少网络流量,这一目标的达成并不容易,很多公司尝试过,但目前还没有看到成功案例。

华为云数据库多主黑科技解析
那究竟如何实现多主上云呢?华为云数据库多主有哪些硬核技术突破呢?

通过对网络流量消耗进行分析和归类后,我们发现主要的网络消耗是由于主节点写页面、时钟同步和锁信息交互三个方面。华为云数据库在如上三个方面进行了探索和尝试,并取得了可喜成绩。下面详细讨论在每类开销上,华为云数据库是如何尽最大可能减少网络计算开销的。

减少直接页面写入带来的网络消耗
此问题已有解决方案 ——2020 年 SIGMOD 会议上我们向会议研究团体介绍了华为云原生数据库单主解决方案:“Log As Database”(日志即数据库)。

简单说就是华为云数据库计算与存储分离,计算层包含一写(主)多读(副本)。计算层的作用是执行数据库的修改,主要功能有:接入连接、执行查询、管理事务以及生成 WAL 日志记录(日志用于描述对数据库页所做的修改)。事务更新时先生成日志记录,主节点将这些日志记录传送到存储层的 Log Stores 中进行存储,通过日志回放生成数据,从而无需通过网络执行整个数据页面的写入,节省了所需的网络带宽。详细见图 1。

图 1:华为云数据库组件及分层架构

cke_114.png

华为云数据库多主重用了一主多读架构中的思想,采用 Shared-storage 体系结构,所有 Master 之间共享日志存储和页面存储,继续沿用悲观并发控制,且引入了全局锁管理器 GLM(Global Lock Manager)。

各 Master 维护自己的预写日志(WAL)。用户事务在单主上执行 —— 没有分布式事务。日志记录写入执行事务的主机中。每个 Master 会定期将带有位置信息标识(哪个 Master 生成的)的新生成日志提交给所有其他 Master。通过位置信息,各 Master 读取其他所有 Master 上生成的日志记录,并更新进自己的缓冲池页面中。详细如图 2 所示。

图 2:华为云数据库多主组件及分层架构

cke_115.png

减少时钟同步带来的网络消耗
多主数据库特有的第二个网络开销来源是时钟同步。在单主数据库上,事务时钟信息可以直接使用本地物理时钟。然而,在分布式系统中,不同节点上的物理时钟很难精确保持一致。而通过网络连接同步和获取时间戳,会带来无法容忍的时间延迟。因此,对于分布式数据库物理时钟这种方法不再适用。

这在业界不是一个新近才提出的问题。早在 20 世纪 70 年代,莱斯利・兰伯特就为了解决此问题,提出并发明了标量时钟(常称为逻辑时钟,或兰伯特时钟)。此标量时钟由一个数字组成时间戳,仅在消息交换期间进行不同计算机间的时钟同步。兰伯特时钟的算法简单而优雅,但要通过它创建数据库的分布式快照基本不可能,而分布式快照对分布式数据库的性能又是非常重要的。同时,逻辑时钟无法保存事务间的因果关系。简单说,就是假设𝑇𝑆 (𝑎) < 𝑇𝑆 (𝑏),也就是事务 a 早于事务 b,使用逻辑时钟,无法识别是 a 导致了 b,还是 a 和 b 间仅是并发无因果关系。

逻辑时钟之后又出现了矢量时钟,用于解决逻辑时钟的局限性。然而,虽然矢量时钟能够创建分布式快照,但是,矢量时钟有一个很大的缺点 —— 加大了消息的大小。数据库之间的消息本来很小,矢量时间戳的加入使消息的大小增大为原来的两至三倍,从而加大了网络开销。

华为云数据库团队发明了一种新型的时钟 ——VS 时钟(VECTOR-SCALAR CLOCKS)。其关键的创新是,它既可以产生矢量时间戳,又可以产生标量时间戳,实现优势互补。VS 时钟的应用,既达成了较小的网络消耗又保证了数据库全局快照的创建能力。例如,由于每个节点对同一页面的修改必须是串行的,无需关注因果(先后)关系,因此对单个页面修改的日志记录添加时间戳时,发放标量时间戳即可;当为全局快照的创建发放时间戳时,需要使用完整的矢量时间戳以便理清各主节点事务间的先后关系。由于全局快照这一类事件的数量级远小于日志记录,故而全局快照矢量时间戳所带来的空间开销可以忽略不计。

优化锁协议减少网络消耗
多主数据库的第三个主要网络开销是锁信息交互带来的开销。

对数据库的某些更改需要被视为原子更改,例如对内部数据库页的修改,或事务对记录行的修改。通常,数据库使用锁来实现原子性。通过观察我们得到一个重要结论:鉴于所有行都是存储在页面上的,因此要修改或读取对应行,就意味着必须修改或读取此行所在的页面。

由此,我们提出了,对于数据库最底层的行页混合锁定,行锁信息不再作为单独的消息进行传递,而是作为页锁的一部分来传递。这种方案,会将锁信息的数量显著减少,从而进一步降低了网络负载。

数据库系统的行锁类型有:(普通)共享和独占行锁、间隙锁、next-key 锁和意向锁,在华为云数据库多主中讨论的 “行锁” 包括了所有这些类型的锁。行锁可以以不同的方式管理,我们在分析和对比了下面的三种不同方法后,选择了行锁跟随页锁的方法。

GLM 管理行锁:让全局锁管理器 GLM 同时管理页锁和行锁。这种方法每次行锁获取时都需要走 GLM,因而会增加网络负载。DB2 pureScale 采用了这种方法,并进行了各种优化。GLM 管理行锁的方案,网络流量很高,即使在工作负载大部分是分区的场景下,也依然很高;此外,GLM 还必须要能支持底层系统使用的所有行锁类型及这些锁之间的复杂交互。

在页面上存储行锁:将页面的行锁信息存储在本身所在的页面上。Oracle RAC 采用这种方法。华为云数据库未采用这种方法,有两个原因:1) 它需要将行锁获取 / 释放记录写入日志,从而增加了网络负载;2) 它需要更改磁盘上的页面格式,华为云数据库由单主升级到多主时必须做这种数据库格式转换,将损失华为云数据库的原有优势。

行锁跟随页锁:当 Master 获取页面锁时,一并获取该页面上的行锁列表,包括持有的锁和挂起的锁请求。之后,Master 可以在页面上授予额外的行锁,当然前提是这些行锁要与其页锁兼容。当 Master 向 GLM 释放页锁时,同时会将页面上当前行锁的信息发送给 GLM。需要说明的是,锁请求挂起的信息虽不是很关键,但它对 GLM 和 Master 上的锁调度决策很有用,因此也会传递给 GLM。华为云数据库最终选择了这种方法。

在华为云数据库中,GLM 只管理页锁,不授予或释放行锁,但页锁信息中跟随有行锁信息。GLM 将页面上的锁授予 Master 时,会将页的版本号(如果有)发给 Master,从而该 Master 将拥有页的最新版本,以及页上的行锁列表。接收了页锁的 Master 会将行锁信息添加到其本地锁管理器 LLM 中。当 Master 释放页锁(自愿或响应请求)时,它向 GLM 递交页面版本号和页面上的行锁列表。

在不涉及数据一致性的前提下,Master 上的行锁更改不需要立即与其他 Master 同步。除非另外的 Master 要请求锁定的页面与当前 Master 是有锁冲突的同一个页面。这种情况下页锁释放和回收流程将被启用,行锁信息被一并发送到 GLM,将很好地避免行锁授予或等待时频繁联系 GLM,可以显著减少行锁网络流量。以下是更详细的流程:

・释放页锁时(自愿或被动响应回收):

–Master 上:有关页面上所有行锁的信息将发送到 GLM。

–GLM 上:接收到的行锁信息缓存在内存中。

・请求和授予页锁时:

–Master 上:为了响应本地事务的行锁请求,Master 必须持有行所在页上的锁。如果 Master 没有拿到所需的页锁,它会首先向 GLM 发送页锁请求。

–GLM 上:当页面锁请求到达时,GLM 会判断同一页面是否有其他冲突锁或者挂起的其他 Master 锁请求,如果有,新的 Master 所请求需要等待。当 GLM 准备好授予页锁时,它首先回收页面上的冲突锁(如果有),并捕获新接收到的行锁信息;之后将页面锁授予 Master,并将响应消息、行锁信息及页面的最新版本号一并发给 Master。

–Master 上:收到页锁授权响应消息后,将行锁信息添加到 LLM(Local Lock Manager)中,并刷新页面版本号。本地事务再次尝试后可以成功获取所需的行锁。

华为云数据库多主架构效果验证。
我们首先测试了华为云数据库多主架构自身的性能和可扩展性。同时,我们将华为云数据库多主与亚马逊的 Aurora 多主(我们所知的唯一一个云原生 Shared-storage 数据库)进行了对比。最后,我们还将华为云数据库多主与 Shared-nothing 架构的 CockroachDB 进行了对比。

测试环境说明
实验验证运行在一个最多 8 个主节点的集群上,并在 4 个具有相同硬件配置的节点上部署了存储层(数据存储和日志存储)。详细见表 1。

表 1:测试环境规格

配置项

规格

说明

集群规模

4 存储节点 & 最多 8 个主节点

存储节点和主节点的硬件配置相同。

CPU

Intel Xeon Gold 6278C 2.6GHz CPU 28 核 * 2

在每个节点上,主 Master 独用一个 CPU,工作负载驱动程序使用第二个 CPU。

操作系统

CentOS 7.0

-

Buffer Pool

128GB

-

网络

25Gbps

-

在所有实验中均使用了两个标准工作负载:Sysbench 和 Percona TPC-C。

Sysbench 是一个流行的基准测试,它可以生成插入、删除、更新、点查、范围查询及这些类型的各种组合。我们扩展了 Sysbench,以便控制数据共享的程度。

在一个由 N 个主节点组成的集群上,实验将表逻辑上分为 N+1 组。前 N 组中的表是私有表,即每个组被分配给一个单独的主节点,只有指定的主节点可以访问对应组中的表。最后一个组是共享的,即任何主节点都可以访问此组中的表。

当实验指定共享程度为 X% 时,表示 X% 的数据库读写访问是针对共享表进行的,其余的读写访问是针对私有表进行的。完全分区的工作负载对应于 X=0%,完全共享的工作负载对应于 X=100%。实验设置中,对于共享工作负载场景,每个组包括 100 个表,每个主节点访问 100 个私有表以及 100 个共享表。对于完全分区的工作负载,每个组包含 200 个完全分区的表。每个表有 2.35M 行数据,每行约 200 字节, 因此对于所有的实验,每个主节点都可以访问约 100GB 的数据。

TPC-C 是评估 OLTP 系统性能的行业标准性基准。数据按仓库跨主节点分区,但 10% 的事务访问了远程的数据分区。除非另有说明,我们使用的是 1000 个仓库配置。

华为云数据库多主性能测试结果
华为云数据库多主在 Sysbench 只写、Sysbench 读写(80% 读取,20% 写入)和 TPC-C 基准测试上的性能表现如图 3 所示,3 (a-c)。

在 X 轴上,集群大小从 1 个主节点到 8 个主节点。
在 Y 轴上,显示了绝对吞吐量以及相对于单个主节点的吞吐量。
Sysbench 测试结果的每条线对应不同程度的数据共享。TPC-C 使用的是固定的 10% 共享查询。
对于只读工作负载,由于多版本的存在,其可以完美地扩展,因此这里略去不显示
从图中可以看出,对于完全分区的工作负载,随着主节点数量的增加其性能几乎线性扩展。8 个主节点集群规模下,10% 共享的 Sysbench 只写和读写场景,相较单个主节点,分别实现了 3.5 倍、4.5 倍的加速; TPC-C 工作负载下,相较单个主节点,实现了 5 倍的加速。

正如预期的一样,可扩展性受数据共享程度的影响较大。同样 8 个主节点集群上,30% 共享负载下的只写和 50% 共享负载下的读写,相较单个主节点,均实现了不到 2 倍的加速。

由于可用的硬件有限,我们未验证 16 个主节点集群的结果,但从图中不难看出,8 个主节点的可扩展性已接近线性。

图 3. 华为云数据库多主 Sysbench 和 TPC-C 性能测试结果

cke_116.png

与 Aurora 多主的性能对比
图 4 对比了基于相同 CPU 核数和内存缓冲池情况下华为云数据库多主和 Aurora 多主的性能。在所有测试中,我们观察到单主情况下,华为云数据库的性能超过了 Aurora。由于 Aurora 多主除了计算层之外,未暴露其他硬件细节,因此我们只测试对比了各自相对于其单主的性能数据。鉴于 Aurora 不允许超过 4 个主节点,因此 8 个主节点性能测试仅在华为云数据库多主上进行。对于完全分区的工作负载,两个数据库的扩展几乎相同,故测试时省略了不同分区负载的差异对比,而是选取了具有代表性的 10% 共享负载做性能对比测试。在此较小的共享负载场景下,华为云数据库处理工作负载的能力要好得多。在共享写入工作负载场景下,我们发现 Aurora 中所有主节点上存在大量因冲突导致的被中止事务,从而带来主节点之间的性能不均衡。华为云数据库的多主由于其基于混合行页锁的并发控制,未发生任何事务中止。

图 4 华为云数据库多主 VS Aurora 多主

cke_117.png

与 CockroachDB 的性能对比
我们还将华为云数据库多主与基于 Shared-nothing 架构的 CockroachDB(简称 CRDB)进行了比较。之所以选择 CRDB,是因为它是开源的,且根据相关报告分析,其性能比 Spanner 和 TiDB 更好。

实验使用两种配置规格,即分别将 CRDB 和华为云数据库部署在相同的 6 节点和 12 节点集群上,从而比较相同硬件条件下双方的性能。

由于华为云数据库专门使用 4 个节点用于存储层,而 CRDB 为 Shared-nothing 架构,每个节点上既有计算层又有存储层,因此将 6 个和 12 个节点 CRDB 分别与 2 个主节点和 8 个主节点的华为云数据库多主进行了比较。

对于 CRDB 和华为云数据库多主,实验时使用了尽可能大的连接数来提高吞吐量。对于华为云数据库多主来说,每个主节点上的连接数为 64 个;对于 CRDB,每个主节点上的连接数从 128 到 512 不等。

在 CRDB 上,我们运行了 CRDB 附带的类似 TPC-C 的基准测试。对于华为云数据库多主,我们运行了 Percona TPC-C。在表 2 中列出了 1000 和 5000 个仓库的结果。对于每次运行,我们记录了每秒可处理的新订单事务数(tpmC)、事务平均请求时延和 95% 事务的请求时延。在所有测试场景下:

华为云数据库多主吞吐量都明显更高,从 6 节点、5000 个仓库的吞吐量高出 60%,到 12 个节点、1000 个仓库的吞吐量高出 320%。
华为云数据库双主的交易延迟也要低得多,平均请求时延和 95% 事务的请求时延均低得多。
我们还计算了一个扩展比,即 12 节点相较 6 节点其吞吐量的增加比例,华为云数据库多主要优于 CRDB。
正如引言中所指出的,Shared-nothing 架构的开销受分布式事务提交的影响更明显,分布式事务提交的开销随着事务中涉及的节点数量的增加而增长。对于给定的工作负载,效率受限于事务复杂性。

表 2 华为云数据库多主 VS CockroachDB: TPC-C 结果

华为云数据库 MM

CRDB

1000w

5000w

1000w

5000w

6 节点 tpmC

250000

216000

121000

137000

时延 (ms)

17/48

16/35

90/150

220/620

12 节点 tpmC

691000

734000

164000

279000

时延 (ms)

21/106

19/80

150/300

590/1280

比例因子

2.8

3.4

1.4

2

效率

0.7

0.8

0.7

1.0

总结
华为云数据库多主是专门为云环境设计的云原生多主 OLTP 数据库系统。它是一个存算分离的云原生数据库系统,使用全局锁管理器来协调对数据库页和行的读写访问。现实业务中的许多 OLTP 工作负载大多是可分区的,其中只有一小部分页面在多个主节点之间共享。例如,在 TPC-C 中,只有 10% 的访问是对远程仓库的访问。华为云数据库多主设计的一个关键目标是为了在共享程度低的工作负载上实现良好的性能和可扩展性。

华为云数据库多主采用了两个关键创新技术: VS(vector-scalar)时钟和混合行页锁,旨在降低网络负载和提高性能。VS 时钟通过对系统中更频繁的消息(日志记录)使用单个标量时间戳,而数量很少的消息使用矢量时间戳来降低网络负载。同时,使用 VS 时钟,系统保留了查看系统级事务一致性状态的能力。混合行页锁技术通过减少发送到全局锁管理器的锁请求数量来提高事务吞吐量和减少延迟。特别是,如果页面被主节点访问一段时间后,行页锁将自动委托给单一的主节点。我们的实验结果证实了华为云数据库多主系统的性能和可扩展性。在 TPC-C 基准测试中, 4 个主节点的最大扩展效率为 84%, 8 个主节点的最大扩展效率为 62%。在最大 8 个计算节点的集群上,华为云数据库多主在 TPC-C 上展示了优于 Aurora 多主和 CRDB 的性能。

点击关注,第一时间了解华为云新鲜技术~

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
18天前
|
运维 Kubernetes Cloud Native
云原生技术:容器化与微服务架构的完美结合
【10月更文挑战第37天】在数字化转型的浪潮中,云原生技术以其灵活性和高效性成为企业的新宠。本文将深入探讨云原生的核心概念,包括容器化技术和微服务架构,以及它们如何共同推动现代应用的发展。我们将通过实际代码示例,展示如何在Kubernetes集群上部署一个简单的微服务,揭示云原生技术的强大能力和未来潜力。
|
27天前
|
运维 持续交付 API
从零构建微服务架构:一次深度技术探索之旅####
【10月更文挑战第28天】 本文记录了作者在从零开始构建微服务架构过程中的深刻技术感悟,通过实战案例详细剖析了微服务设计、开发、部署及运维中的关键要点与挑战。文章首先概述了微服务架构的核心理念及其对企业IT架构转型的重要性,随后深入探讨了服务拆分策略、API网关选型、服务间通信协议选择、容器化部署(Docker+Kubernetes)、以及持续集成/持续部署(CI/CD)流程的设计与优化。最后,分享了在高并发场景下的性能调优经验与故障排查心得,旨在为读者提供一套可借鉴的微服务架构实施路径。 ####
57 3
|
2月前
|
边缘计算 Cloud Native 安全
构建灵活高效的下一代应用架构 随着企业数字化转型的加速,云原生技术正逐渐成为构建现代化应用程序的关键支柱。
随着企业数字化转型加速,云原生技术逐渐成为构建现代化应用的关键。本文探讨了云原生的核心概念(如容器化、微服务、DevOps)、主要应用场景(如金融、电商、IoT)及未来发展趋势(如无服务器计算、边缘计算、多云架构),并分析了面临的挑战,如架构复杂性和安全问题。云原生技术为企业提供了更灵活、高效的应用架构,助力数字化转型。
71 4
|
16天前
|
存储 分布式计算 关系型数据库
架构/技术框架调研
本文介绍了微服务间事务处理、调用、大数据处理、分库分表、大文本存储及数据缓存的最优解决方案。重点讨论了Seata、Dubbo、Hadoop生态系统、MyCat、ShardingSphere、对象存储服务和Redis等技术,提供了详细的原理、应用场景和优缺点分析。
|
2月前
|
缓存 Java 数据库
后端技术探索:从基础架构到高效开发的实践之路
【10月更文挑战第7天】 在现代软件开发中,后端技术是支撑应用运行的核心。本文将探讨如何从后端的基础架构出发,通过一系列高效的开发实践,提升系统的性能与可靠性。我们将深入分析后端框架的选择、数据库设计、接口开发等关键领域,并提供实用的代码示例和优化策略,帮助开发者构建更稳定、高效的后端系统。通过这篇文章,读者将获得关于后端开发的全面理解和实践指导,从而更好地应对复杂项目需求。
72 0
|
19天前
|
监控 API 微服务
后端技术演进:从单体架构到微服务的转变
随着互联网应用的快速增长和用户需求的不断演化,传统单体架构已难以满足现代软件开发的需求。本文深入探讨了后端技术在面对复杂系统挑战时的演进路径,重点分析了从单体架构向微服务架构转变的过程、原因及优势。通过对比分析,揭示了微服务架构如何提高系统的可扩展性、灵活性和维护效率,同时指出了实施微服务时面临的挑战和最佳实践。
44 7
|
16天前
|
传感器 算法 物联网
智能停车解决方案之停车场室内导航系统(二):核心技术与系统架构构建
随着城市化进程的加速,停车难问题日益凸显。本文深入剖析智能停车系统的关键技术,包括停车场电子地图编辑绘制、物联网与传感器技术、大数据与云计算的应用、定位技术及车辆导航路径规划,为读者提供全面的技术解决方案。系统架构分为应用层、业务层、数据层和运行环境,涵盖停车场室内导航、车位占用检测、动态更新、精准导航和路径规划等方面。
69 4
|
2月前
|
Kubernetes Cloud Native 持续交付
云端新纪元:云原生技术重塑IT架构####
【10月更文挑战第20天】 本文深入探讨了云原生技术的兴起背景、核心理念、关键技术组件以及它如何引领现代IT架构迈向更高效、灵活与可扩展的新阶段。通过剖析Kubernetes、微服务、Docker等核心技术,本文揭示了云原生架构如何优化资源利用、加速应用开发与部署流程,并促进企业数字化转型的深度实践。 ####
|
17天前
|
Kubernetes Cloud Native 持续交付
云原生技术在现代应用架构中的实践与思考
【10月更文挑战第38天】随着云计算的不断成熟和演进,云原生(Cloud-Native)已成为推动企业数字化转型的重要力量。本文从云原生的基本概念出发,深入探讨了其在现代应用架构中的实际应用,并结合代码示例,展示了云原生技术如何优化资源管理、提升系统弹性和加速开发流程。通过分析云原生的优势与面临的挑战,本文旨在为读者提供一份云原生转型的指南和启示。
31 3
|
20天前
|
网络协议 数据挖掘 5G
适用于金融和交易应用的低延迟网络:技术、架构与应用
适用于金融和交易应用的低延迟网络:技术、架构与应用
46 5