金融行业核心系统最佳搭档|如何基于PolarDB分布式版打造两地三中心架构?

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生数据库 PolarDB 分布式版,标准版 2核8GB
云数据库 RDS MySQL,集群版 2核4GB 100GB
推荐场景:
搭建个人博客
简介: 云原生数据库PolarDB分布式版在金融行业场景落地总结

作者:阿里云数据库PolarDB分布式团队 七锋


本文是《PolarDB-X致数据库行内人》专栏系列的第二篇,本系列其他文章:《数据库内核那些事|分布式数据库,挂掉两台机器会发生什么



缘起

在今年云栖大会的数字金融论坛上,我们分享了大型金融机构核心系统如何采用云原生数据库PolarDB分布式版(PolarDB for Xscale,以下简称PolarDB-X),实现多个系统升级和改造,并详细介绍并总结了PolarDB分布式版在大型银行、股份制银行、证券系统、保险业务等应用场景的落地与最佳实践。


视频回放详见《数智金融 数字金融核心技术硬核实践》



本篇文章是对我们在云栖大会所分享内容的技术补充,期望从数据库架构设计的视角,分享PolarDB分布式版在大型银行的落地经验,介绍Paxos多副本+传统两地三中心上的技术思考。


金融行业的容灾需求


在金融行业中,容灾是非常重要的,因为金融交易和金融数据的安全性和连续性对于银行和金融机构来说至关重要。金融行业一般有4级和5级容灾需求,分别代表了不同的容灾级别和要求。


参考:

《分布式数据库技术金融应用规范 灾难恢复要求》

《信息系统灾难恢复规范GB/T20988—2007》


  • 4级容灾:较低级别的容灾需求,通常同城容灾,确保同城网络的冗余性和故障切换能力。
  • 5级和6级容灾:更高级别的容灾需求,要求多地容灾,需要建立多个数据中心,在主要数据中心不可用时能够快速切换到备用系统,针对6级在异地副本数、备份周期频率、恢复RTO上会有更明确的要求。



一般银行的核心业务普遍要求5级容灾,考虑多数据中心的建设成本,当前金融行业普遍的5级容灾形态为两地三中心架构,典型的网络拓扑架构:


两地三中心对于数据库的需求


跨机房容灾,推荐Paxos/Raft多数派共识算法


在文章中《数据库内核那些事|分布式数据库,挂掉两台机器会发生什么》,我们简单论证过对于数据有一定的重要性场景,都不应该选择主备架构的产品(包含MySQL Semi-sync半同步,也有网络降级为异步丢数的风险),而金融行业尤其重视机房级别的容灾(比如主机故障、断网脑裂等),推荐使用Paxos/Raft多数派协议的数据库,从多数派共识算法的原理层面可以很好的满足一致性要求。


目前主流分布式数据库基本都选择Paxos\Raft(包括其他变种协议),其共通点是,每份数据会存在多个副本,并且能够保证在一个副本挂掉的情况下,不影响可用性,并且不会出现任何一致性问题(脑裂、丢数据、丢更新等)


本文同样无意去解析Paxos\Raft协议,我们需要思考结合两地三中心架构,进一步思考新一代基于Paxos多副本的数据库,如何满足金融的严苛要求。


我们将进一步探讨几个问题:


1. 一个业务的两地三中心,同城和异地,数据库是一个实例还是多个实例,以及如何满足RPO和RTO?

2.业务对接分布式数据库有单元化诉求,单元化要求数据库切主同机房优先,如何满足单元化?

3. Paxos/Raft多数派共识算法,如何优化跨机房数据复制、以及如何满足机房故障场景?

4. 分布式事务遇到两地三中心,是否会有数据一致性问题?

5. 数据库日常的容灾演练能力,如何构建面向不同故障场景下的模拟演练?


1. 中心主实例+异地灾备实例


按照两地三中心的5级容灾,同城每个机房至少需要2副本+异地至少需要1个副本,因此基于Paxos多数派的需求,两地三中心比较合理的架构是采用5副本。


针对第一个问题,一个业务的两地三中心,PolarDB-分布式数据库的设计上是:中心主实例(5副本)+异地灾备实例(2副本),基于可以满足RPO/RTO以及故障演练场景的诉求,文章后续通过架构逐步演进的思路来介绍两地三中心的方案。


▶︎ 中心主实例

初始的架构设计


基于Paxos协议经常被咨询的一个问题:如果机房容灾,多数派副本挂了,异地容灾能否提供服务?


映射到两地三中心5副本的初始架构,思考RPO/RTO的相关问题:

1. 中心机房A挂了,剩余3副本,可以满足多数派。此时,RPO=0且RTO<30,可以满足paxos多数派协议的自动切换。

2. 中心机房B挂了,如同上一条的A机房挂了的场景。

3. 中心地域挂了,机房A和机房B不可用,此时仅剩异地的1个副本,不满足多数派且异地RPO>0,这种场景下数据库比较难以自动恢复,需要结合RTO场景思考数据库的能力。


异地单副本启动


在中心地域挂了,异地仅剩单副本时,PolarDB-X提供了一种单副本启动的方式(一键需改元数据+强制重启),重新提供服务。


# 强制单节点,剔除所有follower
call dbms_consensus.force_single_mode();

这种故障恢复模式下,可以作为一种应急能力,但RTO的时间取决于运维同学介入+手工操作恢复的总时间(登录一堆数据库主机挨个重启节点),RTO比较难有严格时效性的保障。

同时,异地单副本启动模式对于故障演练场景的需求来看,即使有预期也会对当前业务有损(需要重建数据库),不太具备故障演练的能力。


▶︎ 异地灾备实例


架构形态:


  • 中心主实例+异地灾备实例,采用数据异步复制+双向同步
  • 异地灾备实例,推荐选择为一个独立的Paxos3副本实例,结合PolarDB-X的Logger副本类型,最后等价于2副本模式。


PolarDB-X支持的副本类型:



基于异地灾备实例,继续考虑中心地域故障的场景:


  1. 中心主实例仅剩异地1副本,不满足多数派,此时中心主实例不可服务,可以快速切流量到异地灾备实例,可以满足RTO<1分钟。
  2. 故障演练场景,可以切流量到异地灾备实例,此时基于双向同步的机制,异地灾备实例数据可以同步会中心主实例,演练过程对于数据没有太大的影响。


2. 分布式+单元化


金融行业随着业务的发展,普遍都会有单元化的诉求,业务对于单元化的诉求:


  1. 业务单元化,将原本一个业务拆分为N个单元,每个单元承担部分流量,个别单元故障时可以隔离故障爆炸半径,避免影响业务整体。
  2. 分布式扩展性,将不同单元调度到不同资源上,实现业务的线性扩展性。


业务对于单元化的诉求,通过分布式数据库的分布式拆分机制,有比较好的技术契合度,这也是金融行业对于分布式数据库比较热衷的一个原因。


▶︎ 单元化分片


PolarDB-X分布式数据库,考虑单元化适配后,此时的架构设计:



如上图所示:


  1. 业务单元划分:中心地域2机房4单元,相当于每个机房有2个单元,每个单元有自己独立的主机硬件和交换机。
  2. 分布式适配:PolarDB-X数据库的数据节点DN的数量,推荐是单元数量的整数倍,比如4、8、12、16等。每个DN的多个副本,确保每个单元都有1个副本,同时需要调度不同分片DN的Leader到对应的单元,最后的效果:每个单元内都有数据库全量数据,分片Leader各自均匀分布。
  3. 数据库和表:适配单元化的分片和对应的DN。比如总计4个DN(DN1~DN4),数据分片128份,单元化的数据分片规则就是:分片0~31(DN1)、分片32~63(DN2)、分片64~95(DN3)、分片96~127(DN4)。
  4. 单元化分片算法:适配业务单元调度。比如按照用户Id进行单元化,按照Hash算法进行适配,业务流量和数据库的分片单元进行对齐,最后达到业务流量访问同机房DB的效果。


这里基于单元化的结构设计,针对数据库有隐形的需求:

a) 中心主实例,异地副本不能选为Leader,否则单元会有跨地域访问的场景,导致RT异常。

b) 1个机房包含2个单元,如果遇到一个单元的DN副本故障时,优先切换到同机房的DN副本,尽可能保证业务和单元之间的同机房路由。


▶︎ Paxos选举权重


PolarDB-X分布式数据库,在Paxos协议部分引入了选举权重设计:


  • 乐观权重机制:多数派共识算法Paxos在选举策略中优先发起选举容易成为Leader,引入权重后我们针对不同的节点引入随机延迟发起Leader选举的时间差,确保高权重的节点优先触发Leader选举。
  • 强制权重机制:当某一新成为Leader的节点,发现自己不是所有节点中权重最高的节点的时候(当所有节点权重一致的时候,任意节点都是权重最高的点,所以此判定不生效),不会立刻放开写入,而是继续等待一个选举超时的时间段(称为禅让阶段),在禅让阶段会每隔一个心跳时间(比如1~2秒),向其它节点发送一次心跳探测。在选举时间段结束以后,如果收到其他权重比自己大的节点回包,即向回包节点中权重最大的节点发起一次Leader转移,确保高权重的节点成为Leader。


4个DN分片为例子:



整体权重按照9/7/5/3/1,权重策略说明:


  1. 同机房的单元分配9和7的权重,确保权重为9的Leader故障时,优先选择同机房的权重为7的副本。
  2. 异地数据中心,分配到的权重为1,权重为所有副本中最低,确保Leader不会调度到异地机房。


3. 跨机房复制


Paxos/Raft多数派共识算法,会涉及跨机房的数据同步,在两地三中心场景下,需要考虑两种case:


  1. 常态下,跨机房复制到同城或异地副本,相比于同机房,网络延迟差距比较大,如何优化对应的网络同步效率?
  2. 容灾场景(故障或者演练),中心一个机房出现不可用,此时原本的5副本,会变成只有3副本正常工作。虽然3副本也满足多数派,但涉及了异地机房的强同步,此时如何优化对应的网络同步效率?


▶︎ Paxos网络同步优化


PolarDB-X分布式数据库,在Paxos协议上针对高延迟网络做了大量的协议优化尝试和测试,并结合学术界现有的理论成果,通过合理的Batching和Pipelining,设计并实现了一整套自适应的针对高延迟高吞吐和低延迟高吞吐网络的通信模式,极大的提升了Paxos协议的性能。


Batching

将多个日志合并成单个消息进行发送,Batching可以有效的降低消息粒度带来的额外损耗,提升吞吐。但是过大Batching容易造成单请求的延迟过大,导致并发请求数过高,继而影响了吞吐和请求延迟。


Pipelining

在上一个消息返回结果以前,并发的发送下一个消息到对应节点的机制,通过提高并发发送消息数量(Pipelining数量),可以有效的降低并发单请求延迟,同时在transmission delay小于propagation delay的时候(高延迟高吞吐网络),有效提升性能。


因Pipeling的引入,需要解决日志的乱序问题,特别是在异地场景下,Window加大,加大了乱序的概率。PolarDB-X实现了一个高效的乱序处理模块,可以对底层日志实现屏蔽乱序问题,实现高效的乱序日志存储。另外,由于Paxos的内部状态复杂,PolarDB-X基于多线程实现Paxos、以及结合Group Commit技术,利用异步化技术来达到最大化的吞吐。


针对跨域网络的场景,我们用5台ECS机器模拟了两地三中心架构的5副本,来验证Paxos网络同步优化的效果:



两地三中心的跨地域网络,相比于同机房的多副本,性能下降差异在5~10%内。


▶︎ 副本数动态调整


两地三中心中,5副本多数派的复制组,需要>=3个副本完成同步响应,默认情况主中心的4副本会因为网络延迟的优势,优先在同城完成多数派的同步响应,多数派协议的延迟基本在1ms左右。但出现中心机房级别的故障后仅剩余3副本,会导致必须等待备份中心的副本也同步响应,导致多数派协议的延迟增加30ms。(比如常见的金融行业中主中心和备份中心的网络延迟在30ms左右)。


PolarDB-X分布式数据库,在Paxos协议设计上支持了副本数动态调整的能力,比如常见的副本数调整场景:


机房故障:5副本降级为3副本,引入Downgrade_follower指令将Follower角色降级Learner角色,动态修改两个副本的角色;

机房恢复:3副本升级为5副本,引入Upgrade_Learner指令将Learner角色升级为Follower角色,需要确保Learner异步复制日志追平;

单副本恢复多数派:1副本升级为3副本,引入Add_follower指令动态新增节点,新节点会先成为Learner角色,追平日志之后自动转成Follower角色。


中心单机房故障场景,模拟5副本降级为3副本:


1. 通过控制台或者命令行,操作将对应机房的副本状态进行切换,动态降级为Learner角色(异步复制,不参与多数派)



2. 查看数据库内核多副本的状态,5副本变为3副本+2Learner副本,此时多数派的投票变更为3副本。



3. 机房故障恢复后,可以通过副本重建的方式动态恢复。


4. 分布式事务一致性


分布式数据库,是将数据存储在多个节点上的数据库系统。分布式事务能够保证多个数据库节点上的数据在事务执行过程中保持一致,避免因为网络故障、系统故障或节点失效等原因导致数据不一致的问题。因此,两地三中心架构下也要深度论证分布式事务的一致性问题。


在文章中《分布式数据库,如何有效评测国产数据库的事务一致性》,PolarDB-X在设计分布式事务机制时也讨论过容灾架构下的数据一致性问题。


容灾架构(两地三中心、同城3AZ),典型的容灾架构场景,比如考虑两地三中心的极端场景,中心地域挂了,切换到异地机房,异地机房的数据可以有延迟(RPO>0)但需要事务粒度的一致性,满足A和B上的账户总余额为100。



如上图所描述,分布式多个Paxos复制组下,异地副本会出现复制进度不一致。如果遇到异地容灾切换,多个复制组各自的RPO不一致,最终会导致分布式事务的数据不一致。


额外思考一个问题:普通级别故障,比如:中心单节点故障、单机房故障,因为中心5副本的机制满足RPO=0,分布式事务的一致性是可以保证的。


▶︎ CDC事务日志复制


PolarDB-X分布式数据库,分布式事务针对容灾场景,引入日志组件CDC解决事务一致性的问题,CDC的基本工作原理:


  1. CDC binlog文件:采集多个DN多副本的本地日志,进行汇众归并和排序,按照分布式事务的TSO版本进行乱序重排,最终产出分布式事务的binlog日志(兼容MySQL binlog的完整格式)
  2. CDC Replication协议:允许分布式数据库下游按照MySQL主备复制的replication协议,比如:Change master和Binlog dump。


更多CDC的技术文章解读,可以参考《PolarDB-X全局Binlog解读》结合PolarDB-X分布式完整能力,基于CDC优化中心主实例+灾备实例的复制机制,两地三中心的架构推荐:



▶︎ 异地就近访问


在两地三中心场景下,网络专线带宽是重要资源,需要在数据库的内部处理上尽可能减少不必要的数据访问,常见的网络访问诉求:


  1. Paxos多副本之间的数据同步,必要的数据同步,可以采用压缩优化网络带宽。
  2. CDC事务日志的采集和同步。
  3. 业务在异地访问数据库,比如报表或者对账。


PolarDB-X分布式数据库,针对异地CN/CDC访问底下DN节点,引入了异地就近访问的设计,要求异地的组件就近访问同机房的DN,减少无谓的专线网络带宽访问。


设计1:CN异地就近访问DN


CN的默认规则是访问DN多副本的Leader节点,支持通过类似读写分离的机制访问follower副本。在两地三中心场景下,CN引入异地只读实例的形态,产品定义:


  1. 异地CN默认访问异地的follower副本,获取元数据才会路由GMS Leader节点(主数据中心)
  2. 异地CN默认提供只读能力,禁止DML/DDL,避免用户在异地误操作(比如:异地写入会转发到主数据中心的Leader节点,因为网络延迟会带来事务提交的RT比较高,增加事务行记录锁的开销)


设计2:CDC异地就近访问DN


CDC的默认规则是访问DN多副本的Leader节点,采集Leader节点最新的本地binlog,再进行归并和排序,按照分布式事务的语义生成最终的分布式事务日志binlog。


在两地三中心场景下,CDC访问DN follower副本,因为网络30ms的延迟,在数据归并和排序时需要额外等待完整的分布式事务日志,增加一定的阻塞开销。CDC针对跨地域的网络场景做了针对性的优化,比如Batching & Pipeling处理、以及面向分布式的多流binlog能力。


针对跨域网络的CDC访问DN场景,我们通过ECS机器模拟了两地三中心场景:



CDC异地就近访问,相比于同机房的场景,性能约为30~60%左右,可以支持百万TpmC的业务(模拟TPC-C测试)


▶︎ 一致性备份恢复


两地三中心架构,金融行业对于数据库的事务一致性要求同样适用于备份恢复,同时针对备份集也有特定的灾备需求,比如数据库备份存储需要对接银行内部的备份机,一般基于S3协议的存储设备,存储设备本身会有自己的灾备机制来容错。


PolarDB-X分布式数据库,在分布式备份上针对两地三中心的容灾需求,比如:5级容灾对于备份频率有明确的要求、以及全量+增量备份互补,因此对于分布式大规模存储下,除了备份一致性还有时效有要求。


分布式并行备份


阿里云上常见MySQL数据库基于Xtrabackup物理备份速度在100~300MB/s,按照分布式128节点(每个节点1TB的存储容量来算),128TB的数据存储传统备份的时间124~372小时,这显然不符合备份时效要求。


PolarDB-X分布式数据库,技术上采用分布式的并行备份的策略,分布式128个节点,每个节点单独执行物理备份,总的128TB的数据基于分布式备份的时间理论值是1~3小时(会受限于备份存储介质的IO带宽上限)。


分布式下的一致性


传统分库分表模式也会采用每个节点并发备份和恢复,但并发物理备份会导致多个节点之间没有任何关系,如果有涉及分布式事务的场景下,每个节点的独立备份并不保证事务的一致性,因此带来了很多数据一致性层面的问题。


PolarDB-X分布式数据库,结合分布式物理备份的前提下,引入了分布式一致性备份机制PolarDB-X备份恢复,基本原理就是在物理备份完成后,通过分布式事务埋点找补一段时间的增量日志,补齐不同节点上缺失的分布式事务日志。基于全量物理备份+增量逻辑备份的方式,确保分布式事务数据的一致性。


▶︎ 异地RPO计算


两地三中心架构,对于异地容灾切换时需要精确统计对应RPO的情况,基于RPO的数据可以结合业务对账来回补对应的数据。


PolarDB-X分布式数据库,结合分布式事务、主实例+灾备实例的架构,分解了一下异地RPO详细计算的过程。



这里包含4个时间:


  1. 时间T1,业务在主中心实例上事务写入的最后一个版本时间戳(PolarDB-X有每秒执行的心跳SQL,确保T1时间约等于当前系统时间)
  2. 时间T2,分布式多个Paxos复制组,各自数据同步到异地,求取最小的版本时间戳,因为网络延迟,相比于时间T1至少约有30ms+的网络延迟;
  3. 时间T3,构建分布式事务日志的时间,采集分布式的多个异地Follower,以最后的版本时间戳为上限,采集时间的延迟相比于T2约有100ms左右的延迟;
  4. 时间T4,事务日志数据同步到灾备实例的最后更新时间戳,数据同步的延迟正常也在秒级左右。


基于4个时间戳的定义,异地容灾RPO=T4-T1≈T4-now(),常态情况下在秒级左右(1~3秒)


PolarDB-X异地灾备实例是独立于中心地域的架构,在异地容灾时可以通过灾备实例的时间T4来计算最后的RPO,常态下可以对接银行的监控来实时采集时间T1~T4。


5. 常态容灾演练


基于两地三中心架构,金融业务按照监管要求,会定期做容灾演练来提前验证,确保真实故障时可以正常切换。数据库在产品设计上,需要提供预期内容灾演练的能力。PolarDB-X分布式数据库,梳理了容灾演练的多种场景,并提供基于DBStack管控的WebUI和OpenAPI容灾演练能力。


单DN节点切换



机房容灾切换



常见的故障演练操作



总结


业界有众多分布式数据库在金融银行领域,落地了两地三中心架构,但在架构的技术细节介绍上偏少,更多只是介绍基于Raft/Paxos5副本的部署机制,这并不满足银行核心系统上线两地三中心的容灾诉求。


PolarDB-X推荐的两地三中心架构形态:



本文基于云原生数据库PolarDB分布式版在大型银行两地三中心架构的落地实践,分享了我们在实践过程中的细节和思考,避免数据库研发、以及金融银行在技术选型时少走弯路,也非常欢迎大家提出宝贵的意见。


最后,回过头回答下最开始提出的5个问题:


1.  一个业务的两地三中心,同城和异地,数据库是一个实例还是多个实例,以及如何满足RPO和RTO?

推荐主备实例(主中心实例+异地灾备实例)的组合模式,可以更好满足容灾演练,中心地域容灾可以满足RPO=0且RTO<30秒,异地容灾因为异步复制RPO>0,但满足RTO<1分的诉求。


单实例模式下,采用两地三中心5副本的架构,中心容灾时可以满足RPO=0且RTO<30秒,异地容灾时因为仅剩单副本,需要手工以单节点模式重启数据库节点,RTO无法有效保障、以及缺少无损的容灾演练能力。


2. 业务对接分布式数据库有单元化诉求,单元化要求数据库切主同机房优先,如何满足单元化?

分布式数据库与单元化可以有很好的契合点,数据分区和Leader分布可以与业务单元化流量对齐,结合选举权重满足同机房流量优先的诉求。


3. Paxos/Raft多数派共识算法,如何优化跨机房数据复制、以及如何满足机房故障场景?

Paxos协议需要结合业务主流技术进行跨地域网络优化,同时副本数动态调整能力是一个核心诉求,从5副本动态降级为3副本,可以很好的解决机房故障时RT飙升的场景。


4. 分布式事务遇到两地三中心,是否会有数据一致性问题?

分布式事务在两地三中心容灾场景上,会出现事务数据同步不一致性的情况,可以引入事务级的日志复制解决,或者业务层避免使用分布式事务来绕过(市面上很多国产数据库交付的两地三中心更多是集中式数据库形态,比如基于MySQL/MariaDB、PG的单机主备形态)。


5. 数据库日常的容灾演练能力,如何构建面向不同故障场景下的模拟演练?

需要构建全方案的容灾演练能力,从单元AZ/机房/地域、以及单实例、批量实例的容灾能力,需要提供WebUI、以及OpenAPI方式适配现有银行系统。

相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
相关文章
|
1月前
|
关系型数据库 分布式数据库 数据库
【PolarDB开源】PolarDB与微服务架构的融合:灵活扩展与高效管理
【5月更文挑战第23天】阿里云PolarDB是适用于微服务的高性能分布式数据库,提供数据分片、水平扩展及高可用性解决方案。通过SQL或API实现弹性扩展,内置故障转移保障服务连续性,且兼容MySQL协议,易于集成微服务生态。通过Spring Boot示例展示了PolarDB的配置与集成过程,强调其在现代云原生应用中的重要角色。
74 1
|
1月前
|
存储 关系型数据库 分布式数据库
电子好书发您分享《PolarDB分布式版架构介绍PolarDB分布式版架构介绍》
**《PolarDB分布式版架构介绍》电子书分享:** 探索阿里云PolarDB分布式设计,采用计算存储分离,借助GMS、CN组件实现大规模扩展。[阅读更多](https://developer.aliyun.com/ebook/8332/116553?spm=a2c6h.26392459.ebook-detail.5.3b3b2ccbVVjjt0)
29 3
|
1月前
|
存储 关系型数据库 分布式数据库
【PolarDB开源】深入PolarDB内核:探究存储计算分离架构的设计哲学
【5月更文挑战第20天】PolarDB是阿里巴巴的云原生分布式数据库,以其存储计算分离架构为核心,解决了传统数据库的扩展性和资源灵活性问题。该架构将数据存储和计算处理分开,实现高性能(通过RDMA加速数据传输)、高可用性(多副本冗余保证数据可靠性)和灵活扩展(计算资源独立扩展)。通过动态添加计算节点以应对业务流量变化,PolarDB展示了其在云时代应对复杂业务场景的能力。随着开源项目的进展,PolarDB将持续推动数据库技术发展。
84 6
|
3天前
|
存储 关系型数据库 分布式数据库
内附原文|详解SIGMOD’24最佳论文:PolarDB如何破解多主架构经典难题?
在今年的SIGMOD会议上,阿里云瑶池数据库团队的论文《PolarDB-MP: A Multi-Primary Cloud-Native Database via Disaggregated Shared Memory》获得了Industry Track Best Paper Award,这是中国企业独立完成的成果首次摘得SIGMOD最高奖。PolarDB-MP是基于分布式共享内存的多主云原生数据库,本文将介绍这篇论文的具体细节。
内附原文|详解SIGMOD’24最佳论文:PolarDB如何破解多主架构经典难题?
|
23天前
|
Oracle 关系型数据库 分布式数据库
PolarDB助力欧派家居核心系统去O上云,每秒处理万次事务
欧派家居选择阿里云PolarDB-PG数据库,因其顺应云趋势,提供稳定服务,提升扩容和运维效率。欧派运维负责人表示,PolarDB-PG云上运行优于自建Oracle,云运维响应更快,解决问题效率更高。
|
1月前
|
存储 关系型数据库 分布式数据库
【PolarDB开源】PolarDB高可用架构解析:确保业务连续性的关键设计
【5月更文挑战第22天】阿里云PolarDB是一款高可用、高性能的云原生数据库,采用分布式共享存储架构实现计算与存储分离。通过主从复制保证数据实时同步,当主节点故障时,从节点能快速接管。此外,PolarDB提供自动故障转移和数据备份恢复功能,确保业务连续性和数据安全性。一个简单的Python SDK使用示例展示了查询数据的过程。总之,PolarDB通过多种机制保障了企业在异常情况下的服务稳定和数据完整性。
219 5
|
1月前
|
监控 关系型数据库 分布式数据库
【PolarDB开源】PolarDB监控与报警系统构建:确保数据库健康运行
【5月更文挑战第23天】阿里云PolarDB因其存储计算分离、高兼容性等特性受企业青睐。为了确保其稳定运行,文章介绍了构建PolarDB监控与报警系统的做法。通过阿里云云监控服务开启和自定义监控视图,关注CPU、内存等关键指标,并设置告警规则。此外,通过自定义脚本与开源工具集成,满足特殊监控需求,实现全面、精准的监控报警,保障数据库健康运行。
262 2
|
1月前
|
关系型数据库 分布式数据库 数据库
电子好书发您分享《PolarDB分布式版架构介绍》
阅读阿里云电子书《PolarDB分布式版架构介绍》,深入理解这款高性能数据库的分布式架构设计。书中通过图文并茂的方式揭示了PolarDB在分布式场景下的核心特性和技术优势,适合数据库爱好者和云计算从业者学习。[阅读链接](https://developer.aliyun.com/ebook/8332/116553?spm=a2c6h.26392459.ebook-detail.5.4ab72ccbIzDq2Q)
17 1
|
1月前
|
存储 SQL 关系型数据库
电子好书发您分享《PolarDB分布式版架构介绍》
**PolarDB分布式版详解:** 阿里云的PolarDB采用计算存储分离架构,利用GMS进行元数据管理,CN处理分布式SQL。结合PolarFS,实现高效存储与计算,支持大规模扩展。[阅读完整架构介绍](https://developer.aliyun.com/ebook/8332/116553?spm=a2c6h.26392459.ebook-detail.5.5b912ccbE20nqg)
15 2
|
1月前
|
存储 Cloud Native 关系型数据库
电子好书发您分享《PolarDB分布式版架构介绍 PolarDB分布式版架构介绍》
探索阿里云PolarDB分布式版的架构深度解析,该书详述了这款高性能云原生数据库的设计理念与技术特点,包括存储计算分离、水平扩展及分布式事务支持。[阅读电子书](https://developer.aliyun.com/ebook/8332/116553?spm=a2c6h.26392459.ebook-detail.5.35da2ccbye9KOt)
21 3

相关产品

  • 云原生数据库 PolarDB