典型场景解析|PolarDB分布式版如何支撑SaaS多租户?

本文涉及的产品
云原生数据库 PolarDB MySQL 版,Serverless 5000PCU 100GB
云原生数据库 PolarDB 分布式版,标准版 2核8GB
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: 谈谈PolarDB分布式版如何玩转SaaS多租户

文/城璧

SaaS多租户背景


很多平台类应用或系统(如电商CRM平台、仓库订单平台等等),它们的服务模型是围绕用户维度(这里的用户维度可以是一个卖家或品牌,可以是一个仓库等)展开的。因此,这类型的平台业务,为了支持业务系统的水平扩展性,业务的数据库通常是按用户维度进行水平切分。


可是,当平台类应用的一些用户慢慢成长为大用户(比如大品牌、大卖家、大仓库等)后,这些大用户由于其数据量或流量明显要比其它用户多得多,容易导致以下的现象:


▶︎ 大用户所在分片会成为业务系统的热点,占用大量的数据库资源,其服务质量容易因资源受限导致不稳定;

▶︎ 其它小用户容易受到大用户资源消耗的影响,服务质量也受到影响。


最后就整个平台的业务系统的热点频现,数据库访问不稳定,业务服务受影响。


SaaS多租户模型作为一种应用的架构,常用来解决业务的上述问题。在SaaS多租户模型中,业务系统会需要服务多个用户,每个用户(或每批用户)可以被视为一个租户。


这些不同的租户在业务系统内会使用共同的基础设施及其平台进行运行,但来自不同租户的数据仍将被独立隔离,因此,通常租户拥有自己物理资源来单独存储与管理数据。所以,SaaS多租户解决业务系统稳定性问题以及租户资源弹性定制的核心思路,就是租户间的资源隔离及数据隔离。


在实际的不同应用场景下,常见的 SaaS 多租户方案有两种:


▶︎ Schema级SaaS多租户


Schema 级 SaaS 多租户,是指一个租户对应一个包含多个Table定义的Schema(或一个Database,在MySQL, Schema概念等同Database), 不同租户的Schema会分布在不同的机器上(如下图1所示),实现资源隔离,该方案适用于不同租户需要使用独立Schema运行的场景;


多租户配图01.png


▶︎ Partition级SaaS多租户


Partition 级 SaaS 多租户,是指一个租户会对应一个Table的一个或多个的分区(或是一个Table的一部分rows),不同租户的Parittion会分布在不同的机器上(如上图2所示),以实现资源隔离,该方案比较适用于不同租户需要使用统一Schema运行的场景。


从隔离程度来看, Schema 级 SaaS 多租户比 Partition 级 SaaS 多租户要隔离得更彻底,但前者因为要维护众多的Schema,会比后者会带来更高的运维成本及查询分析成本。


不过,Partition级SaaS多租户通常要依赖中间件分库分表或分布式数据库分区功能(不然单机数据库无法做到资源隔离)才能运作,而Schema级SaaS多租户则不需要,用户自己搭建几个单机MySQL也可以运作起来,准入门槛更低。


业务的问题

业务多租户场景

只说应用架构可能有些抽象,为了方便读者更容易地理解 SaaS 多租户是如何帮助业务解决问题, 本文将以一个真实的案例来进行阐述。


正马软件的班牛平台是国内领先的提供电商全周期客户服务的卖家订单管理平台(以下简称B公司)。它的业务系统需要维护多个不同品牌的众多卖家。通常一个品牌会有多个卖家(比如,一个品牌可能会开通多个线上店铺),所以,品牌与卖家是一对多的关系。


目前,B公司的订单管理平台管理着超过50T的订单数据,日QPS近3W+,不同品牌的订单量差异会比较大(大品牌的订单可能是小品牌的订单量的近百倍或更高)。一些大品牌除了订单量比其它品牌的大很多之外,还会使用更高级的付费VIP服务:比如,要求订单数据独占资源与数据隔离、允许独立地统计分析自己品牌的订单数据等。


B公司为了解决不同品牌的数据的资源使用及其服务差异,就会对它的卖家按品牌划分(相当于一个品牌是一个租户)


大品牌诉求:

订单量大(如订单数据存储的大小超过1T或2T),数据存储量大;

独占一组的存储资源、有独立访问分析数据的需求;

该品牌的所有商家都必须同一组的存储资源;

大品牌的大卖家150+,后边还会陆续增加;


小品牌诉求:

订单表小,商家数目大(6W+卖家);

共用一组存储资源;

要求所有卖家数据在存储上均衡分布。


现在的核心问题是,B公司的订单管理平台的数据库应该如何设计,才能满足上述众多不同品牌及其大卖家对于不同资源使用与数据隔离的诉求


普通中间件方案及其问题


对于上述的业务场景,B公司若不使用分布式数据库,而是简单通过单机MySQL及一些开源的分库分表中间件,自己搭建一套SaaS多租户方案(比如将品牌及其卖家切分为租户),进行租户的资源隔离。表面上,这貌似可行;但实际上,业务会因此要面临更多更为棘手的问题。


首先是跨机分布式事务问题。绝大多数的分库分表中间件无法提供强一致分布式事务能力,或者只能提供基于最终一致性的事务补偿方案,这意味着业务需要做很多额外的应用改造成本,才能尽量来避免跨机事务导致业务出现报错。


然后是 Schema 一致性问题。基于中间件分库分表,无论是采用 Schema 级多租户及是 Partition 级多租户,B公司的订单平台都要面临自己维护各个租户的 Schema 或 Table 的元数据一致性。比如,MySQL的建删表、加减列、加减索引等常见的DDL操作,中间件的方案无显然法保证平台所有租户的表能同时生效,一旦执行中断,必须靠人工介入来订正,人力成本高。


接着是租户的数据迁移问题。基于SaaS多租户方案,B公司若要给一个大品牌分配新的独立资源,这自然免不了将租户数据从原来机器到新机器的数据迁移。这个数据迁移操作只能依赖额外的同步工具构建同步链路才能完成,这中间切割过程甚至还需要业务停机。这意味,业务执行添加一个新租户这一基本操作,也会带来非常高昂的运维成本。


综合上述的分析,B公司直接基于单机MySQL及一些中间件的SaaS多租户方案,并不是一个成本低廉的方案。


SaaS多租户PolarDB分布式版方案


事实上,在阿里云瑶池旗下的云原生数据库PolarDB分布式版 2.0(PolarDB for Xscale,简称PolarDB-X) 中,B公司已经可以通过结合非模板化二级分区Locality两项能力,来很好的解决其上述业务所面临的问题。为了方便读者更易理解,以下先简单介绍下 PolarDB分布式版 2.0 的非模板化二级分区与Locality两项的功能。


非模板化二级分区

PolarDB分布式版 从 5.4.17 开始支持使用二级分区创建分区表。与其它分布式数据库所有不同,PolarDB分布式版的二级分区除了语法能完全兼容原生MySQL二级分区语法外,还额外扩展很多的二级分区的能力,比如:支持用户定义非模板化二级分区(原生MySQL只支持模板化二级分区)


所谓的非模板化二级分区,就是各个一级分区之下的二级分的分区数目及其边界值定义允许不一致,如下所示:


1692547053618-024ac3e1-ab7f-4cda-a607-dd864bead7b5.png


/* 一级分区 LIST COLUMNS + 二级分区HASH分区 的非模板化组合分区 */CREATETABLE t_order /* 订单表 */( id bigintnotnull auto_increment, sellerId bigintnotnull, buyerId bigintnotnull, primary key(id))PARTITION BY LIST(sellerId/*卖家ID*/)/*  */SUBPARTITION BY HASH(sellerId)(  PARTITION pa VALUESIN(108,109)    SUBPARTITIONS 1/* 一级分区 pa 之下有1个哈希分区, 保存大品牌 a 所有卖家数据 */,  PARTITION pb VALUESIN(208,209)    SUBPARTITIONS 1/* 一级分区 pb 之下有1个哈希分区, 保存大品牌 b 所有卖家数据 */,  PARTITION pc VALUESIN(308,309,310)    SUBPARTITIONS 2/* 一级分区 pc 之下有2个哈希分区, 保存大品牌 c 所有卖家数据 */,  PARTITION pDefault VALUESIN(DEFAULT)    SUBPARTITIONS 64/* 一级分区 pDefault 之下有64个哈希分区, 众多小品牌的卖家数据 */);

基于上述的 LIST+HASH 非模板化二级分区,它能给应用直接带来的的效果是:


  • 对于大品牌的卖家(相当一个租户),可以将数据路由到单独的一组分区;
  • 对于中小品牌,可以将数据按哈希算法自动均衡到多个不同分区,从而避免访问热点。


当大品牌与中小品牌的商家数据按LIST分区实现了分区级的隔离后,那实现大品牌与中小品牌的存储资源的物理隔离也就自然而言的事了。在 PolarDB分布式版 2.0 中,用户可以借助Locality的能力,很容易地实现不同分区之间的资源隔离。


LOCALITY资源绑定


PolarDB分布式版支持通过LOCALITY关键字来指定数据库分区的实际存储资源位置(PolarDB分布式版中存储资源由多个数据节点(DN节点)组成,可以通过DN的ID进行位置分配),以实现数据隔离或数据的均匀分布。它的具体语法如下所示:


ALTERTABLE #tableName 
MODIFY (SUB)PARTITION #(sub)partName 
SET LOCALITY='dn=dn1[, dn2,...]'

例如,B公司可以使用以下的SQL命令将 t_order 中的大品牌 pa 的数据全部单独挪到一个存储节点 dn4 :

ALTERTABLE t_order MODIFY PARTITION pa SET LOCALITY='dn=dn4'

在实际使用中,用户可以通过 SHOW STORAGE 查询 PolarDB-X 的所有DN节点实例ID列表,例如:

mysql> show storage;+----------------------------+----------------+------------+-----------+----------+-------------+--------+-----------+------------+--------+| STORAGE_INST_ID            | LEADER_NODE    | IS_HEALTHY | INST_KIND | DB_COUNT | GROUP_COUNT | STATUS | DELETABLE | DELAY      | ACTIVE |+----------------------------+----------------+------------+-----------+----------+-------------+--------+-----------+------------+--------+| polardbx-storage-0-master  |10.0.x.1:3306|true| MASTER    |41|66|0|false|null|null|| polardbx-storage-1-master  |10.0.x.1:3307|true| MASTER    |41|53|0|true|null|null|| ......                     | ......        |true| META_DB   |2|2|0|false|null|null|+----------------------------+----------------+------------+-----------+----------+-------------+--------+-----------+------------+--------+

设计SaaS多租户方案


回到之前B公司的例子,B公司的核心需求是要实现大品牌与中小品牌的卖家数据及其存储资源的隔离。那么,B公司可以在上述的二级分区的分区表的基础上,通过再给每个一级分区增加对应的LOCALITY定义,以指定一级分区及其所有二级分区所允许使用的存储资源,那么业务就可以在建表阶段直接实现SaaS层多租户(即品牌方)存储资源的隔离,如下所示:


1692581970826-356f161c-cb5f-4894-90e5-705e61b99786.png

/* 一级分区:list columns,二级分区:key 的非模板化组合分区 */CREATETABLE t_orders /* 订单表 */( id bigintnotnull auto_increment, sellerId bigintnotnull, buyerId bigintnotnull, primary key(id))PARTITION BY LIST(sellerId /* 卖家ID */)SUBPARTITION BY HASH(sellerId)(  PARTITION pa VALUESIN(108,109,....)    LOCALITY='dn=dn16'/* 大品牌 pa 独占一个DN dn4 */    SUBPARTITIONS 1,  PARTITION pb VALUESIN(208,209,....)    LOCALITY='dn=dn17'/* 大品牌 pb 独占一个DN dn5 */    SUBPARTITIONS 1,  PARTITION pc VALUESIN(308,309,310,...)    LOCALITY='dn=dn18,dn19'/* 大品牌 pc 独占两个DN: dn6 与 dn7 */    SUBPARTITIONS 2,  PARTITION pDefault VALUESIN(DEFAULT)/* 一级分区 pDefault 占用 dn0 ~ dn15 共16个DN, 中小品牌共享 */    LOCALITY='dn=dn0,dn1,...,dn2,dn15'    SUBPARTITIONS 64);

如上图所示,通过Locality对各个一级分区的DN节点资源的绑定,pa、pb、pc这3个大品牌的租户被分别配了DN16、DN17 与 DN18~DN19 3组的节点资源,而中小卖家池的 pDefault 分区则被绑定了16个DN节点。


SaaS多租户运维管理


当二级分区及Locality能力解决了B公司对于不同品牌的多租户资源隔离后, 那马上需要面临的问题自然是:用户将如何有效便捷地管理这些多租户?答案是 PolarDB分布式版 2.0 的分区管理能力


PolarDB分布式版 2.0 对于分区表提供了一系列完备的灵活强大的分区管理命令(如下图所示),让用户能够仅仅通过简单SQL命令,就可以实现在多租户场景下的不同运维变更的诉求。


1692583379289-c173420e-d0ed-439d-af64-c90a7a1eb8e9.png


接下来我们还是通过B公司的例子,来单独介绍基于分区管理支持SaaS多租户场景下的常见的运维变更


场景一:基于修改LIST分区实现给租户添加新的卖家


以B公司为例,B公司的一个租户对应的是一个品牌方,一个品牌在B公司的平台通常会有多个卖家。因此,当品牌方开了新的商铺时,就需要将新的卖家ID加入到这个品牌方对应的租户资源之下。


借助 PolarDB-X 的 MODIFY PARTITION ADD/DROP VALUES 的功能,可以方便地给 LIST 分区添加新的卖家ID,如下所示:


/* 给品牌 pb 增加新的卖家 205 */ALTERTABLE t_orders MODIFY PARTITION pb ADD VALUES(205);


在这个DDL的执行中,PolarDB分布式版会自动地从 LIST 的 DEFAULT 分区(如果有显式定义 DEFAULT 分区的话)抽取 sellerId=205 的所有数据,并迁移到 pb 分区中,DDL 全过程 Online ,业务应用几乎无感知。


场景二:基于增加LIST分区实现给添加新租户并分配新的存储资源


诸如B公司这类订单管理平台,平台上的各品牌的卖家通常会经历从无到有,从小卖家发展成大卖家的过程。因此,当一个品牌的小卖家发展成一个大卖家时,该品牌就可能会让 B公司将它的卖家从中小品牌的卖家池(比如DEFAULT分区)中抽取了出来,使之成为独立租户的VIP,并为之分配单独的存储资源。


借助PolarDB分布式版的 ADD/DROP PARTITION 及其 Locality 的功能,B公司可以很便捷地在线地完成上述场景的变更操作。例如,B公司想将新的大品牌 pe 的大卖家 301 从 DEFAULT 分区中抽取出来,并使之独占新的存储资源 new_dn ,如下所示:

/* 1.B公司在管控购买新的 CN/DN 的节点资源... *//* 2.增加新的大卖家,创建新分区并放置到特定的DN节点 */ALTERTABLE t_orders ADD PARTITION (/* pDefault 分区里再抽取出新的大卖家 301 , 并命名为 pe, 并将其数据放置新节点 new_dn */  PARTITION pe VALUESIN(301) LOCALITY='dn=new_dn' SUBPARTITIONS 1,);

与MODIFY PARTITION类似,这些ADD/DROP PARTITION的变更操作也属于Online DDL, 这中间的数据迁移操作对业务应用近乎透明。


场景三:基于分区级Locality支持租户内二级分区数据的重均衡


PolarDB分布式版的LIST + KEY非模板化二级分区,在多租户场景下,能给用户提供一个重要的特性,就是它允许不同的租户的二级哈希分区数目不一样。这样意味着,不同的租户允许通过定义不同的二级分区数目,可以使用不同数量的存储资源。


例如,B公司的 t_orders 表的 LIST 分区定义中,大品牌 pc 的一级 LIST 分区之下的二级分区数目是2,并同时独占了2个DN节点来存储订单数据(即 pc 分区的每个DN节点都分配一个二级分区)。此外,还有它的中小品牌的卖家所共享的 DEFAULT 分区之下有64个二级分区,并且还独占 dn0 ~ dn15 共16个DN节点(如下所示)


 PARTITION pDefault VALUESIN(DEFAULT)/* 一级分区 pDefault 占用 dn0 ~ dn3 共16个DN, 中小品牌共享 */    LOCALITY='dn=dn0,dn1,...,dn2,dn15'    SUBPARTITIONS 64


可是,DEFAULT分区里的众多中小卖家也可能存在一些热点(比如,20%的头部卖家可能占订单数量80%),这些热点卖家如果分布不合理,也可能会导致DEFAULT内部的16个DN节点间负载不均衡。


因此,B公司需要面临的问题是:该如何管理这64个二级分区的众多中小卖家的订单数据,才能相对均衡地分布到这16个DN节点,并保证系统整体的负载均衡呢?这就是需要使用PolarDB分布式版的分区级Rebalance能力


PolarDB分布式版的分区级 Rebalance 功能允许用户对一个一级分区内部的多个二级分区,按一级分区的 Locality 进行自动的物理分片调度,使这些二级分区在 Locality 所定义的DN节点上保持均衡分布。用户只需要执行一条SQL命令(如下所示), 即可完成上述的均衡变更:


REBLANCE TABLE t_orders PARTITIONS=pDefault;


场景四:基于分区选择及视图功能支持租户的数据查询及数据安全


PolarDB分布式版的分区表及Locality的SaaS级多租户能力,对于诸如B公司这类订单管理平台,除了能满足其对品方的数据隔离与资源隔离的诉求外,还可以为业务提供更多的数据查询的能力。


比如,B公司平台上的大品牌,偶尔还需要使用诸如独立查询及分析自己的订单数据等的VIP服务。这些品牌方会通过B公司所提供一些Web SQL工具来直接查询分析自己的订单数据(比如查询重要客户的订单数目等)


可是,B公司作为平台性的系统,它需要保证不同租户间的数据安全及其隔离:即租户查询订单数据只能看到自己的数据,无法看到其它租户的任何数据。


那么,基于PolarDB分布式版的分区表,B公司是如何解决不同租户的数据隔离的问题呢?答案是借助分区选择与视图定义


比如,B公司如果想授权它的租户 pb 单独查询及分析它自己的订单数据,它的Web SQL工具将会自动化地使用类似以下的SQL命令提前在PolarDB分布式版上为该租户 pb 创建出对应的只读视图 t_order_pb_view :


CREATE VIEW t_order_pb_view ASSELECT*FROM t_orders PARTITION(pb)/*  t_orders 表的数据只会返回 pb分区以及下所有二级分区 */;


然后,平台再通过对租户 pb 账号信息进行自动化的相关授权操作后,租户 pb 在其所提供的 Web SQL工具里登录后将只允许看到 t_order_pb_view 这个只读视图。


那么,假如租户要执行诸如下边所示的这类的统计订单总数的视图查询:


/* 大租户 pb  查询订单数据的SQL:统计订单数目 */SELECTCOUNT(1)FROM t_order_pb_view;


PolarDB分布式版将自动地把视图 t_order_pb_view 替换为对应的子查询:


/* 大租户 pb  查询订单数据的SQL:统计订单数目 */SELECTCOUNT(1)FROM(SELECT*FROM   t_orders PARTITION(pb))as t_order_pb_view;


如此一来,基于分区选择语法的限定,视图 t_order_pb_view 将只允许返回 pb 分区的数据。这样租户 pb 无法查询到其它租户的卖家订单数据,从而达到数据隔离的效果。


实践总结


PolarDB分布式版分区表及其配套的灵活的管理语法,在不同的业务场景下,可以包装出各种业务模型。比如,本文所介绍的基于非模板化二级分区 + Locality能力的所构建的SaaS多租户就是其中的经典用法之一


事实上,本文所提及的真实案例的B公司的商家订单管理系统已经基于上述的 PolarDB分布式版 2.0 的 SaaS 多租户方案成功上线(其应用架构如下图所示),目前它所提供的平台负责管理着超过50T的订单数据。


多租户配图01.png


但是,B公司的案例显然是一个能够复制并推而广之的案例。比如,它的租户维度--品牌,可以很容易联想到其它的业务维度并可以构建类似的实践,比如:各大仓库物流单管理、直播平台各直播室的观众送礼物的数据管理、各大城市交通监控数据管理、各大省份气象监控数据收集,等等。


简单总结一下最佳实践,若业务场景存在:


▶︎ 需要对数据按某个维度(如地域、仓库、商家或品牌等)进行水平切分,划分多个业务单元;

▶︎ 还需要为切分后的业务单元进行不同的资源配置及数据的物理隔离;


涉及到以上几点的用户都可以参考使用本文SaaS多租户方案进行数据库设计。




云原生数据库PolarDB分布式版(PolarDB-X)大降价,价格下调40%,最低至0.75元/小时点击链接即可查看详情~

相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
相关文章
|
4月前
|
存储 关系型数据库 数据库
postgresql|数据库|提升查询性能的物化视图解析
postgresql|数据库|提升查询性能的物化视图解析
160 0
|
1月前
|
存储 测试技术 C++
P2P网络下分布式文件共享场景的测试
P2P网络下分布式文件共享场景的测试
33 6
|
2月前
|
关系型数据库 MySQL 分布式数据库
PolarDB for MySQL数据库外网连接解析失败的原因
【2月更文挑战第5天】PolarDB for MySQL数据库外网连接解析失败的原因
63 8
|
2月前
|
SQL 存储 分布式计算
一文讲解分布式场景怎么Join
发现System R中对于Join操作的定义一般分为了两种,即嵌套循环、排序-合并联接。在原文中,更倾向使用排序-合并联接逻辑。
33 4
|
3月前
|
人工智能 弹性计算 PyTorch
【Hello AI】安装和使用AIACC-ACSpeed-分布式训练场景的通信优化库
AIACC-ACSpeed专注于分布式训练场景的通信优化库,通过模块化的解耦优化设计,实现了分布式训练在兼容性、适用性和性能加速等方面的升级。本文为您介绍安装和使用AIACC-ACSpeed v1.1.0的方法。
|
3月前
|
关系型数据库 MySQL 分布式数据库
PolarDB for MySQL数据库外网连接解析失败的原因可能有以下几点
【1月更文挑战第21天】【1月更文挑战第105篇】PolarDB for MySQL数据库外网连接解析失败的原因可能有以下几点
45 1
|
3月前
|
关系型数据库 MySQL 分布式数据库
PolarDB MySQL企业版产品系列:满足不同场景需求的解决方案
PolarDB MySQL企业版产品系列:满足不同场景需求的解决方案 在数字化时代,企业对于数据处理的需求越来越多样化,对于数据库的选择也更为谨慎。PolarDB MySQL版为了满足不同场景的需求,提供了单节点、集群版、高压缩引擎(X-Engine)和多主集群(库表)4种不同的产品系列。下面我们将对这4种产品系列进行简要介绍,以帮助您更好地了解它们的特点和适用场景。
120 1
|
4月前
|
关系型数据库 MySQL 分布式数据库
PolarDB auto_inc场景下的性能优化实践
PolarDB auto_inc场景下的性能优化实践 在数据库的使用场景中,并发插入数据或并发导入数据场景是最常见的。针对这一场景,PolarDB MySQL版进行了深度性能优化,以提高插入性能。本文将详细介绍PolarDB在auto_inc场景下的性能优化相关内容。
63 2
|
4月前
|
SQL 关系型数据库 分布式数据库
深度解析PolarDB数据库并行查询技术
深度解析PolarDB数据库并行查询技术:加速SQL执行的关键问题和核心技术 随着数据规模的不断扩大,用户SQL的执行时间越来越长,这不仅对数据库的优化能力提出更高的要求,并且对数据库的执行模式也提出了新的挑战。为了解决这个问题,许多数据库系统,包括Oracle、SQL Server等,都开始提供并行查询引擎的支持,以充分利用系统资源,达到加速SQL执行的效果。本文将深入探讨基于代价进行并行优化、并行执行的云数据库的并行查询引擎的关键问题和核心技术。
123 2
|
4月前
|
SQL 关系型数据库 数据库
postgresql|数据库|pg数据库的文件系统详解---最全面的解析
postgresql|数据库|pg数据库的文件系统详解---最全面的解析
124 0

相关产品

  • 云原生数据库 PolarDB