从DynamoDB 2022 Paper回看Lindorm的一些设计

本文涉及的产品
云原生多模数据库 Lindorm,多引擎 多规格 0-4节点
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
简介: 一向低调的AWS终于在2022年发了一篇关于DynamoDB的论文——《 Amazon DynamoDB: A Scalable, Predictably Performant, and Fully Managed NoSQL Database Service》。

关于论文


一向低调的AWS终于在2022年发了一篇关于DynamoDB的论文——《 Amazon DynamoDB: A Scalable, Predictably Performant, and Fully Managed NoSQL Database Service》。(论文地址:https://www.usenix.org/system/files/atc22-elhemali.pdf这已经距离DynamoDB发表的第一篇论文已经过去了15年。当然,业界的人都知道,15年前的那一篇《Dynamo Amazon's Highly Available Key-value Store》与现在在AWS运行的DynamoDB没有任何关系,原作者从Amazon跳槽到FaceBook,做出了Cassandra,因此它实际上是Cassandra的理论基础。所以,外界都只能通过AWS公开的文档和演讲中来对DynamoDB的架构和细节管中窥豹。从DynamoDB 2012年在AWS上线到现在已经十年了,也许这篇文章,就是DynamoDB团队为大家献出的十周年庆典回馈活动吧。


DynamoDB 2022 Paper是一篇典型的Industry Paper,整篇读下来没有复杂的理论和公式,连文章最后的性能测试放上的几张图,都感觉有拼凑嫌疑……在文中大量的篇幅,都是在讲DynamoDB这十年来面对业务的需求和面对Serverless这个模式的挑战下的不断改进和经验总结。比如论文中还详细讲了DynamoDB怎么去升级和回滚,把版本bug的影响降到最低,这对于同在产业界的我们来说,这些经验和教训真的是感同身受。


无独有偶,Lindorm基本上是与DynamoDB正式发布的差不多时间在阿里上线的。Lindorm在阿里的发展也十年有余了。Lindorm的发展路线基本与DynamoDB一致,先是在阿里内部支撑海量的电商业务,如淘宝订单,菜鸟物流,支付宝风控等等,到后来开始在阿里云上对外售卖,逐渐转变成一个云原生的多模数据库,以低成本,海量存储,高吞吐,高扩展性,高性能等特点支持了云上各类客户。DynamoDB2022Paper中说他在去年的Prime Day购物节中,最高QPS达到了8000万/s,而实际上在去年双十一时,阿里内部所有Lindorm集群的峰值吞吐达到了8.8亿/s。从这点上来看,Lindorm的实际规模已经远远大于DynamoDB的部署。


当然,DynamoDB和Lindorm在定位上还是有一些差异的,Lindorm通常面对的都是有海量存储需求的大客户,而DynamoDB更看重全托管,开箱即用,按需付费等等。但是同样做为一个分布式的NoSQL数据库,很多设计的思考都是相通的。特别是这几年Lindorm也做了一些Serverless的尝试和热点自愈的工作,和paper中提到的还是有一些类似的。


所以,我这篇文章不单单是DynamoDB论文的一篇解读文章。我觉得单纯解读太没意思了,肯定有人会把这篇论文翻译成中文。我更想在这篇论文中找出几点我特别有感触的,讲讲DynamoDB和Lindorm在对待这些问题上的思考和实现有一些什么异同。让大家不仅能去了解DynamoDB的设计,还能获得一些从未对外公开的Lindorm设计细节的干货。


关于CU和限流


做为一个Serverless数据库来说,限流是一个再重要不过的能力了。因为DynamoDB就是靠计算用户的读写量去计费的。在DynamoDB中,定义读4KB的数据叫做1个RCU,写1KB的数据叫做1个WCU,然后DynamoDB按照用户购买的RCU,WCU收取计算费用和限流(Provision模式,On-Demand模式另说)。至于为什么读4KB会计算成1个RCU,而写1KB就算成一个WCU我猜测因为DynamoDB的存储实际上是B树,对于B树结构来说,写的代价要比读的代价要高。另外DynamoDB有一个硬限制每个Partiton不能超过1000个CU。这样,DynamoDB在用户购买时,就会给用户预分区。比如文中的举例,如果用户购买了3200WCU,那么在初始化表时,DynamoDB会自动分出4个Partition,每个partition限流800WCU。也就是说DynamoDB最初的限流是非常简单粗暴的,限流就是预先分给每个Partition的值,达到了就会限流。这样就会出现两个问题:


1. 当单个Partition的访问量超过了800WCU,立马就会限流,而达不到用户买的3200WCU;

2. 如果用户购买了6000WCU,由于DynamoDB的单Partition最多只能承载1000个WCU,DynamoDB会把用户之前的4个Partition分裂成8个,这样每个Partition的限流值反而下降为6000/8=750WCU,每个Partition的限流值下降了,如果此时用户又把6000WCU改回3200WCU,那更糟糕了,每个Partition最多只能请求3200/8=400WCU,用户提升了然后下降了provision的WCU,Partition能承载的WCU却降了一半,用户一脸懵逼。


这样的使用体验是很差的。所以DynamoDB做了两个改进。第一个改进是Burst。所谓burst,就是支持把前几秒没用完的Quota攒起来,当用户超过预设的限流值时,可以先消耗之前攒的WCU,而不会触发限流。但这个攒CU是有限的,DynamoDB支持最多攒5分钟的CU。而且,尽管DynamoDB没有在论文和任何文档中提起,我觉得攒的这个CU应该是不能超过每个Partition 1000WCU这个硬限制的。Burst解决了用户短暂的突发流量访问的问题,但是,如果用户的数据访问本身就是倾斜的(这种Case是非常常见的),burst没法解决这样的问题。

1.png

因此DynamoDB又做了一个Adaptive Capacity。简单来说,就是自动地按需调整每个partition的限流值。如上图中的例子,用户买了400WCU,表有4个Partition(除了CU限制,如果Partition大小超过10GB,DynamoDB也会分裂),每个Partition可以有100WCU,如果用户的请求在Partition4上比较多,DynamoDB会自动地把Partition4的限流设置为150,当然,表上总的CU不能超过购买的400。


在我看来,Adaptive Capacity是一个滞后的调整方案,也就是说用户可能先会遭受限流的抛错,DynamoDB识别到了这种情况,才能做自适应地调整。而且,整个DynamoDB限流是按Partition来做的初衷是想让整个架构简单,不想引入一个中心节点来做限流控制,而Adaptive Capacity功能使DynamoDB不得不引入一个Global Admission Control(GAC)角色来做整个集群的调解和控制,原本想极力避免的设计复杂性又不得已加了回来。


其实,DynamoDB的限流策略并非首次公开,Burst和Adaptive Capacity在DynamoDB的文档中已经有过详细描述。Lindorm在做限流模块时,也研究过DynamoDB的这些策略,我们觉得DynamoDB的限流策略并不是特别的好(但论文中宣称做了Burst和Adaptive Capacity后解决了99.99%的数据倾斜访问问题,只能说DynamoDB面对的客户和Lindorm差异非常大)。


所以Lindorm在设计自己的限流模块时遵循了3个原则:


1. 数据倾斜访问是常态,即使用户只访问一个Partition,也必须达到用户在表上设置的限流值;

2. Quota模块不能影响正常请求的RT ;

3. 限流中心不能是系统单点,即使限流中心宕机,不影响正常请求。因此,Lindorm设计了如下图的限流方案。

2.png

这个系统设计的核心是,用户在请求过程中不会和限流中心做交互,全程只和本地的QuotaProxy打交道(全内存操作),用户请求完成后,会告诉QuotaProxy这个请求的消耗(对,Lindorm也用了WCU和RCU的概念,本章的末尾会回来讨论Capacity Unit这个东西),QuotaProxy会定期向QuotaCenter汇报用户的消耗,这样QuotaCenter的压力也只和服务器的规模相关,与用户的请求无关。QuotaCenter接收各个服务器的汇报后,计算出这个用户这一秒还有没有Quota,如果没有了,就会反馈给QuotaProxy。这样,下次用户来请求的时候,就会在Check本地的QuotaProxy过程中收到Quota超限的错误。留给读者思考下,这样的设计是怎么满足上面的三个原则的。


Lindorm也是用了WCU和RCU的定义来衡量请求的消耗。但靠计算请求的数据的大小真的能非常准确地衡量请求的资源消耗吗?答案是否定的。举一个简单的例子,select * from table where a > 1 和 select * from table where a like '%xx%'这两个请求即使扫描的数据一样,而实际上消耗的CPU完全是不一样的。所以用数据大小来衡量请求消耗只是一个极度简化的模型。所以像做的比较好的Azure Cosmos的RU(Rquest Unit)模型定义,会更加复杂,他会把请求的编译时间,CPU的消耗,数据量大小都会考虑成RU的一部分。当然,这也是一把双刃剑,本来用户去评估需要买的CU就已经比较困难了,如果像Cosmos的这种定义,恐怕没有几个业务能够准确估算自己业务的预算。


关于热点和负载均衡


负载均衡是分布式系统一项非常重要的功能,热点的partition也是切片数据库非常常见的问题。当DynamoDB只有Provision(预留)模式时,负载均衡是非常好做的,因为每个Partition的流量上限是定死的,系统只需要平均分配这些Partition,让他们provision的总值在各个服务器上差不多即可。如果有用户改变了Provision的值,只需按照新的预留值该split的split,该重新分配的重新分配服务器,不需要太复杂的算法。但是,当DynamoDB上了On-Demand(按量付费)模式时,负载均衡会变得更加复杂。用户的每个Partition上没有固定的限流值了,用户想用多少就用多少,然后按照请求量取付费。这个模式下会对负载均衡系统提出非常大的挑战。同时,Burst和Adaptive Capacity也会带来很多流量会超限的Partition,文中称其为“noisy neighbors”。DynamoDB2022Paper中提到为了解决负责均衡的问题,他们实现了一套系统去监控每个节点的吞吐,如果出现节点负载过高或者不均衡的情况,就会自动发起一次partition的move操作。另外,当Partition的请求达到一定阈值,就会触发Partition的分裂,并且这个split point不单单是从Partition的中间,而是会分析流量,找到最佳的split point。并且,文中还特别提到,DynamoDB能够识别顺序写和单key热点,这两种热点情况,即使split也是没有效果的。


论文中没有透露DynamoDB中怎么实现这个热点识别和负载均衡的细节,但是,Lindorm在处理这些问题上的思路其实和DynamoDB是差不多的,我可以给大家讲讲在Lindorm中是怎么做的。在Lindorm中,其实负载均衡的问题会更加棘手,因为在Lindorm中是不会给每个partition去设置限流的,因此不能像DynamoDB那样根据每个Partition的WCU/RCU去做负载均衡。因此,必须要找到一个准确衡量每个Partition消耗的方式,合理布局Partition到每台Server上。


Lindorm最先参考的是HBase的StochasticLoadBalancer。这个Balancer和它的名字一样,异常复杂。它会根据读请求数,写请求数,文件数,本地化率等一系列条件做为输入,通过用户配置的权重因子,计算出一个集群均衡指数,然后再根据这个指数来进行Partition的负载均衡。这个算法初衷是挺好的,把能考虑到的因素都计算在内了,但在实际的环境中,有的集群读多写少,有的集群读少写多,而且集群的情况在时刻变化。如果在Lindorm上使用这样一个Balancer,面对不同的负载,那么我们的运维将陷入无尽地调参中不能自拔……


其实,StochasticLoadBalancer是想雨露均沾,合成一个准确衡量Partition资源消耗的值。那有没有这样一种衡量手段,能够非常简单直白,而又能相对准确地衡量每个Partition的资源消耗,来做为负载均衡的依据呢?其实是有的,这个值就是CPU时间片的消耗。不论是读还是写,只要是CPU时间片消耗的多,我们就可以认为这个Partition资源消耗比较大,因为对IO的消耗,最终也会反应到CPU上。有了每个Partition的CPU时间片消耗这个一个度量衡,那我们就可以对整个集群进行一些Partition(Lindorm中叫做Region)的swap操作,以达到一个每台服务器的CPU消耗均衡状态。这就是Lindorm的CpuUsageBasedBalaner。

3.png

另外一个就是热点Partition的split。和DynamoDB一样,Lindorm需要识别出热点Partition的热点类型,是顺序写,单key热点还是范围热点。如果是前两者,这样的热点Partition是没法用分裂来解决的,只能隔离。如果是范围热点,则需要知道范围热点的中间点在哪里,从中间切开,而不是像HBase那样对等分。为了做到这点,Lindorm是采用了请求采样的方式去做的。

4.png

热点识别+CPUbased负载均衡+Region Normalizer+单key热点限流+异常region隔离这几个模块统一形成了Lindorm的热点自愈方案。目前这套方案基本能给Lindorm自动解决90%以上的线上热点问题。


关于路由表


对于绝大部分分布式数据库来说,最绕不开的就是路由表了,从DynamoDB论文中的架构图可以看到,任何请求都需要去路由表上查询下真实后台服务器的地址。如果路由表的服务出现问题,那么用户的请求一定会受到影响。

5.png

减轻路由表服务压力的通常做法是加一层缓存。但是DynamoDB认为加缓存可能遇到冷启动时会造成缓存击穿,会造成各个系统的不稳定甚至级联宕机。而且命中缓存和不命中缓存的请求RT差异巨大,不利于降低请求毛刺。因此DynamoDB现在的做法是加了一个分布式内存存储MemDS来存储路由信息,MemDS可以水平扩展能够承受整个集群的请求。用户的请求只会和MemDS交互来查询对应key的路由信息。如果发生Partition的路由变动,也会通知MemDS来做一个内存信息的更改。如果用户请求从MemDS这里得到了滞后的路由信息,则会触发MemDS去查询真正的路由表来获取对的路由。这样的话,对路由表的查询压力量级大大减少,只有在抛错的情况下,MemDS才会去查询真正的路由表。冷启动时,路由表的信息也可以由其他MemDS节点同步,不会有冷启动打爆的问题。


在写这篇文档前,我也拜读过PingCap CTO黄东旭写的这篇《Some notes on DynamoDB 2022 paper》,这里面提到DynamoDB做这个改变也可能是2015年这次重大故障https://aws.amazon.com/cn/message/5467D2/后的反思。简单来说,那次DynamoDB上了全局二级索引后,对路由表的请求剧增导致了路由模块的崩溃,进而导致整个服务崩溃。其实Lindorm早期在使用HBase的架构时,meta表是一个强单点,同样有这样的血泪教训。所以Lindorm在设计客户端路由时,虽然没有去设计一个分布式内存存储,但实际上做的事情,也是有异曲同工的效果。


在Lindorm的设计中,每个QueryProcesser节点中都有一个RegionLocator模块,用户的请求不会直接去请求meta表,而是由RegionLocator模块代为请求。用户请求只会和RegionLocator交互,RegionLocator里会缓存路由信息。这样无论用户的客户端有多少,请求有多少,meta表的压力只与RegionLocator的数量有关。同样在收到请求路由错误时,RegionLocator会去meta表里更新region的地址。自从Lindorm采用这套路由架构后,再也没出现过meta表打爆的情况了。


关于总结


DynamoDB做为业界一款优秀的NoSQL数据库,其10年的经验能让人收获不少反思。DynamoDB的诞生,发展并没有什么惊天地泣鬼神的新功能,我从文中看到看到的,是一代代AWS工程师在面对业务挑战,面对故障后不断地对系统作出改进和修复,在业务的驱动下,一步一步地走到今天。做为数据库行业的从业人员,在阅读这篇Paper时,里面讲的痛点总是有一种让人“似曾相识”的感觉。Lindorm也走过了它的十年,Lindorm也是在海量的数据压力下,各类业务的不断呼喊以及各种故障的血泪教训中不断成长起来的。除了有些课题需要前沿的理论支持,绝大部分情况下,做数据库就是要去不断去攻克一个个的工程难题。最近,国产数据库异常火爆,在我看来,大家都是在各自的视角,各自的角度去尝试解决客户的问题,与一些老牌数据库相比,我觉得这个里面没有太多的技术壁垒,更多的是时间的积累还有弯道超车的勇气,殊途同归,大家一起共勉吧。做为国产自研数据库中不可或缺的一员,我希望不久的将来,大家也可以看到Lindorm的Paper出现在顶会上。


 / End /  

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
6月前
|
关系型数据库 MySQL 数据库
实时计算 Flink版产品使用合集之支持将数据写入 OceanBase 数据库吗
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
144 5
|
6月前
|
Cloud Native 关系型数据库 MySQL
云原生数据仓库产品使用合集之ADB MySQL湖仓版和 StarRocks 的使用场景区别,或者 ADB 对比 StarRocks 的优劣势
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
5月前
|
SQL 存储 运维
网易游戏如何基于阿里云瑶池数据库 SelectDB 内核 Apache Doris 构建全新湖仓一体架构
随着网易游戏品类及产品的快速发展,游戏数据分析场景面临着越来越多的挑战,为了保证系统性能和 SLA,要求引入新的组件来解决特定业务场景问题。为此,网易游戏引入 Apache Doris 构建了全新的湖仓一体架构。经过不断地扩张,目前已发展至十余集群、为内部上百个项目提供了稳定可靠的数据服务、日均查询量数百万次,整体查询性能得到 10-20 倍提升。
网易游戏如何基于阿里云瑶池数据库 SelectDB 内核 Apache Doris 构建全新湖仓一体架构
|
存储 弹性计算 运维
互娱NoSQL架构优化 —— 暨MongoDB“在线换引擎”技术服务指南”
XX工作室是某大客户核心游戏工作室,其核心业务是国内二次元RPG手游,采用实时开放世界对战模式,整体采用阿里云方案,本次专项攻坚主要对于玩家在游戏期间各类游戏属性交互(包含过图、物品、面板、剧情等)的核心业务模块进行优化,其中涉及NoSQL部分由于在专项优化期间存在诸多细节,特此提炼出来给各位有类似互娱业务场景进行参考。
|
存储 弹性计算 监控
存的起,看得见—云原生多模数据库Lindorm技术解析
Lindorm是阿里云发布的业界首款云原生多模数据库,支持海量数据的低成本存储处理和弹性按需付费,兼容HBase/Cassandra、OpenTSDB、Solr、SQL、HDFS等多种开源标准接口,本文将介绍其背后的设计思考和技术架构。
7657 0
存的起,看得见—云原生多模数据库Lindorm技术解析
|
存储 监控 Cloud Native
1.4直播预告|云原生多模数据库 Lindorm 边云一体化存储解决方案
云原生多模数据库 Lindorm 致力于打造面向任意规模、多类型数据的低成本存储与处理解决方案,让企业数据“存得起,看得见”。Lindorm 时序引擎面向应用监控、IoT、工业互联网等领域,高性能、低成本的时序数据存储解决方案,本次分享主要介绍 Lindorm 时序引擎在边缘端集成输出的场景案例,边缘与云端保持数据同步,边云协同配合,形成一体化的数据存储解决方案。
390 0
1.4直播预告|云原生多模数据库 Lindorm 边云一体化存储解决方案
|
存储 监控 Cloud Native
12.14直播预告|云原生多模数据库 Lindorm 在应用监控场景的最佳实践
云原生多模数据库 Lindorm 致力于打造面向任意规模、多类型数据的低成本存储与处理解决方案,让企业数据“存得起,看得见”。Lindorm 时序引擎面向应用监控、IoT、工业互联网等领域,高性能、低成本的时序数据存储解决方案,本次分享主要介绍 Lindorm 时序引擎在应用监控领域的最佳实践,如何与监控生态配合,解决监控数据的存储难题。
617 0
12.14直播预告|云原生多模数据库 Lindorm 在应用监控场景的最佳实践
|
存储 Cloud Native 多模数据库
12.07直播预告|云原生多模数据库Lindorm原生二级索引介绍
数据库索引是加速查询的核心技术手段。随着业务持续发展,对业务数据的查询需求变的纷繁复杂,极大的推动了数据库索引技术的发展,但也给用户带来了索引设计、一致性与性能的权衡、存储成本等一系列问题。本次议题将重点介绍lindorm的原生二级索引方案,结合相关业务场景,讨论其技术挑战,我们对这些挑战的思考和所做的工作。
1062 0
12.07直播预告|云原生多模数据库Lindorm原生二级索引介绍
|
存储 监控 Cloud Native
11.30直播预告|云原生多模数据库 Lindorm 时序引擎技术解析
云原生多模数据库 Lindorm 致力于打造面向任意规模、多类型数据的低成本存储与处理解决方案,让企业数据“存得起,看得见”。Lindorm 时序引擎面向应用监控、IoT、工业互联网等领域,高性能、低成本的时序数据存储解决方案,本次分享主要介绍 Lindorm 时序引擎的架构及实现机制。
1435 0
11.30直播预告|云原生多模数据库 Lindorm 时序引擎技术解析
|
存储 Cloud Native 多模数据库
11.23直播预告|云原生多模数据库Lindorm全文索引技术介绍
Lindorm是阿里云发布的业界首款云原生多模数据库,支持海量数据的低成本存储和高性能的主键/二级索引查询。本次议题将介绍Lindorm在数据查询上的进一步突破,基于倒排索引和列式存储的全文索引,可以有效解决大数据下的复杂查询问题,例如多维随机组合查询、文本检索、地理位置查询等。
2024 0
11.23直播预告|云原生多模数据库Lindorm全文索引技术介绍