干货 | 分布式缓存与DB秒级一致设计实践(1)

本文涉及的产品
云数据库 Redis 版,社区版 2GB
推荐场景:
搭建游戏排行榜
简介: 干货 | 分布式缓存与DB秒级一致设计实践



01


   前言


爆款项目是2020年携程的一个新项目,目标是将全品类、高性价比的旅行商品统一集合在一个频道供用户选购。出于这样的业务定位,项目有三个特点:


1)高流量

2)部分商品会成为热卖商品

3)承担下单职能


那么在系统设计之初,就必须考虑下面两个点:


1)如何应对高QPS(包括整体高QPS和个别商品的高QPS),高流量,保障C端用户体验?

2)在满足第一点的情况下,如何保障信息的时效性,让用户尽可能看到最新的信息,避免下单时的信息和看到的信息不一致?

 

很显然,要想较好的应对高QPS,高流量的前端请求,需要借助缓存(我们使用了公司推荐的Redis,后文不再做特别说明)。但是怎么使用好缓存解决上面两个问题,这是需要考虑的。我们对比了本文讨论的方案,和另外几个传统方案的优缺点,见下:


考量点/方案 本方案 应用层按需查数据没有时进行缓存 定期全量同步DB数据进入缓存 定期全量同步DB数据至Redis以及通过canal等中间件增量同步DB数据进入缓存
是否可以应对高QPS 可以 可以 可以 可以
是否可以解决热点key的问题 可以 不可以 不可以 不可以
缓存是否可以感知数据库中数据变化而快速更新 可以 不可以 不可以 可以
缓存数据更新的延迟 秒级 取决于缓存过期时间 取决于同步周期,通常是小时/天级别 秒级
缓存过期后能否及时重新写入缓存 可以 可以 不可以 不可以
新增/修改缓存时旧数据是否可能会覆盖新数据 不会 不会
是否支持有选择性的写入缓存,节省缓存集群资源 可以 可以 不可以 不可以
是否会周期性的遍历DB中需要缓存的数据表从而给DB带来额外压力 不会 不会
是否可以与特定业务解耦,从而被其他业务复用 可以 不可以 不能 不能
实现复杂度 较为复杂 简单 简单 中等

 

综上,本方案除了第一次实现有较高的复杂度外,带来的其他优势都是很可观的。目前线上运行下来,数据访问层应用相关的数据如下:


QPS:近万QPS

性能:平均耗时个位数毫秒

缓存数据更新延时:秒级

Redis集群的请求量:进行热点key处理后,减少原本1/4的请求量

Redis集群内存占用:按需进行缓存,内存占用为传统方案的1/10

Redis集群CPU使用情况:整体平稳,未出现局部机器CPU异常


本文将从应用架构、缓存访问组件、缓存更新平台几方面介绍本方案。

   

02


   应用架构

本方案的应用架构大致如下:


其中,浅绿色部分由业务实现,深绿色部分是本方案实现的。后文会详细介绍缓存访问组件和缓存更新平台的设计思路。


   

03


   

缓存访问组件


该组件的存在主要是为了封装缓存的访问。主要做了两件事:


1)按需异步将缓存中需要增、删、改的键值对通过消息传递给缓存更新平台,让其进行实际的缓存更新操作。

2)对热点key进行本地缓存与更新,避免对某个key的大量请求直接打到缓存导致缓存雪崩。

 

1、为什么要异步操作缓存?


这里,可能大家会有一个疑问,为什么要将简单的缓存操作由传统方案中的同步操作变为基于消息机制的异步操作呢?

 

这是由于我们的业务场景要求DB数据与缓存数据能够快速最终一致而决定的。如果采取传统的同步操作,那么极端情况下,可能会出现下面这样的多线程执行时序:


时刻(由近及远) 线程1 线程2 线程3
T1 发现key没有缓存数据,进而读取DB,得到数据v1

T2
更新DB中key对应的数据,由v1变更为v2
T3

发现key没有缓存数据,进而读取DB,得到数据v2
T4

将key<->v2写入缓存
T5 将key<->v1写入缓存

 

可以发现,这样的时序执行完后,缓存中key对应的value是过期的v1而不是数据库中最新的v2,这就会导致严重的用户体验问题,并且这个问题很难被发现。


那么我们是不是可以采用Redis的SETNX命令来解决这个问题呢?其实也是不行的。比如,上面的时序变为线程1先执行完,线程3再执行完,那么实际上缓存中的数据依然会是过期的v1。因为线程3在采用SETNX命令设置缓存时,发现key已经有对应的值了,所以线程3最终的SETNX命令不会执行成功,也就导致了该更新的缓存反而没有更新。


不难看出,这类问题就是由于我们会有大量的并行操作同一个key导致的。所以,这里引入消息机制来异步执行缓存操作就是为了使同一个key的并行操作变为串行操作。

 

2、异步操作带来的问题


由于缓存操作由传统方案中的同步操作变为异步操作,那么引入了两个新问题:


1)如果投递消息失败了怎么办?

2)业务希望数据更新成功后缓存务必更新成功,也就是说希望DB数据更新和缓存更新近乎在一个事务里面,这该怎么办?

 

在这个组件中,我们通过引入一张存放于业务的DB的消息记录表来解决上述两个问题。它相当于是一个容灾方案,只要消息进入这张表,缓存更新平台就保证这条消息必然会被消费。 3、关于热点key的处理 

该组件还有一大功能就是对热点key的处理。众所周知,缓存热点key在很多业务中都存在。例如若页面中存在长列表/瀑布流,那么第一屏的产品的访问量肯定比第二屏的产品访问量要高很多;又例如某些商品做活动,那么这类商品肯定要比没做活动的商品访问量高很多。


而爆款业务在可预见的未来,肯定也会出现热点key的问题。若热点key的问题不及时解决,当对单一key的请求量足够大时,可能导致缓存集群中存储该key的机器性能严重下降,从而导致缓存雪崩。所以在系统设计上,我们需要为解决热点key预留可扩展性。

 

目前组件内部热点key的处理流程如下:



通过上述流程可以看到,组件内部解决热点key主要是要解决下面三个问题:

  • 如何判断是热点key?
  • 热点key如何存储?
  • 热点key的内容如何更新?




 

1)如何判断是热点key?

首先我们需要知道哪些key是热点key才能解决热点key的问题,识别热点key采取下面两个方案互补:

a.动态识别热点key:主要针对部分key的访问流量增长相对平稳没那么陡的场景,使应用有能力应对线上一些无法预知的突发情况。

b.预设热点key:主要针对定点开始的活动(比如电商的秒杀),这类流量增长通常会非常陡且高峰很短暂。如果这种场景也采取方案1来主动识别通常就会导致滞后性,其实最终不会起到任何作用。所以我们就需要预设热点key。由于爆款业务处于起步阶段,场景1的问题尚不紧急,所以目前方案1我们计划在未来的迭代实现,这里不做过多讨论。对于方案2,业务目前可以主动将可以判定为热点的key灌给缓存访问组件。组件收到这类key后,当它在从缓存拿到这类key的内容后会主动将内容存入本地内存。后续所有的访问,都会从本地内存读取,从而大幅降低对远端缓存服务器的访问。

2)热点key如何存储?

在前文已经提到,针对热点key,我们选择将其内容存放于应用服务器的内存中,这样做基于下面两个原因:

  • 应用服务器本身一般都是以集群来部署,可以弹性缩扩容;
  • 应用服务器的内存基本上可用空间都在50%以上;



这样做带来的好处是:应用服务器在基于流量变化进行横向缩扩容时,热点key的内存与并发量的支持也跟着一起调整了,避免了多余的维护成本。缓存访问组件在进行本地缓存时,考虑到热点key的访问流量通常是增长快下降也快,而且极端情况下可能出现本地缓存内容和数据库中的内容不一致,所以我们选择在本地进行一个很短时间的缓存,便于其能够应对突发的流量增长的同时也能在极端情况下快速与数据保持一致。

3)热点key的内容如何更新?

前文有提到,我们希望尽可能快的将数据库中最新的数据反映到缓存,热点key的本地缓存也不例外。所以,我们需要建立一个广播机制,让本地缓存能够知晓远端缓存的内容变化了。

这里,我们借助了缓存更新平台。由于所有的缓存更新都是发生在缓存更新平台(见后文),所以其可以将发生变化的缓存key通过消息队列广播给所有缓存访问组件,组件消费到这条消息后,若key是热点key,则进行本地缓存的更新。极端情况下,可能会出现组件消费消息失败从而未更新的问题。针对这种情况,前文有提到,我们采取了很短时间的本地缓存,所以即便出现这个问题,也只会在较短时间有问题,最大程度保障了用户体验。
   


相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore &nbsp; &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
3月前
|
NoSQL 关系型数据库 MySQL
分布式锁:不同实现方式实践测评
分布式锁:不同实现方式实践测评
29 0
|
4月前
|
存储 缓存 测试技术
4个所有开发人员都应该知道的关键API缓存实践
4个所有开发人员都应该知道的关键API缓存实践
|
4月前
|
缓存 NoSQL Java
Spring Cache 缓存原理与 Redis 实践
Spring Cache 缓存原理与 Redis 实践
171 0
|
4月前
|
缓存 算法 NoSQL
【分布式详解】一致性算法、全局唯一ID、分布式锁、分布式事务、 分布式缓存、分布式任务、分布式会话
分布式系统通过副本控制协议,使得从系统外部读取系统内部各个副本的数据在一定的约束条件下相同,称之为副本一致性(consistency)。副本一致性是针对分布式系统而言的,不是针对某一个副本而言。强一致性(strong consistency):任何时刻任何用户或节点都可以读到最近一次成功更新的副本数据。强一致性是程度最高的一致性要求,也是实践中最难以实现的一致性。单调一致性(monotonic consistency):任何时刻,任何用户一旦读到某个数据在某次更新后的值,这个用户不会再读到比这个值更旧的值。
406 0
|
1月前
|
负载均衡 监控 Dubbo
Java微服务架构设计与实践:构建可伸缩的分布式系统
【4月更文挑战第2天】微服务架构响应现代业务需求,通过拆分大型应用为独立服务实现模块化和可扩展性。Java中的Spring Boot和Dubbo等框架支持服务注册、负载均衡等功能。遵循单一职责、自治性和面向接口原则,每个服务专注特定逻辑,独立部署运行。实际项目中,如电商系统,服务按功能拆分,提升可维护性和扩展性。还需考虑服务通信、数据一致性和监控等复杂话题。Java微服务架构助力构建高效、灵活的应用,应对未来挑战。
Java微服务架构设计与实践:构建可伸缩的分布式系统
|
4月前
|
缓存 网络协议 算法
Golang简单实现 分布式缓存+一致性哈希+节点再平衡(gossip + consistent + rebalance)
Golang简单实现 分布式缓存+一致性哈希+节点再平衡(gossip + consistent + rebalance)
67 0
|
6天前
|
消息中间件 SQL 中间件
分布式事务Seata实践(下)
分布式事务Seata实践
16 0
|
6天前
|
SQL 存储 运维
分布式事务Seata实践(上)
分布式事务Seata实践
14 0
|
2月前
|
存储 Java 应用服务中间件
【分布式技术专题】「架构实践于案例分析」盘点互联网应用服务中常用分布式事务(刚性事务和柔性事务)的原理和方案
【分布式技术专题】「架构实践于案例分析」盘点互联网应用服务中常用分布式事务(刚性事务和柔性事务)的原理和方案
54 0
|
2月前
|
存储 NoSQL Redis
陌陌技术分享:陌陌IM在后端KV缓存架构上的技术实践
在本文中,陌陌数据库负责人冀浩东将聚焦探讨陌陌的 KV 系统架构选型思路,深入解析如何进行此类系统的甄选决策,同时进一步分享陌陌团队在采用 OceanBase(OBKV)过程中所经历的探索与实践经验。
33 0