五分钟搞懂分布式流控算法

简介: 五分钟搞懂分布式流控算法

流控是任何一个复杂系统都必须考虑的问题,本文介绍并比较了不同的流控算法,从而帮助我们可以基于系统需求和架构选择合适的方案。原文:Distributed Rate-Limiting Algorithms[1]


当我们设计分布式流控系统(distributed rate-limiting system)时,需要用到哪些工具和算法?


image.png


Joshua Hoehne @Unsplash


Criteo 是全球最大的广告技术公司之一,随着广告市场的不断发展,Criteo 在过去几年里一直致力于改进 API,帮助客户更好的通过可编程接口访问需要的服务。


随着越来越多的客户使用新的 API,很明显,需要实现某种流量控制,以确保所有客户端都能平等访问资源,并保护 API 免受(恶意或错误的)频繁调用。


流控似乎很简单: 只允许给定的客户端每分钟执行 X 个调用。在单个服务器实例上实现流控非常容易,可以很容易找到相关的库来实现。但问题是我们的 API 托管在 6 个数据中心(欧洲、北美和亚洲),每个数据中心都有多个实例,这意味着我们需要某种分布式流控系统。


流控不仅与调用次数有关,还需要和客户端同步当前被限制的状态(例如,使用专用的报头和状态码)。但是本文将主要关注用于流控的算法和系统。


利用负载均衡


在尝试开发自己的系统之前,更重要的是查看现有的基础设施是否能够提供想要的特性。


那么,部署在数据中心所有实例之前,并且已经在负责检查、路由流量的是什么?负载均衡器。大多数负载均衡器都提供了流控特性或某种可用于实现流控的抽象。例如,HAProxy 有现成的可用于设置流控的 stick tables[2],可以在实例之间同步状态,并且工作得很好。


不幸的是,负载均衡不支持我们需要的某些特性(动态限制、令牌自省 token introspection、……),因此我们需要自己实现这些特定的需求。


初级方案

会话粘连(Sticky sessions)


说到负载均衡,如果给定客户端的负载并不均衡,并且总是与单个实例交互🤓,那么就不需要分布式流控系统。大多数客户端访问距离最近的数据中心(通过 geo-DNS),如果在负载均衡器上启用“stickiness”,客户端应该总是访问相同的实例,这种情况下我们可以使用简单的“本地”速率限制。


这在理论上可行,但在实践中行不通。Criteo 系统面临的负载不是恒定的,例如,黑色星期五/Cyber Week 是一年中最重要的时段。在此期间,团队随时处于戒备状态,准备扩大基础设施,以应对客户不断增长的需求。但是会话粘连和可伸缩性不能很好的配合(如果所有客户端都粘连在旧实例上,那么创建新实例又有什么用呢?)


使用更智能的会话粘连(在扩展时重新分配令牌)会有所帮助,但这意味着每次扩展时,客户端都可能切换到另一个实例上,而且并不知道客户端在前一个实例上执行了多少调用。本质上说,这将使我们的流控在每次伸缩时不一致,客户端可能在每次系统面临压力时会进行更多调用。


Chatty 服务器


如果客户端可以访问任何实例,意味着“调用计数”必须在实例之间共享。一种方案是让每个实例调用所有其他实例,请求给定客户端的当前计数并相加。另一种方案反过来,每个服务器向其他服务器广播“计数更新”。


这会造成两个主要问题:


  • 实例越多,需要进行的调用就越多。
  • 每个实例都需要知道其他实例的地址,并且每次服务扩缩容时都必须更新地址。


虽然可以实现这个解决方案(本质上是一个点对点环,许多系统已经实现了),但成本较高。


Kafka


如果不想让每个实例都和其他实例通信,可以利用 Kafka 同步所有实例中的计数器。


例如,当某个实例被调用时,就将一个事件推到对应的 topic。这些事件会被滑动窗口聚合(Kafka Stream 在这方面做得很好),每个客户端最后一分钟的最新计数会被发布到另一个 topic 上。然后,每个实例通过此 topic 获得所有客户端的共享计数。


问题在于 Kafka 本质上是异步的,虽然通常延迟很小,但当 API 负载增加时,也会增加延迟。如果实例使用了过时的计数器,那么可能会漏过那些本应被阻止的调用。


这些解决方案都有一个共同点: 当一切正常时,可以很好的工作,但当负载过重时,就会退化。我们的大部分系统都是这样设计的,通常情况下没有问题,但流控并不是典型组件,其目标就是保护系统的其他部分免受这种过重负载的影响。


流控系统的目标是在系统负载较重时工作良好,其构建目标是为最差的 1%而不是好的 99%的情况服务。


分布式算法


我们需要一个中心化的同步存储系统,以及为每个客户端计算当前速率的算法。内存缓存(如 Memcached 或 Redis)是理想的系统,但并不是所有的流控算法都可以在缓存系统中实现。下面我们看看有什么样的算法。


简化起见,我们考虑尝试实现“每分钟 100 次调用”的流控。


看看有哪些工具可用。


image.png

Barn Images @Unsplash


基于事件日志的滑动窗口(Sliding window via event log)


如果想知道某个客户端在过去一分钟内进行了多少次调用,可以在缓存中为每个客户端存储一个时间戳列表。每次调用时,相应的时间戳都会添加到列表中。然后循环遍历列表中的每一项,丢弃超过一分钟的旧项,并计算新项。


👍优点:

  • 非常精确
  • 简单


👎缺点:

  • 需要强大的事务支持(处理同一客户端的两个实例需要更新相同的列表)。
  • 根据不同的调用限制和次数,存储对象(列表)的大小可能相当大。
  • 性能不稳定(更多的调用意味着需要处理更多的时间戳)。


固定窗口(Fixed window)


大多数分布式缓存系统都有特定的、高性能的“计数器”抽象(一个可以自动增加的整数值,附加在一个字符串键上)。


以“{clientId}”为 key 为每个客户端维护一个计数器非常容易,但只会计算自计数器创建以来客户端调用的次数,而不是最后一分钟的次数。以“{clientId}_{yyyyMMddHHmm}”为 key 可以每分钟都为客户端维护一个计数器(换句话说: 以 1 分钟为固定窗口),查找与当前时间相对应的计数器可以告诉我们这一分钟客户端执行的调用数量,如果这个值超过上限,就可以阻止调用。


请注意,这与“最近一分钟”不是一回事。如果在上午 07:10:23 有一次调用,固定窗口计数器会显示在上午 07:10:00 到 07:10:23 之间调用的数量。但我们真正想要的是早上 07:09:23 到 07:10:23 之间的调用数量。


在某种程度上,固定窗口算法每过一分钟都会“忘记”之前有多少次呼叫,因此客户端理论上可以在 07:09:59 执行 100 次调用,然后在 07:10:00 执行 100 次额外的调用。


👍优点:

  • 非常快(单个原子增量+读取操作)
  • 只需要非常基本的事务支持(原子计数器)
  • 性能稳定
  • 简单


👎缺点:

  • 不准确(最多会允许 2 倍调用)


令牌桶(Token bucket)


回到 1994 年,父母把你送到游戏厅和朋友们一起玩《超级街霸 2》。他们给你一个装了 5 美元硬币的小桶,然后去了街对面的酒吧,并且每个小时都会过来往桶里扔 5 美元硬币。因此你基本上被限制每小时玩 5 美元(希望你在《街头霸王》中表现出色)。


这就是“令牌桶”算法背后的主要思想: 与简单计数器不同,“桶”存储在每个客户端缓存中。桶是由两个属性组成的对象:


  • 剩余“令牌”的数量(或剩余可以进行的调用的数量)
  • 最后一次调用的时间戳。


当 API 被调用时,检索桶,根据当前调用和最后一次调用之间的时间间隔,向桶中添加新的令牌,如果有多余令牌,递减并允许调用。


所以,和“街头霸王”的例子相反,没有“父母”帮我们每分钟重新装满桶。桶在与令牌消耗相同的操作中被有效的重新填充(令牌的数量对应于上次调用之后的时间间隔)。如果最后一次调用是在半分钟之前,那么每分钟 100 次调用的限制意味着将向桶中添加 50 个令牌。如果桶太“旧”(最后一次调用超过 1 分钟),令牌计数将重置为 100。


事实上,可以在初始化的时候填充超过 100 个令牌(但补充速度为 100 令牌/分钟): 这类似于“burst”功能,允许客户端在一小段时间内超过流控的限制,但不能长期维持。


注意: 正确计算要添加的令牌数很重要,否则有可能错误的填充桶。


该算法提供了完美的准确性,同时提供了稳定的性能,主要问题是需要事务(不希望两个实例同时更新缓存对象)。


image.png

100 次调用/分钟的令牌桶的分步示例


👍优点:

  • 非常精确
  • 快速
  • 性能稳定
  • 优化初始令牌数量可以允许客户端“burst”调用


👎缺点:

  • 更复杂
  • 需要强大的事务支持


漏桶(Leaky bucket): 该算法的另一个版本。在这个版本中,调用堆积在 bucket 中,并以恒定的速率(匹配速率限制)处理。如果桶溢出,则拒绝调用。这实现起来比较复杂,但可以平滑服务负载(这可能是您想要的,也可能不是)。

🏆最好的算法?


比较这三种算法,令牌桶似乎在性能和准确性方面提供了最好的折衷。但只有当系统提供良好的事务支持时,才有可能实现。如果有 Redis 集群,这是完美方案(甚至可以实现基于 Lua 的算法,直接运行在 Redis 集群上,以提高性能),但 Memcached 只支持原子计数器,而不是事务。


可以基于 Memcached 实现令牌桶的乐观并发(optimistic concurrent)版本[3],但这更加复杂,而且乐观并发的性能在负载较重的情况下会下降。


用固定窗口近似模拟滑动窗口


如果没有强大的事务支持,是否注定要使用不准确的固定窗口算法?


算是吧,但还有改进的空间。请记住,固定窗口的主要问题是它每过一分钟都会“忘记”之前发生的事情,但我们仍然可以访问相关信息(在前一分钟的计数器中),所以可以通过计算加权平均值来估计前一分钟的调用次数。

image.png

网络异常,图片无法展示
|

                                  通过 60s 固定窗口组合近似模拟 60s 滑动窗口


例如: 如果在 00:01:43 进行了一次调用,递增得到“00:01”计数器的值。由于这是当前的日历分钟,现在包含 00:01:00 至 00:01:43 之间的调用数(最后 17 秒还没有发生)。但我们想要的是 60s 滑动窗口中的调用数,意味着我们错过了 00:00:43 到 00:01:00 这段时间的计数。为此我们可以读取“00:00”计数器,并以 17/60 的因子进行调整,从而说明我们只对最后 17 秒感兴趣。


如果负载不变,这一近似是完美的。但如果大多数调用都集中在前一分钟,那就会获得一个高估的值。而当大多数调用都集中在前一分钟结束后,这个数字就会被低估。


比较


为了更准确的了解精度差异,最好是在相同的条件下模拟两种算法。


下面的图显示了“固定计数器”算法在输入随机流量时将返回什么。灰色的线是一个“完美”的滑动窗口输出,该窗口在任何时间点对应于过去 60 秒内的呼叫次数,这是我们的目标。橙色虚线表示固定窗口算法对相同流量的“计数”。


image.png


它们在第一分钟的输出是相同的,但很快就可以看到固定窗口版本在每分钟标记处有很大的下降。固定窗口算法很少会超过 100 个调用的限制,这意味着会允许很多本应被阻止的调用。


下面的图表示相同的场景,具有相同的流量,但使用了近似的滑动窗口。同样,灰色线代表“完美”滑动窗口。橙色虚线表示近似算法。


image.png


在每分钟标记附近不再看到下降,可以看到新版本算法与完美算法更接近,它有时略高,有时略低,但总体上是巨大的进步。


收益递减


但我们能做得更好吗?


我们的近似算法只使用当前和以前的 60 秒固定窗口。但是,也可以使用几个更小的子窗口,一种极端方法是使用 60 个 1s 窗口来重建最后一分钟的流量。显然这意味着为每个调用读取 60 个计数器,这将极大增加性能成本。不过我们可以选择任意固定窗口时间,从中拟合近似值。窗口越小,需要的计数器就越多,近似值也就越精确。


image.png


我们看看组合 5 个 15 秒窗口会有什么效果:


image.png


正如预期的那样,准确率有所提高,但仍然不够完美。


我们处在一个经典的更好的准确性=更差的性能的情况下。没有绝对的最佳方案,必须平衡对于准确性和性能的要求,找到最适合的解决方案。如果你只关心保护自己的服务不被过度使用,而不需要持续控制,那么甚至最简单的固定窗口就可能是可行的解决方案。


结论


流控是一种非常容易描述但却隐藏了很多复杂性的特性。希望本文能够帮助你理解在复杂分布式系统中实现流控所涉及的工具和算法。


References:

[1] Distributed Rate-Limiting Algorithms: https://medium.com/criteo-engineering/distributed-rate-limiting-algorithms-a35f7e24783

[2] Introduction to HAProxy stick tables: https://www.haproxy.com/blog/introduction-to-haproxy-stick-tables/

[3] Optimistic currency control: https://en.wikipedia.org/wiki/Optimistic_concurrency_control

目录
相关文章
|
21天前
|
消息中间件 算法 分布式数据库
Raft算法:分布式一致性领域的璀璨明珠
【4月更文挑战第21天】Raft算法是分布式一致性领域的明星,通过领导者选举、日志复制和安全性解决一致性问题。它将复杂问题简化,角色包括领导者、跟随者和候选者。领导者负责日志复制,确保多数节点同步。实现细节涉及超时机制、日志压缩和网络分区处理。广泛应用于分布式数据库、存储系统和消息队列,如Etcd、TiKV。其简洁高效的特点使其在分布式系统中备受青睐。
|
21天前
|
算法 分布式数据库
Paxos算法:分布式一致性的基石
【4月更文挑战第21天】Paxos算法是分布式一致性基础,由Leslie Lamport提出,包含准备和提交阶段,保证安全性和活性。通过提案编号、接受者和学习者实现,广泛应用于分布式数据库、锁和配置管理。其简单、高效、容错性强,影响了后续如Raft等算法,是理解分布式系统一致性关键。
|
21天前
|
NoSQL 算法 安全
Redlock 算法-主从redis分布式锁主节点宕机锁丢失的问题
Redlock 算法-主从redis分布式锁主节点宕机锁丢失的问题
178 0
|
9天前
|
算法 程序员 分布式数据库
分布式一致性必备:一文读懂Raft算法
Raft算法是一种用于分布式系统中复制日志一致性管理的算法。它通过选举领导者来协调日志复制,确保所有节点数据一致。算法包括心跳机制、选举过程、日志复制和一致性保证。当领导者失效时,节点会重新选举,保证高可用性。Raft易于理解和实现,提供强一致性,常用于分布式数据库和协调服务。作者小米分享了相关知识,鼓励对分布式系统感兴趣的读者进一步探索。
57 0
|
21天前
|
算法 Go 分布式数据库
构建高可用的分布式数据库集群:使用Go语言与Raft共识算法
随着数据量的爆炸式增长,单一数据库服务器已难以满足高可用性和可扩展性的需求。在本文中,我们将探讨如何使用Go语言结合Raft共识算法来构建一个高可用的分布式数据库集群。我们不仅会介绍Raft算法的基本原理,还会详细阐述如何利用Go语言的并发特性和网络编程能力来实现这一目标。此外,我们还将分析构建过程中可能遇到的挑战和解决方案,为读者提供一个完整的实践指南。
|
21天前
|
算法
【免费】基于ADMM算法的多微网电能交互分布式运行策略(matlab代码)
【免费】基于ADMM算法的多微网电能交互分布式运行策略(matlab代码)
|
21天前
|
算法 Serverless 调度
基于分布式ADMM算法的考虑碳排放交易的电力系统优化调度研究(matlab代码)
基于分布式ADMM算法的考虑碳排放交易的电力系统优化调度研究(matlab代码)
|
21天前
|
存储 分布式计算 负载均衡
分布式(计算机算法)
分布式(计算机算法)
|
21天前
|
缓存 算法 关系型数据库
深度思考:雪花算法snowflake分布式id生成原理详解
雪花算法snowflake是一种优秀的分布式ID生成方案,其优点突出:它能生成全局唯一且递增的ID,确保了数据的一致性和准确性;同时,该算法灵活性强,可自定义各部分bit位,满足不同业务场景的需求;此外,雪花算法生成ID的速度快,效率高,能有效应对高并发场景,是分布式系统中不可或缺的组件。
163 2
深度思考:雪花算法snowflake分布式id生成原理详解
|
21天前
|
算法 安全
金石原创 |【分布式技术专题】「分布式技术架构」一文带你厘清分布式事务协议及分布式一致性协议的算法原理和核心流程机制(Paxos篇)
金石原创 |【分布式技术专题】「分布式技术架构」一文带你厘清分布式事务协议及分布式一致性协议的算法原理和核心流程机制(Paxos篇)
73 1
金石原创 |【分布式技术专题】「分布式技术架构」一文带你厘清分布式事务协议及分布式一致性协议的算法原理和核心流程机制(Paxos篇)