常见的限流降级方案

简介: 【1月更文挑战第21天】

在现实情况下,当面对极端的业务场景时,瞬时的业务流量会带来大大超出系统真实容量的压力。通常采取的策略就是限流降级,以保障承诺容量下的系统稳定;同时还有业务层面的开关预案执行,峰值时刻只保障核心业务功能,非核心业务功能就关闭。


首先,我们先梳理清楚限流和降级的概念,明白它们会发挥怎样的作用,这样才便于理解后续的解决方案。


  • 限流,它的作用是根据某个应用或基础部件的某些核心指标,如 QPS 或并发线程数,来决定是否将后续的请求进行拦截。比如我们设定 1 秒 QPS 阈值为 200,如果某一秒的 QPS 为 210,那超出的 10 个请求就会被拦截掉,直接返回约定的错误码或提示页面。
  • 降级,它的作用是通过判断某个应用或组件的服务状态是否正常,来决定是否继续提供服务。以 RT 举例,我们根据经验,一个应用的 RT 在 50ms 以内,可以正常提供服务,一旦超过 50ms,可能就会导致周边依赖的报错或超时。所以,这时我们就要设定一个策略,如果应用的 RT 在某段时间内超过 50ms 的调用次数多于 N 次,那该应用或该应用的某个实例就必须降级,不再对外提供服务,可以在静默一定时间后(比如 5s 或 10s)重新开启服务。


常见的限流解决方案

第一类,接入层限流。

作为业务流量的入口,我们限流的第一道关卡往往会设置在这里,而且接入层限流往往也是最有效的。这里又有两类解决方案,根据接入层所使用的技术方案而定。


1.Nginx 限流

Nginx 或其开源产品是最常用的 Web 服务器,比如 TEngine。对于一个 Web 类应用,如 Web 页面或 H5 页面,我们通常会将限流策略增加到这一层,会设置 QPS、并发数以及 CPU 的 Idle 作为限流指标。Nginx 有对应的函数接口,可以获取到以上指标信息,然后通过 Lua 脚本实现限流的逻辑,并作为 TEngine 的插件安装即可。


2.API 路由网关模式

对于客户端模式的接入,使用了 API 路由网关模式,一方面可以更方面地管理客户端与服务端的链接,另一方面也可以通过配置的方式管理服务接口,这里的服务管理会复用到微服务架构的配置中心,并实现相应的路由策略。对于 QPS 和并发限流,直接在配置中心中进行配置即可。


第二类,应用限流。

这一类的限流策略跟上面 API 路由网关模式的限流相似,同样是依赖配置中心管理,限流逻辑会配套服务化的框架完成。


第三类,基础服务限流。

要针对数据库、缓存以及消息等基础服务组件的限流而设定。同样,限流逻辑会配套分布式数据库中间件,缓存或消息的框架来实现。


  • 资源和策略。资源是我们要进行限流的对象,可能是一个应用,或者一个方法,也可能是一个接口或者 URL,体现了不同的限流粒度和类型。策略就是限流的规则,比如下面我们要提到的 QPS 和并发数限流。
  • 时间精度。主要指对于 QPS、并发数或 CPU 的阈值判断。比如对于 QPS,我们就会设定一个 QPS 时间精度(假设 3s),如果低于阈值则不启用策略,如果超过阈值就启动限流策略。
  • 指标计数。对于并发限制请求,会统计当前的并发数,1 次请求进入到限流模块加 1,等请求结束退出时减 1,当前正在处理的请求数就是并发数。对于 QPS 限流,统计 QPS 不能按照秒统计,因为第 1s,系统可能就被打挂了,所以 QPS 得按照毫秒级别去统计,统计的级别越小,性能损耗越大。所以定在 10ms~100ms 的级别去统计会更平滑一些,比如将 1s 切成 10 份,每一份 100ms,一个请求进来肯定会落在某一份上,这一份的计数值加 1。计算当前的 QPS,只需要将当前时间所在份的计数和前面 9 份的计数相加,内存里面需要维护当前秒和前面 2 秒的数据。
  • 限流方式。对于 Nginx 就针对总的请求进行限流即可,但是粒度会比较粗。对于应用层,因为配置中心的灵活性,其限流就可以做得更细化。比如可以针对不同来源限流,也可以针对去向限流,粒度上可以针对类级别限流,也可以针对不同的方法限流,同时还可以针对总的请求情况限流,这些灵活策略都可以在微服务的配置中心实现。
  • Spring AOP。对于 Java 应用,绝大多数公司都会用到 Spring 框架,包括我们上面讲到的分布式数据库等组件,也一样会依赖 Spring 框架,比如我们用到的 MyBatis 开源组件。而 Spirng 框架中的关键技术点,就是 IoC 和 AOP,我们在限流方案的实现上,也会利用到相关技术。
  • Web 类型的限流。对于 Web 类型 URL 接口限流,我们就利用 Servlet 的 Filter 机制进行控制即可。
  • 控制台。上面我们讲了各种配置和策略,如果都是通过人工来操作是不现实的,这时就需要开发对应的限流降级的控制台,将上述的各种配置和策略通过界面的方式进行管理,同时在配置完成之后,能够同步到对应的服务实例上。比如对于 Nginx,当一个策略配置完成后,就要同步到指定的服务器上生成新的配置文件并 Reload。对于配置中心模式的策略,也就是 Spring AOP 模式的限流,在控制台上配置完成后,就要将配置值同步更新到配置中心里,同时再通过运行时的依赖注入,在线上运行的业务代码中生效。


对于降级,主要是针对 RT 来进行判断,它的整个技术方案没有限流这么复杂,且思路上跟限流是相似的,从整个建设过程来看,限流降级的难点和关键还是在于整体技术栈的统一,以及后期对每个应用限流降级资源策略的准确把握和配置。


再来看对应用的限流降级资源策略的把握,这个就需要对应用和业务有深入的了解。比如开发人员要非常清楚哪些接口是核心接口,它的来源和去向有哪些;哪些来源是核心的,哪些是非核心的;如果要限流,需要对哪些接口限流,同时要重点保障哪些接口等等。


所以,限流和降级也是一个动态调测和完善的过程,对于有些动态变化的资源是做不到一劳永逸的


相关文章
|
4月前
|
缓存 NoSQL 关系型数据库
熔断方案
【8月更文挑战第20天】
65 0
|
7月前
|
监控 Java 微服务
服务降级和服务熔断的区别
服务降级和服务熔断的区别
|
设计模式 监控 算法
高可用三大利器 — 熔断、限流和降级
在武侠世界里,“利器”通常指的是武器中的上乘、出色之物;武器对于武者的重要性不言而喻,拥有一把优秀的武器可以让武者在战斗中更加得心应手,威力更强。在分布式系统追求高可用的背景下,熔断、限流和降级这三个重要的策略可以称得上三大利器。降级和熔断是不是一回事?限流 与 降级呢?
230 2
|
缓存 SpringCloudAlibaba 监控
系统之高可用(二):熔断降级
分布式系统环境下,服务间类似依赖非常常见,一个业务调用通常依赖多个基础服务。如下图,对于同步调用,当库存服务不可用时,商品服务请求线程被阻塞,当有大批量请求调用库存服务时,最终可能导致整个商品服务资源耗尽,无法继续对外提供服务。并且这种不可用可能沿请求调用链向上传递,这种现象被称为级联故障效应,最终结果导致整个系统服务不可用
162 0
|
缓存 监控 前端开发
服务降级是什么?
服务降级是在面对系统负载过高、资源不足或外部依赖故障等异常情况下,通过临时屏蔽某些功能或改变服务行为,以保证核心功能的可用性和性能稳定性的一种策略。
532 0
|
前端开发 关系型数据库 MySQL
服务降级熔断小总结|学习笔记
快速学习服务降级熔断小总结
服务降级熔断小总结|学习笔记
|
算法 NoSQL API
限流功能的实现
限流功能的实现
198 0
hystrix服务降级处理方案
当一个服务端的业务响应的时间过长的时候或者业务处理逻辑处理异常,不应该等待,应该给出一种处理方法
hystrix服务降级处理方案
|
Java 开发者 Sentinel
SentineI 服务熔断降级的策略 | 学习笔记
快速学习 SentineI 服务熔断降级的策略
139 0
|
算法
熔断和限流原理和使用(2)
熔断和限流原理和使用(2)
189 0
熔断和限流原理和使用(2)