长这么大才读懂高并发核心编程,限流原理与实战,Nginx漏桶限流

简介: 使用Nginx可通过配置的方式完成接入层的限流,其ngx_http_limit_req_module模块所提供的limit_req_zone和limit_req两个指令使用漏桶算法进行限流。其中,limit_req_zone指令用于定义一个限流的具体规则(或者计数内存区),limit_req指令应用前者定义的规则完成限流动作。

Nginx漏桶限流详解

使用Nginx可通过配置的方式完成接入层的限流,其ngx_http_limit_req_module模块所提供的limit_req_zone和limit_req两个指令使用漏桶算法进行限流。其中,limit_req_zone指令用于定义一个限流的具体规则(或者计数内存区),limit_req指令应用前者定义的规则完成限流动作。

网络异常,图片无法展示
|

假定要配置Nginx虚拟主机的限流规则为单IP限制为每秒1次请求,整个应用限制为每秒10次请求,具体的配置如下:

#第一条规则名称为perip,每个相同客户端IP的请求限速在6次/分钟(1次/10秒)
limit_req_zone $binary_remote_addr zone=perip:10m rate=6r/m;
#第二条限流规则名称为preserver,同一虚拟主机的请求限速在10次/秒
 limit_req_zone $server_name zone=perserver:1m rate=10r/s;
 server {
 listen 8081 ;
 server_name localhost;
 default_type 'text/html';
 charset utf-8;
 limit_req zone=perip;
 limit_req zone=perserver;
 location /nginx/ratelimit/demo {
 echo "-uri= $uri -remote_addr= $remote_addr"
 "-server_name= $server_name" ;
 }
 }

上面的配置通过limit_req_zone指令定义了两条限流规则:第一条规则名称为perip,将来自每个相同客户端IP的请求限速在6次/分钟(1次/10秒);第二条限流规则名称为preserver,用于将同一虚拟主机的请求限速在10次/秒。

以上配置位于练习工程LuaDemoProject的src/conf/nginxratelimit.conf文件中,在使之生效前需要在openresty-start.sh脚本中换上该配置文件,然后重启Nginx。接下来开始验证上面的限流配置。在浏览器中输入如下测试地址:

http://nginx.server:8081/nginx/ratelimit/demo

10秒内连续刷新,第1次的输出如图9-9所示。

网络异常,图片无法展示
|

图9-9 Nginx限流后10秒内连续刷新的第1次输出

10秒内连续刷新,第1次之后的输出如图9-10所示。

网络异常,图片无法展示
|

图9-10 Nginx限流后10秒内连续刷新第1次之后的输出

接下来详细介绍Nginx的limit_req_zone和limit_req两个指令。

limit_req_zone用于定义一个限流的具体规则,limit_req应用前者所定义的规则。limit_req_zone指令的格式如下:

语法:limit_req_zone key zone=name:size rate=rate [sync];
上下文:http配置块limit_req_zone指令的key部分是一个表达式,其运行时的值将作

为流量计数的关键字,key表达式包含变量、文本和它们的组合。在上面的配置实例中,$binary_remote_addr、$server_name为两个Nginx变量,$binary_remote_addr为客户端IP地址的二进制值,$server_name为虚拟机主机名称。在限流规则应用之后,它们的值将作为限流关键字key值,同一个key值会在限流的共享内存区域保存一份请求计数,而limit_req_zone限流指令所配置的速度限制只会对同一个key值发生作用。

limit_req_zone指令的zone属性用于定义存储相同key值的请求计数的共享内存区域,格式为name:size,name表示共享内存区域的名称(或者说限流规则的名称),size为共享内存区域的大小。上面的配置实例中,perip:10m表示一个名字为perip、大小为10MB的内存区域。

1MB大约能存储16 000个IP地址,10MB大约可以存储16万个IP地址,也就是可以对16万个客户端进行并发限速,当共享内存区域耗尽时,Nginx会使用LRU算法淘汰最长时间未使用的key值。

limit_req_zone指令的rate属性用于设置最大访问速率,rate=10r/s表示一个key值每秒最多能计数的访问数为10个(10个请求/秒),rate=6r/m表示一个key值每分钟最多能计数的访问数为6个(1个请求/10秒)。由于Nginx的漏桶限流的时间计算是基于毫秒的,当设置的速度为6r/m时,转换一下就是10秒内单个IP只允许通过1个请求,从第11秒开始才允许通过第二个请求。

limit_req_zone指令只是定义限流的规则和共享内存区域,规则要生效的话,还得靠limit_req限流指令完成。

limit_req指令的格式如下:

语法:limit_req zone=name [burst=number] [nodelay | delay=number];

上下文:http配置块,server配置块,location配置块limit_req指令的zone区域属性指定的限流共享内存区域(或者说限流的规则)与限流规则指令limit_req_zone中的name对应。

limit_req指令的burst突发属性表示可以处理的突发请求数。

limit_req指令的第二个参数burst是爆发数量的意思,此参数设置一个大小为number的爆发缓冲区,当有大量请求过来时,超过了限流频率的请求可以先放到爆发缓冲区内,直到爆发缓冲区满后才拒绝。

limit_req指令的burst参数的配置使得Nginx限流具备一定的突发流量的缓冲能力(有点像令牌桶)。但是burst的作用仅仅是让爆发的请求先放到队列里,然后慢慢处理,其处理的速度是由limit_req_zone规则指令配置的速度(比如1个请求/10秒),在速率低的情况下,其缓冲效果其实并不太理想。如果想迅速处理爆发的请求,那么可以再加上nodelay参数,队列中的请求会立即处理,而不再按照rate设置的速度(平均间隔)慢慢处理。

本文给大家讲解的内容是高并发核心编程,限流原理与实战,Nginx漏桶限流详解

相关文章
|
11天前
|
算法 NoSQL 应用服务中间件
阿里面试:10WQPS高并发,怎么限流?这份答案让我当场拿了offer
在 Nacos 的配置管理界面或通过 Nacos 的 API,创建一个名为(与配置文件中 dataId 一致)的配置项,用于存储 Sentinel 的流量控制规则。上述规则表示对名为的资源进行流量控制,QPS 阈值为 10。resource:要保护的资源名称。limitApp:来源应用,default表示所有应用。grade:限流阈值类型,1 表示 QPS 限流,0 表示线程数限流。count:限流阈值。strategy:流控模式,0 为直接模式,1 为关联模式,2 为链路模式。
阿里面试:10WQPS高并发,怎么限流?这份答案让我当场拿了offer
|
17天前
|
缓存 监控 安全
高并发编程知识体系
本文将从线程的基础理论谈起,逐步探究线程的内存模型,线程的交互,线程工具和并发模型的发展。扫除关于并发编程的诸多模糊概念,从新构建并发编程的层次结构。
|
7月前
|
负载均衡 安全 应用服务中间件
高并发下Nginx安全配置
【8月更文挑战第16天】这段Nginx配置强化了安全性,包括隐藏版本信息以防攻击者利用,设置IP白/黑名单控制访问权限,保护敏感文件如日志不被非法下载,并启用HTTPS加密通信保障数据安全。同时,通过优化Nginx配置及系统内核参数,如调整进程数、并发连接数及文件描述符限制,显著提升服务器性能与稳定性。最后使用ApacheBench工具验证配置的有效性。
80 5
|
3月前
|
缓存 NoSQL Java
高并发场景秒杀抢购超卖Bug实战重现
在电商平台的秒杀活动中,高并发场景下的抢购超卖Bug是一个常见且棘手的问题。一旦处理不当,不仅会引发用户投诉,还会对商家的信誉和利益造成严重损害。本文将详细介绍秒杀抢购超卖Bug的背景历史、业务场景、底层原理以及Java代码实现,旨在帮助开发者更好地理解和解决这一问题。
120 12
|
6月前
|
网络协议 Java Linux
高并发编程必备知识IO多路复用技术select,poll讲解
高并发编程必备知识IO多路复用技术select,poll讲解
|
5月前
|
并行计算 算法 搜索推荐
探索Go语言的高并发编程与性能优化
【10月更文挑战第10天】探索Go语言的高并发编程与性能优化
|
5月前
|
缓存 监控 负载均衡
nginx相关配置及高并发优化
Nginx的高并发优化是一个综合性的过程,需要根据具体的业务场景和硬件资源量身定制。以上配置只是基础,实际应用中还需根据服务器监控数据进行持续调整和优化。例如,利用工具如ab(Apache Benchmarks)进行压力测试,监控CPU、内存、网络和磁盘I/O等资源使用情况,确保配置的有效性和服务的稳定性。
205 0
|
5月前
|
Java Linux 应用服务中间件
【编程进阶知识】高并发场景下Bio与Nio的比较及原理示意图
本文介绍了在Linux系统上使用Tomcat部署Java应用程序时,BIO(阻塞I/O)和NIO(非阻塞I/O)在网络编程中的实现和性能差异。BIO采用传统的线程模型,每个连接请求都会创建一个新线程进行处理,导致在高并发场景下存在严重的性能瓶颈,如阻塞等待和线程创建开销大等问题。而NIO则通过事件驱动机制,利用事件注册、事件轮询器和事件通知,实现了更高效的连接管理和数据传输,避免了阻塞和多级数据复制,显著提升了系统的并发处理能力。
121 0
|
7月前
|
监控 网络协议 应用服务中间件
高并发下Nginx压缩
【8月更文挑战第16天】gzip压缩在Nginx中可减少传输数据量,加快响应速度但消耗CPU。可在http、server及location级别配置。高并发时,启用Nginx状态监控以检查性能,配置`nginx.conf`添加`location /NginxStatus { stub_status on; access_log off; }`并重启Nginx
77 12
|
7月前
|
消息中间件 负载均衡 应用服务中间件
高并发环境下的Nginx整合方案
【8月更文挑战第20天】在高并发环境下,整合Nginx代理服务器、静态文件服务器、Tomcat集群、Mycat数据库读写分离和消息队列,可以构建一个强大、灵活且可扩展的Web服务架构。
80 1