密集负载下的网卡中断负载均衡smp affinity及单队列RPS

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
简介:

                 http://rfyiamcool.blog.51cto.com/1030776/1335700            

    简单的说就是,每个硬件设备(如:硬盘、网卡等)都需要和 CPU 有某种形式的通信以便 CPU 及时知道发生了什么事情,这样 CPU 可能就会放下手中的事情去处理应急事件,硬件设备主动打扰 CPU 的现象就是硬件中断。  

关于SMP IRQ affinity?  

    新的内核, Linux改进了分配特定中断到指定的处理器(或处理器组)的功能. 这被称为SMP IRQ affinity, 它可以控制系统如何响应各种硬件事件. 允许你限制或者重新分配服务器的工作负载, 从而让服务器更有效的工作. 以网卡中断为例,在没有设置SMP IRQ affinity时, 所有网卡中断都关联到CPU0, 这导致了CPU0负载过高,而无法有效快速的处理网络数据包,导致了瓶颈。 通过SMP IRQ affinity, 把网卡多个中断分配到多个CPU上,可以分散CPU压力,提高数据处理速度。  


       irqbalance的一些个介绍        

       irqbalance 用于优化中断分配,它会自动收集系统数据以分析使用模式,并依据系统负载状况将工作状态置于 Performance mode 或 Power-save mode.处于 Performance mode时irqbalance 会将中断尽可能均匀地分发给各个CPU以充分利用 CPU 多核,提升性能.处于 Power-save mode时,irqbalance 会将中断集中分配给第一个 CPU,以保证其它空闲 CPU 的睡眠时间,降低能耗。          
                   

在没有配置SMP IRQ affinity,也没有开启irqbalance的时候~  

222827933.jpg      

在配置了SMP IRQ affinity,启动了RPS,关闭irqbalance  

       223320496.jpg            

             在作网络程序的时候, 经常需要了解interrupts和软中断的平衡情况, 需要知道每秒有多少中断发生,发生在哪个cpu上.        
       Linux下中断来源信息可以从 /proc/interrupts 中了解到~            

             大家会看到他的频率是一样的,因为我们这边已经开了        irqbalance        ,这个东西在负载不大的情况下,是个很不错的服务,他的主要功能是可以合理的调配使用各个CPU核心,特别是对于目前主流多核心的CPU,简单的说就是能够把压力均匀的分配到各个CPU核心上,对提升性能有很大的帮助。            

[root@102 ~]# service irqbalance statusirqbalance (pid  21745) is running...
[root@102 ~]#

 

085027357.jpg      

首先我们可以通过访问/proc/cpuinfo的信息查看到cpu的具体信息。  

085139322.jpg      

获取eth0网卡的中断irq号,并且赋值给shell变量  

       143435805.jpg            

关闭irqbalance自动分配服务,好让咱们手动分配中断请求`  

/etc/init.d/irqbalance stop

 

指定CPU来处理对应网卡的中断请求  

     我这里是选择cpu2来处理这个网卡中断~      

       143635883.jpg            

这里的4是cpu的16进制表达式  

CPU              Binary          oct  

CPU 0    00000001         1  

CPU 1    00000010         2  

CPU 2    00000100         4  

CPU 3    00001000         8  

这里分享一个脚本,直接算就可以了~  

#!/bin/bash#echo "统计cpu的16进制"[ $# -ne 1 ] && echo ‘$1 is Cpu core number’ && exit 1
CCN=$1echo “Print eth0 affinity”for((i=0; i<${CCN}; i++))doecho ==============================echo "Cpu Core $i is affinity"((affinity=(1<<i)))echo "obase=16;${affinity}" | bcdone

 

要是cpu是8核心的~  

144048836.jpg      

要是16个核心的~  

[root@102 ~]# sh run.sh  16统计cpu的16进制
“Print eth0 affinity”
==============================
Cpu Core 0 is affinity1==============================
Cpu Core 1 is affinity2==============================
Cpu Core 2 is affinity4==============================
Cpu Core 3 is affinity8==============================
Cpu Core 4 is affinity10==============================
Cpu Core 5 is affinity20==============================
Cpu Core 6 is affinity40==============================
Cpu Core 7 is affinity80==============================
Cpu Core 8 is affinity100==============================
Cpu Core 9 is affinity200==============================
Cpu Core 10 is affinity400==============================
Cpu Core 11 is affinity800==============================
Cpu Core 12 is affinity1000==============================
Cpu Core 13 is affinity2000==============================
Cpu Core 14 is affinity4000==============================
Cpu Core 15 is affinity8000

 

     然后对于      smp_affinity的配置,根据16进制的cpu数目来算的,你要是输入5的话,那意思就是说  cpu0 和cpu2都参与进去了。      

     大家还会注意到,目录下还有个      smp_affinity_list      ,他是十进制的表达方式      

     两个配置是相通的,smp_affinity_list使用的是十进制,相比较smp_affinity的十六进制,可读性更好些。      

echo 3,8 > /proc/irq/31/smp_affinity_list
echo 0-4 > /proc/irq/31/smp_affinity_list

 

利用watch查看切换后的效果  

[root@102 ~]# watch -n 2 "cat /proc/interrupts |grep eth"

 

     好了,需要说明的是:      

             对单队列网卡而言,smp_affinity和smp_affinity_list配置多CPU是没有效果的。这话也不是绝对的,咱们可以用        RPS        来搞定。            

     该功能主要针对单队列网卡多CPU环境,如网卡支持多队列则可使用SMP irq affinity直接绑定硬中断,要是不支持多队列,那就用RPS解决网络软中断的负载均衡,即单个网卡的软中断分散到多个CPU处理,避免单个CPU负载过大导致性能瓶颈。      

             如何确定你的网卡支持多队列~        
       最右面的那些就是多队列的信息了            

     这个是4队列的~      

               145604598.jpg                    

这个是8队列的~  

               232059792.jpg                    

     这里用的机型是IBM x3630 m3      
     

       145632838.jpg            

网卡是MSI-X的  

       150143791.jpg            

事实上在一个大量小包的系统上,irqbalance优化几乎没有效果,而且还使得cpu消耗分配的不均衡,导致机器性能得不到充分的利用,这个时候需要把它给结束掉。然后咱们用手动的方法配置下。  

     不管怎么说,在同等条件下强烈大家选用多队列的网卡,常见的有Intel的82575、82576,Boardcom的57711等。      

多队列网卡是一种技术,最初是用来解决网络IO QoS 问题的,随着网络IO的带宽的不断提升,单核CPU不能完全处满足网卡的需求,通过多队列网卡驱动的支持,将各个队列通过中断绑定到不同的核上。其实用bonding网卡绑定在一定程度也可以做中断负载均衡,两个网卡中断号可以绑定在不同的cpu核心上。  

             由于RPS只是单纯把数据包均衡到不同的cpu,这个时候如果应用程序所在的cpu和软中断处理的cpu不是同一个,此时对于cpu cache的影响会很大,那么RFS确保应用程序处理的cpu跟软中断处理的cpu是同一个,这样就充分利用cpu的cache.            

     有两种配置的方法:      

     把每个队列连到一个cpu上      

/proc/sys/net/core/rps_sock_flow_entries 32768/sys/class/net/eth0/queues/rx-0/rps_cpus 00000001/sys/class/net/eth0/queues/rx-1/rps_cpus 00000002/sys/class/net/eth0/queues/rx-2/rps_cpus 00000004/sys/class/net/eth0/queues/rx-3/rps_cpus 00000008/sys/class/net/eth0/queues/rx-0/rps_flow_cnt 4096/sys/class/net/eth0/queues/rx-1/rps_flow_cnt 4096/sys/class/net/eth0/queues/rx-2/rps_flow_cnt 4096/sys/class/net/eth0/queues/rx-3/rps_flow_cnt 4096

 

     另一种是推荐的方法:        这个方法在多方面测试下,可以很好的均衡下来。      

/sys/class/net/eth0/queues/rx-0/rps_cpus 000000ff/sys/class/net/eth0/queues/rx-1/rps_cpus 000000ff/sys/class/net/eth0/queues/rx-2/rps_cpus 000000ff/sys/class/net/eth0/queues/rx-3/rps_cpus 000000ff/sys/class/net/eth0/queues/rx-0/rps_flow_cnt 4096/sys/class/net/eth0/queues/rx-1/rps_flow_cnt 4096/sys/class/net/eth0/queues/rx-2/rps_flow_cnt 4096/sys/class/net/eth0/queues/rx-3/rps_flow_cnt 4096/proc/sys/net/core/rps_sock_flow_entries 32768

 

总结下:  

RPS/RFS主要是针对单队列网卡多CPU环境。虽然有这些虚拟队列的支撑,但是毕竟是软件模拟的。 强烈推荐用支持多队列的网卡。  

多队列多重中断的网卡在使用了smp affinity之后也可以再使用该RFS RPS的功能,在这里他更像是个接收方的调解员,最大程度的提高cpu cache。  

自己的一些理解,要是有不对的地方,请朋友们喷之 !  

这两天会把测试的结果贴上来,6楼的库房停电了,从哥们拿申请了几个R720xd的测试机器都连不上了 !    

     这边的网络测试用的是  netperf ~      
     

tar -xzvf netperf-2.5.0.tar.gzcd netperf-2.5.0./configuremakemake install

 

     用法:      

根据作用范围的不同,netperf的命令行参数可以分为两大类:全局命令行参数、测试相关的局部参数,两者之间使用--分隔:
Netperf [global options] –-[test-specific options]
其中:
全局命令行参数包括如下选项:-H host :指定远端运行netserver的server IP地址。-l testlen:指定测试的时间长度(秒)-t testname:指定进行的测试类型,包括TCP_STREAM,UDP_STREAM,TCP_RR,TCP_CRR,UDP_RR测试相关的局部参数包括如下选项:-s size 设置本地系统的socket发送与接收缓冲大小-S size 设置远端系统的socket发送与接收缓冲大小-m size 设置本地系统发送测试分组的大小-M size 设置远端系统接收测试分组的大小-D 对本地与远端系统的socket设置TCP_NODELAY选项

 

     102 是请求端,可以看到他的网卡跑满是118M左右。      

182047527.png      

101是服务端 ~  

182047965.png      

     咱们看看客户端的结果:      

       183301726.png            

1)远端系统(即server)使用大小为229376字节的socket接收缓冲  

2)本地系统(即client)使用大小为65507字节的socket发送缓冲  

3)测试经历的时间为120秒  

4)吞吐量的测试结果为961 Mbits/秒  

1)远端系统(即server)使用大小为87380字节的socket接收缓冲  

2)本地系统(即client)使用大小为16384字节的socket发送缓冲  

3)测试经历的时间为120秒  

4)吞吐量的测试结果为941 Mbits/秒  

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
4月前
|
运维 负载均衡 Serverless
Serverless 应用引擎使用问题之如何将应用部署到多个实例中,并利用SLB来分发请求负载
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
|
6月前
|
存储 弹性计算 负载均衡
SLB-工作负载(Workload)
SLB-工作负载(Workload)
178 0
|
负载均衡 监控 算法
【Docker】基于实例项目的集群部署(六)数据库负载均衡 | Haproxy分发机制 | 监控负载状况
【Docker】基于实例项目的集群部署(六)数据库负载均衡 | Haproxy分发机制 | 监控负载状况
384 0
【Docker】基于实例项目的集群部署(六)数据库负载均衡 | Haproxy分发机制 | 监控负载状况
|
网络协议 应用服务中间件 数据安全/隐私保护
阿里云SLB七层负载 流量跑满处理
阿里云SLB七层负载 流量跑满处理
阿里云SLB七层负载 流量跑满处理
|
弹性计算 负载均衡
云速搭部署ALB实现负载分发
本实践通过云速搭构建一个基于http(s)的负载均衡业务架构,实现终端浏览器发起http(s)请求后,经过ALB监听配置的转发规则,分别负载分担到后端ECS服务器、CLB和ACK集群。
云速搭部署ALB实现负载分发
|
弹性计算 负载均衡 网络协议
云速搭部署CLB实现负载分发
本实践通过云速搭构建一个基于tcp(或https)的负载均衡业务架构,实现终端浏览器发起tcp(https)请求后,经过CLB负载分发到后端两台ECS服务器。
云速搭部署CLB实现负载分发
|
弹性计算 负载均衡 算法
WAF+SLB负载不均衡案例分享
问题演变过程 时间点1:高防+WAF+SLB+2台ECS时间点2:高防+WAF+SLB+4台ECS 问题描述 在时间点1时,没有发现明显的负载不均衡的情况。在时间点2时,出现大部分请求都打到了其中一台ECS上。
WAF+SLB负载不均衡案例分享
|
负载均衡 算法
bonding实现网卡负载均衡与高可用
bondingLinux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余。他是解决同一个IP下突破网卡的流量限制的工具,网卡网线对吞吐量是有限制的。
1047 0
|
5月前
|
缓存 负载均衡 算法
解读 Nginx:构建高效反向代理和负载均衡的秘密
解读 Nginx:构建高效反向代理和负载均衡的秘密
122 2
下一篇
无影云桌面