高山仰之可极,谈半同步/半异步网络并发模型

简介: 高山仰之可极,谈半同步/半异步网络并发模型

0. 仰之弥高


2015年,在腾讯暑期实习期间,leader给我布置的一个任务是整理分析网络模型。虽然也有正常工作要做,但这个任务贯穿了整个实习期。后来实习结束的总结PPT上,这部分内容占到了一半篇幅,我从C10K问题引入,讲了很多:从fork-exec的多进程到进程池;从多线程再到IO多路复用;从accept的惊群到pthread_cond_wait的惊群。


现在回想,这些总结还是偏初级,后来又看了很多资料,但感觉还是有很多东西抓不住,尽管如此却在我心里埋下一颗种子。以至于后来工作和学习中看到Server,我都会自我诘难:它是什么『网络模型』?


1. 本立道生:基础知识导入


所谓『网络并发模型』,亦可称之为『网络并发的设计模式』。『半同步/半异步』模式是出镜率很高的一种模式,要想解释清楚它,我要先从基础讲起。熟悉的同学可以跳过本节


1.1 单线程IO多路复用


首先带大家再回顾一个典型的单线程Polling API的使用过程。Polling API泛指select/poll/epoll/kqueue这种IO多路复用API。

一图胜千言:

微信图片_20220528172116.jpg


关于套接字,相信大家都不陌生,我们知道套接字有两种:服务端套接字(被动套接字)和客户端套接字。套接字在listen调用之后,会变成被动套接字,等待客户端的连接(connect)。其实socket的本质是一种特殊的fd(文件描述符)。


为了表达简洁清晰,用socket指代服务端套接字,fd表示连接之后的客户端套接字。

单线程Polling API的常规用法是:


让Polling API监控服务端socket的状态,然后开始死循循环,循环过程中主要有三种逻辑分支:


  1. 服务端socket的状态变为可读,即表示有客户端发起连接,此时就调用accept建立连接,得到一个客户端fd。将其加入到Polling API的监控集合,并标记其为可读。
  2. 客户端fd的状态变为可读,则调用read/recv从fd读取数据,然后执行业务逻辑,处理完,再将其加入到Polling API的监控集合,并标记其为可写。
  3. 客户端fd的状态变为可写,则调用write/send将数据发送给客户端。


1.2 平民级的多线程IO


最平民的多线程(or多进程)网络IO的模式,比较简单,这里就不画图了。就是主线程创建多个线程(pthread或者std::thread),然后每个线程内部开启死循环,循环体内进行accept。当无客户端连接的时候accept是阻塞的,当有连接到时候,则会被激活,accept开始返回。这种模式在上古时代,存在accept的『惊群』问题(Thundering herd Problem),即当有某个客户端连接的时候,多个阻塞的线程会被唤醒。当然这个问题在Linux内核2.6版本就已经解决。


2. 言归正传:半同步/半异步


『半同步/半异步』模式(Half-Sync/Half-Async,以下简称HSHA),所谓『半同步/半异步』主要分三层:


异步IO层+队列层+同步处理层

当然也使用了多线程,一般是一个IO线程和多个工作线程。IO线程也可以是主线程,负责异步地从客户端fd获取客户端的请求数据,而工作线程则是并发的对该数据进行处理。工作线程不关心客户端fd,不关心通信。而IO线程不关心处理过程。


那么从IO线程到工作线程如何交换数据呢?那就是:队列。果然又应了那句老话『在软件工程中,没有一个问题是引入中间层解决不了』。


通过队列来作为数据交换的桥梁。因此可以看出,在HSHA模式中,有我们熟悉的『生产者、消费者』模型。当然由于涉及到多线程的同时操作队列,所以加锁是必不可以少的。


微信图片_20220528172119.jpg


潦草地画了一个图,不是UML,比较随意……


2.1 异步IO与同步处理


所谓异步:在接收客户端连接,获取请求数据,以及向队列中写入数据的时候是异步的。在写入完成可能会执行预设的回调函数,进行预处理和其他通知操作。也便是Proactor模式(与之相对的是Reactor,下文有述)。


关于异步IO,严重依赖内核的支持,比如Windows的IOCP就是公认的不错的异步IO实现,而Linux的AIO系列API虽然模拟了异步操作的接口,但是内部还是用多线程来模拟,实则为伪异步,十分鸡肋。另外请注意epoll不是异步IO!,epoll虽然可以一次返回多个fd的就绪状态,但若要获取数据,单线程的话还是同步一个fd一个fd的read的。


所谓同步:一个客户端连接的一次请求,其具体处理过程(业务逻辑)是同步的。虽然在消费队列的时候是多线程,但并不会多个线程并行处理一次请求。


综上,也就是说当一个客户端发送请求的时候,整个服务端的逻辑一分为二。第一部分,接收请求数据是异步的;第二部分,在收完数据之后的处理逻辑是同步的。所谓半同步,半异步因此得名。


2.2 返回数据是怎么发送的?


读完上一节,你明白了HSHA的名称由来,但是你发现没,漏讲了一部分。那就是『数据是如何发送回去的』。甚至我那个潦草的图里面都没有画。不止你有此一问,我其实也疑惑。关于HSHA,很多资料都有介绍如何用异步IO接收客户端请求数据,但却没有谈到应该如何发送响应数据给客户端。即便是HSHA的名称出处《POSA》这本书也没深究这部分。当然我们学习要活学活用,懂得灵活变通,而不能生搬硬套。关于如何发送,其实本身不是难点,我们也不需要拘泥于一定之规。


它的实现方式可以有很多,比如在工作线程中,处理完成之后,直接在工作线程向客户端发送数据。或者再弄一个写入队列,将返回数据和客户端信息(比如fd)放入该队列(在工作线程中侵入了IO逻辑,违背解耦初衷)。然后有一组专门负责发送的线程来取元素和发送(这种方式会增加额外的锁)。总之也不需要过分追求,什么标准、什么定义。


2.3 队列思考


队列中元素为封装了请求数据和其他元数据的结构体,可以称之为任务对象。HSHA模式不一定是多线程实现的,也可以是多进程。那么此时队列可能是一个共享内存,通过信号量同步来完成队列的操作。如果是多线程实现的。那么队列可以是一个普通的数组,多线程API若使用pthread,则同步即可使用pthread_mutext_t。当然也可以使用C++11的std::thread。


关于工作线程消费队列数据的方式,和一般的『队列』模型相同,即可分为『推』和『拉』两种模型。通常HSHA为推模型,即若队列尚无数据,则工作线程阻塞休眠,等待数据产生。而当IO线程写入了数据之后,则会唤醒休眠的工作线程来处理。很明显在pthread的语义下,这必然是一个条件变量(pthread_cond_t)。需要注意的是条件变量的惊群问题,即可能同时唤醒多个工作线程。前文虽然提到accept的惊群问题早被内核解决,但是条件变量的惊群问题仍在。这里需要注意的是虽然 pthread_cond_wait 本身便能阻塞线程,但一般还是要用while而非if来做阻塞判断,一方面便是为了避免惊群,另一个方面是某些情况下,阻塞住的线程可能被虚假唤醒(即没有pthread_cond_signal就解除了阻塞)。


伪码来描述一下:


while (1) {
    if (pthread_mutex_lock(&mtx) != 0) { // 加锁
        ... // 异常逻辑
    }
    while (!queue.empty()) {
        if (pthread_cond_wait(&cond, &mtx) != 0) {
            ... // 异常逻辑
        }
    }
    auto data = queue.pop();
    if (pthread_mutex_unlock(&mtx) != 0) { // 解锁
        ... // 异常逻辑
    }
    process(data); // 处理流程,业务逻辑
}


保险起见,上面的empty和pop函数内部一般也最好加锁保护。


再谈一下拉模型。即不需要条件变量,工作线程内做死循环,去不停的轮训队列数据。两种模型各有利弊,主要要看实际业务场景和业务规模,抛开业务谈架构,常常是狭隘的。如果是IO密集型的,比如并发度特别高,以至于几乎总能取到数据,那么就不需要推模型。


另外关于队列的数据结构,多进程需要使用到共享内存,相对麻烦,实际用多线程就OK了。前文提到多线程环境下用普通数组即可,尽管数组是定长的,当超过预设大小的时候,表示已经超过了处理能力则直接报错给客户端,即为一种『熔断』策略。我们当然也可以使用vector,但是切记,除非你真的了解容器,否则不要滥用。vector不是线程安全的,因此加锁也是必要的。另外一个隐患是,vector是可变长的,很多人自以为便自己为得起便利,除非系统内存不足,捕获一下bad_alloc,否则就以为万事大吉。殊不知vector在进行realloc,即重新分配内存的时候,之前的返回给你的迭代器会失效


请记住C++不是银弹,STL更不是!


3. 变体:半同步半反应堆


HSHA模式十分依赖异步IO,然而实现真异步通常是比较困难,即便Linux有AIO系列API,但其实十分鸡肋,内部用pthread模拟,在这方面不如Windows的IOCP。而当时IO多路复用技术的发展,带给了人们新的思路,用IO多路复用代替异步IO,对HSHA进行改造。这就是『半同步/半反应堆』模型(Half-Sync/Half-Reactor,以下简称HSHR)。


我又画了一个潦草的图:


微信图片_20220528172122.jpg


循环之初,Polling API(select/poll/epoll/kqueue)只监听服务端socket,当监测到服务端socket可读,就会进行进行accept,获得客户端fd放入队列。也就是说和HSHA不同,HSHR的队列中存放的不是请求数据,而是fd。工作线程从队列中取的不是数据,而是客户端fd。和HSHA不同,HSHR将IO的过程侵入到了工作线程中。工作线程的逻辑循环内从队列取到fd后,对fd进行read/recv获取请求数据,然后进行处理,最后直接write/send客户端fd,将数据返回给客户端。可以看出来,这种IO的方式是一种Reactor模式,这就是该模型中,半反应堆(Half-Reactor)一词的由来。


当然队列中存储的元素并不是简单的int来表示fd,而是一个结构体,里面除了包含fd以外还会包含一些其他信息,比如状态之类的。如果队列是数组,则需要有状态标记,fd是否就绪,是否已被消费等等。工作线程每次取的时候不是简单的竞争队首元素,而是也要判断一下状态。当然如果是链表形式的队列,也可以通过增删节点,来表示fd是否就绪,这样工作线程每次就只需要竞争队首了,只不过在每个连接频繁发送数据的时候,会频繁的增删相同的fd节点,这样的链表操作效率未必比数组高效。


3.2epoll一定比select效率高吗?


曾几何时,有位面试官问我“epoll一定比select效率高吗?”。我说“恩”。然后他一脸鄙夷,和我再三确认。面试结束后。我翻遍谷歌,想找出一些 what time select is better than epoll的例子来。但是很遗憾,没有发现。百度搜索国内的资料,发现国人倒是写过一些。比如说在监视的fd个数不多的时候,select可能比epoll更高效。

貌似很多人对select的理解存在误区,认为只有监视的fd个数足够多的时候,由于select的线性扫描fd集合操作效率才比较低,所以就想当然的认为当监视的fd个数不是很多的时候,它的效率可能比摆弄红黑树和链表的epoll要更高。其实不是,这个扫描效率和fd集合的大小无关,而是和最大的fd的数值有关。比如你只监视一个fd,这个fd是1000,那么它也会从0到1000都扫描一遍。当然这也不排除fd比较少的时候,有更大的概率它的数值一般也比较小,但是我不想玩文字游戏,如果硬要说fd集合小的时候,epoll效率未必最优的话,那也是和poll比,而不是select。


poll没有select那种依赖fd数值大小的弊端,虽然他也是线性扫描的,但是fd集合有多少fd,他就扫描多少。绝不会多。所以在fd集合比较小的时候,poll确实会有由于epoll的可能。但是这种场景使用epoll也完全能胜任。当然poll也并不总是由于select的。因为这两货还有一个操作就是每次select/poll的时候会将监视的fd集合从用户态拷贝到内核态。select用bitmask描述fd,而poll使用了复杂的结构体,所以当fd多的时候,每次poll需要拷贝的字节数会更多。所以poll和select的比较也是不能一概而论的。

当然我也没说select在“某些”情况下肯定就不会高于epoll哦(括弧笑)

虽然总体来说select不如epoll,但select本身的效率也没你想象中那么低。如果你在老系统上看到select,也运行的好好的,那真的只是Old-Fashion,不存在什么很科学的解释,说这个系统为什么没采用epoll。Anyway,除非你不是Linux系统,否则为什么对epoll说不呢?




好了。本文基本就到这里了,再留个课后题:本文提到的模式严重依赖队列,那么可以取消掉这个队列吗?答案是当然可以,只是那就不是HSHA了,而是Leader/Follower或者其他了。


虽然本文废话很多,也可能论述有出入。但是如果你能耐心读完,相信你还是会有所收获的。很多模糊的,抓不住的概念,可以抓住了。很多自己本来就知道的东西,其实是一套定义或方法论的。所有技术问题都怕耐心,网络编程亦如是。耐心坚持下去,你终会发现:


高山仰之可极,深渊度之可测
相关文章
|
1月前
|
网络协议 安全 Go
Go语言进行网络编程可以通过**使用TCP/IP协议栈、并发模型、HTTP协议等**方式
【10月更文挑战第28天】Go语言进行网络编程可以通过**使用TCP/IP协议栈、并发模型、HTTP协议等**方式
62 13
|
3月前
|
机器学习/深度学习 安全 网络安全
云端盾牌:云计算时代的网络安全守护在这个数字脉搏加速跳动的时代,云计算以其高效、灵活的特性,成为推动企业数字化转型的强劲引擎。然而,正如每枚硬币都有两面,云计算的广泛应用也同步放大了网络安全的风险敞口。本文旨在探讨云计算服务中网络安全的关键作用,以及如何构建一道坚不可摧的信息防线,确保数据的安全与隐私。
云计算作为信息技术领域的革新力量,正深刻改变着企业的运营模式和人们的生活。但在享受其带来的便利与效率的同时,云服务的安全问题不容忽视。从数据泄露到服务中断,每一个安全事件都可能给企业和个人带来难以估量的损失。因此,本文聚焦于云计算环境下的网络安全挑战,分析其根源,并提出有效的防护策略,旨在为云服务的安全使用提供指导和参考。
89 8
|
3月前
|
设计模式 开发者 UED
深入理解Kotlin中的异步网络请求处理
深入理解Kotlin中的异步网络请求处理
|
4月前
|
缓存
PUN☀️八、拓展网络同步:RPCs 和 Properties
PUN☀️八、拓展网络同步:RPCs 和 Properties
|
4月前
|
存储 缓存 定位技术
如果遇到网络延迟问题,有哪些方法可以快速解决以保证视频源同步?
如果遇到网络延迟问题,有哪些方法可以快速解决以保证视频源同步?
|
4月前
|
UED 存储 数据管理
深度解析 Uno Platform 离线状态处理技巧:从网络检测到本地存储同步,全方位提升跨平台应用在无网环境下的用户体验与数据管理策略
【8月更文挑战第31天】处理离线状态下的用户体验是现代应用开发的关键。本文通过在线笔记应用案例,介绍如何使用 Uno Platform 优雅地应对离线状态。首先,利用 `NetworkInformation` 类检测网络状态;其次,使用 SQLite 实现离线存储;然后,在网络恢复时同步数据;最后,通过 UI 反馈提升用户体验。
111 0
|
6月前
|
JSON Java API
【Android】使用 Retrofit2 发送异步网络请求的简单案例
**摘要:** Retrofit是Android和Java的HTTP客户端库,简化了RESTful API交互。它通过Java接口定义HTTP请求,并提供注解管理参数、HTTP方法等。要使用Retrofit,首先在AndroidManifest.xml中添加`INTERNET`权限,然后在`build.gradle`中引入Retrofit和Gson依赖。创建服务器响应数据类和描述接口的接口,如`Result`和`Api`。通过Retrofit.Builder配置基础URL并构建实例,之后调用接口方法创建Call对象并发送异步请求。
239 1
|
6月前
|
监控 网络协议 Java
Java一分钟之-Netty:高性能异步网络库
【6月更文挑战第11天】Netty是Java的高性能异步网络框架,基于NIO,以其高吞吐量、低延迟、灵活性和安全性受到青睐。常见问题包括内存泄漏、ChannelHandler滥用和异常处理不当。要规避这些问题,需正确释放ByteBuf,精简ChannelPipeline,妥善处理异常,并深入理解Netty原理。通过代码审查、遵循最佳实践和监控日志,可提升代码质量和性能。掌握Netty,打造高效网络服务。
95 2
|
5月前
|
安全 NoSQL Java
网络安全-----Redis12的Java客户端----客户端对比12,Jedis介绍,使用简单安全性不足,lettuce(官方默认)是基于Netty,支持同步,异步和响应式,并且线程是安全的,支持R
网络安全-----Redis12的Java客户端----客户端对比12,Jedis介绍,使用简单安全性不足,lettuce(官方默认)是基于Netty,支持同步,异步和响应式,并且线程是安全的,支持R