Reactor 模型

简介: Reactor 模型

服务器程序通常需要处理三类事件:IO 事件、信号事件和定时事件。事件处理机制主要有:Reactor(同步 IO 模型) 和 Proactor(异步 IO 模型)。

1、网络编程关注的事件

网络编程关注的三个半事件

  • 连接建立
  • 连接断开
  • 消息到达
  • 消息发送

2、网络 IO 的职责

2.1、IO 检测

检测多个 IO 的就绪状态,可检测笼统的事件。

2.1.1、连接建立

  • EPOLLIN:接收连接,作为服务端,被动接收客户端连接,监听读事件
  • EPOLLOUT:主动连接,作为客户端,主动连接第三方服务,监听写事件

2.1.2、连接断开

  • EPOLLRDHUB,读端关闭,半连接状态,如何处理未写完的数据
  • EPOLLHUB,读写端关闭

2.1.3、消息到达

  • EPOLLIN:监听 clientfd 的读事件

2.1.4、消息发送

  • EPOLLOUT: 监听 clientfd 的写事件,通常是 write 没有把用户数据未发送完,注册写事件,等待写事件触发
(epoll_event)ev.events |= EPOLLOUT;
 epoll_ctl(epfd, EPOLL_CTL_ADD, clientfd, &ev);

2.2、IO 操作

只能用 IO 函数来操作,分为阻塞 IO 与非阻塞 IO。IO 函数只能检测一条连接的就绪状态以及操作一条连接的数据,可检测具体的事件 errno。

2.2.1、连接建立

主动连接 connect

  • EINPROGRESS正在建立
  • EISCONN已经建立

被动连接

  • listen(fd, backlog)EWOULDBLOCK
  • accept

2.2.2、连接断开

主动断开

  • close: 关闭读写端口,close(fd) <-> shutdown(fd, SHUT_RDWR)
  • shutdown
  • 关闭读端,对端写端关闭,shutdown(fd, SHUT_RD)
  • 关闭写端,对端读端关闭,shutdown(fd, SHUT_RD)


被动断开,客户端发送 FIN 包

  • read = 0:读端关闭,有的需要支持半关闭状态,即仍然可以向客户端发送数据。
  • write = -1 && errno = EPIPE: 写端关闭。

2.2.3、连接到达

read

  • EWOULDBLOCK | EAGAIN:ET 模式,数据已读完
  • EINTER: 被中断打断,重试
  • ETIMEOUT: tcp 探活超时

2.2.4、消息发送

write

  • EWOULDBLOCK | EAGAIN:ET 模式,数据未发送完
  • EINTER: 被中断打断,重试
  • EPIPE:写端关闭

3、Reactor 模式

3.1、概念

反应堆,one eventloop per thread

  • 组成:非阻塞 IO(IO 操作)+ IO 多路复⽤(IO 检测)
  • 特征:基于事件循环,以事件驱动或事件回调的方式来实现业务逻辑
  • 表述:将连接的 IO 处理转化为事件处理

3.2、面试:Reactor 为什么使用非阻塞 IO

  • 多线程环境:一个事件同时被多线程监听,当该事件就绪,只有一个线程获得控制权,其他线程阻塞,即惊群效应。例:accept 惊群。
  • 边缘触发:在读事件触发时,read 要在一次事件循环中把读缓冲读空。若读缓冲已经读空,继续调用 read 会阻塞。
  • select bug:有数据到达,select 检测 fd 可读,随后协议栈检验到该数据错误而丢弃,此时调用 read 无数据可读。若该 fd 设置没有设置成非阻塞,则 read 阻塞当前线程。

3.3、事件分类

reactor 基于事件循环,事件分为两类:EPPOLLINEPOLLOUT

if (EPPOLLIN) fd->cb;   // 读事件,连接建立(accept_cb) + 消息到达(read_cb)
 if (EPOLLOUT) fd->cb;   // 写事件,消息发送(send_cb)

回调函数分为两类:事件回调函数和错误回调函数

void (*event_callback)(int fd, int events, void *arg);
 void (*error_callback)(int fd, char * err);

其中,事件回调函数是必要的,分为:read_cb()write_cb()accept_cb()

read_cb()

  • read / recv():把数据读到 rbuffer 里
  • parser():解析数据,是否处理完数据,关注 io 下一个事件
  • event_register(): 重新设置 io 状态

write_cb()

  • 把待发送的数据放入 wbuffer 中
  • wirte():判断 io 是否可写,关注 io 下一个事件
  • event_register():重新设置 io 状态

accept_cb()

  • accept(): 接收客户端的连接
  • 设置 fd 可读
  • 添加到 epoll 中

3.4、代码实现

reactor.h

#ifndef _REACTOR_
 #define _REACTOR_
 #include <stdio.h>
 #include <unistd.h>
 #include <fcntl.h>
 #include <sys/types.h> 
 #include <sys/socket.h>
 #include <errno.h> 
 #include <arpa/inet.h> 
 #include <assert.h> 
 #include <sys/epoll.h>
 #include <stdlib.h> 
 #include <string.h> 
 #include "chainbuffer/buffer.h"
 // #include "ringbuffer/buffer.h"
 #define MAX_EVENT_NUM 512       // 每次用户拷贝事件的最大数目
 #define MAX_CONN ((1<<16)-1)    // 事件对象的最大数目:65535
 typedef struct event_s event_t;
 typedef void (*event_callback_fn)(int fd, int events, void *privdata);
 typedef void (*error_callback_fn)(int fd, char * err);
 // reactor对象,管理io全局变量 
 typedef struct {
     int epfd;        // epfd 
     int listenfd;    // 监听的fd
     int stop;        // 停止循环标记
     event_t *events; // 存储监听的所有事件(event_t),存储在堆上,记得释放
     int iter;        // 用于遍历events,获取没有被使用的位置
     struct epoll_event fire[MAX_EVENT_NUM]; // 用户态数组,用于拷贝io事件到用户态
 } reactor_t;
 // 事件对象,保存每个fd对应的io状态
 struct event_s {
     int fd;         // 对应的事件 fd
     reactor_t *r;   // 指向 reactor 全局对象
     buffer_t in;    // 读缓冲,待读取
     buffer_t out;   // 写缓冲,待发送
     event_callback_fn read_fn;  // 读回调
     event_callback_fn write_fn; // 写回调
     error_callback_fn error_fn; // 错误回调
 };
 int event_buffer_read(event_t *e);
 int event_buffer_write(event_t *e, void * buf, int sz);
 // 创建 reactor 对象
 reactor_t * create_reactor() {
     // 堆上申请 reactor 对象
     reactor_t *r = (reactor_t *)malloc(sizeof(*r));
     r->epfd = epoll_create(1);
     r->listenfd = 0;
     r->stop = 0;
     r->iter = 0;
     // 堆上申请 reactor 中的events数组
     r->events = (event_t*)malloc(sizeof(event_t)*MAX_CONN);
     memset(r->events, 0, sizeof(event_t)*MAX_CONN);
     memset(r->fire, 0, sizeof(struct epoll_event) * MAX_EVENT_NUM);
     // init_timer();
     return r;
 }
 // 释放 reactor 对象
 void release_reactor(reactor_t * r) {
     free(r->events);    // 释放reactor在堆上申请的events
     close(r->epfd);     // 关闭epoll
     free(r);            // 释放reactor
 }
 // 从 reactor 的事件堆上获取空闲的事件对象
 event_t * _get_event_t(reactor_t *r) {
     r->iter ++;
     // 寻找没有被使用的事件对象
     while (r->events[r->iter & MAX_CONN].fd > 0) {
         r->iter++;
     }
     return &r->events[r->iter];
 }
 // 基于事件的操作
 // 1、创建事件对象
 event_t * new_event(reactor_t *R, int fd,
     event_callback_fn rd,
     event_callback_fn wt,
     error_callback_fn err) {
     assert(rd != 0 || wt != 0 || err != 0);
     // 获取空闲的事件对象
     event_t *e = _get_event_t(R);
     // 初始化事件对象
     e->r = R;
     e->fd = fd;
     buffer_init(&e->in, 1024*16);
     buffer_init(&e->out, 1024*16);
     e->read_fn = rd;
     e->write_fn = wt;
     e->error_fn = err;
     return e;
 }
 // 2、添加事件
 int add_event(reactor_t *R, int events, event_t *e) {
     struct epoll_event ev;
     ev.events = events;
     ev.data.ptr = e;
     if (epoll_ctl(R->epfd, EPOLL_CTL_ADD, e->fd, &ev) == -1) {
         printf("add event err fd = %d\n", e->fd);
         return 1;
     }
     return 0;
 }
 // 释放事件所占空间
 void free_event(event_t *e) {
     buffer_free(&e->in);    
     buffer_free(&e->out);
 }
 // 3、删除事件
 int del_event(reactor_t *R, event_t *e) {
     epoll_ctl(R->epfd, EPOLL_CTL_DEL, e->fd, NULL);
     free_event(e);
     return 0;
 }
 // 4、修改事件,由后面两个参数决定是读事件还是写事件
 int enable_event(reactor_t *R, event_t *e, int readable, int writeable) {
     struct epoll_event ev;
     ev.events = (readable ? EPOLLIN : 0) | (writeable ? EPOLLOUT : 0);
     ev.data.ptr = e;
     if (epoll_ctl(R->epfd, EPOLL_CTL_MOD, e->fd, &ev) == -1) {
         return 1;
     }
     return 0;
 }
 // 一次事件循环
 void eventloop_once(reactor_t * r, int timeout) {
     int n = epoll_wait(r->epfd, r->fire, MAX_EVENT_NUM, timeout);
     for (int i = 0; i < n; ++i) {
         struct epoll_event *e = &r->fire[i];  // 获取事件
         int mask = e->events;                 // 获取事件类型
         // 用 io 函数捕获具体的错误信息
         if (e->events & EPOLLERR) mask |= EPOLLIN | EPOLLOUT;
         // 用 io 函数捕获断开的具体信息
         if (e->events & EPOLLHUP) mask |= EPOLLIN | EPOLLOUT;
         event_t *et = (event_t*) e->data.ptr; // 获取事件关联的用户数据
         // 处理读事件
         if (mask & EPOLLIN) {
             if (et->read_fn) {
                 et->read_fn(et->fd, EPOLLIN, et);   // 执行读回调
             }          
         }
         // 处理写事件
         if (mask & EPOLLOUT) {
             if (et->write_fn) {
                 et->write_fn(et->fd, EPOLLOUT, et); // 执行写回调
             }     
             else {
                 uint8_t *buf = buffer_write_atmost(&et->out);
                 event_buffer_write(et, buf, buffer_len(&et->out));
             }
         }
     }
 }
 // 停止事件循环
 void stop_eventloop(reactor_t * r) {
     r->stop = 1;
 }
 // 事件循环
 void eventloop(reactor_t * r) {
     while (!r->stop) {
         // int timeout = find_nearest_expire_timer();
         eventloop_once(r, /*timeout*/ -1);
         // expire_timer();
     }
 }
 // 设置非阻塞fd
 int set_nonblock(int fd) {
     int flag = fcntl(fd, F_GETFL, 0);
     return fcntl(fd, F_SETFL, flag | O_NONBLOCK);
 }
 // 创建服务器
 int create_server(reactor_t *R, short port, event_callback_fn func) {
     // 1、socket
     int listenfd = socket(AF_INET, SOCK_STREAM, 0);
     if (listenfd < 0) {
         printf("create listenfd error!\n");
         return -1;
     }
     struct sockaddr_in addr;
     memset(&addr, 0, sizeof(struct sockaddr_in));
     addr.sin_family = AF_INET;
     addr.sin_port = htons(port);
     addr.sin_addr.s_addr = INADDR_ANY;
     // 设置地址可重用
     int reuse = 1;
     if (setsockopt(listenfd, SOL_SOCKET, SO_REUSEADDR, (void *)&reuse, sizeof(int)) == -1) {
         printf("reuse address error: %s\n", strerror(errno));
         return -1;
     }
     // 2、bind
     if (bind(listenfd, (struct sockaddr*)&addr, sizeof(struct sockaddr_in)) < 0) {
         printf("bind error %s\n", strerror(errno));
         return -1;
     }
     // 3、listen
     if (listen(listenfd, 5) < 0) {
         printf("listen error %s\n", strerror(errno));
         return -1;
     }
     // 设置 listenfd 非阻塞 
     if (set_nonblock(listenfd) < 0) {
         printf("set_nonblock error %s\n", strerror(errno));
         return -1;
     }
     R->listenfd = listenfd;
     // 注册读事件
     event_t *e = new_event(R, listenfd, func, 0, 0);
     add_event(R, EPOLLIN, e);
     printf("listen port : %d\n", port);
     return 0;
 }
 // 读数据
 int event_buffer_read(event_t *e) {
     int fd = e->fd; 
     int num = 0;    // 读取的数据总量
     while (1) {
         // TODO: dont use char buf[] here
         char buf[1024] = {0};
         int n = read(fd, buf, 1024);
         // 1、read=0, 服务器收到FIN包,半关闭状态
         // Todo: 半关闭状态逻辑处理,参考 skynet
         if (n == 0) { // 
             printf("close connection fd = %d\n", fd);
             if (e->error_fn) {
                 e->error_fn(fd, "close socket");
             }   
             del_event(e->r, e);
             close(fd);
             return 0;
         } 
         // 2、read=-1,读异常
         else if (n < 0) {
             // 2.1、EINTR:中断,重试
             if (errno == EINTR) {
                 continue;
             }
             // 2.2、EWOULDBLOCK:阻塞,读缓冲区为空 
             if (errno == EWOULDBLOCK) {
                 break;
             }
             // 其他错误,执行错误回调,删除该事件,关闭当前连接
             printf("read error fd = %d err = %s\n", fd, strerror(errno));
             if (e->error_fn)
                 e->error_fn(fd, strerror(errno));
             del_event(e->r, e);
             close(fd);
             return 0;
         } 
         // 3、read>0, 正常,读取数据,处理业务逻辑
         else {
             printf("recv data from client:%s", buf);
             buffer_add(&e->in, buf, n);
         }
         num += n;
     }
     return num;
 }
 // 向对端发送数据
 int _write_socket(event_t *e, void * buf, int sz) {
     int fd = e->fd;
     while (1) {
         int n = write(fd, buf, sz);
         // 1、write=-1,写异常
         if (n < 0) {
             // 1.1、EINTR:中断,重试
             if (errno == EINTR) {
                 continue;
             }  
             // 1.2、EWOULDBLOCK:阻塞,需要注册写事件,等待下一次发送未发送完的数据
             if (errno == EWOULDBLOCK) {
                 break;
             }
             // 其他错误,执行错误回调,删除该事件,关闭当前连接   
             if (e->error_fn) {
                 e->error_fn(fd, strerror(errno));
             }     
             del_event(e->r, e);
             close(e->fd);
         }
         return n;
     }
     return 0;
 }
 // 写数据
 int event_buffer_write(event_t *e, void * buf, int sz) {
     // 指向用户写缓冲
     buffer_t *r = &e->out;
     // 1、用户写缓冲已满,开始发送
     if (buffer_len(r) == 0) {
         // 向对端发送数据
         int n = _write_socket(e, buf, sz);
         // 1.1、本次数据未发送完,未发送的数据写入缓冲,并注册写事件
         if (n == 0 || n < sz) {
             // 1.1、将没有发送完的数据写入缓冲区
             buffer_add(&e->out, (char *)buf + n, sz - n);
             // 1.2、注册写事件,等待下次事件触发接着发送
             enable_event(e->r, e, 1, 1);
             return 0;
         } 
         // 1.2、本次没有发送数据
         else if (n < 0) {
             return 0;
         }
         // 1.3、本次数据发送完成    
         return 1;
     }
     // 2、用户写缓冲未满,写入缓冲,等待发送
     buffer_add(&e->out, (char *)buf, sz);
     return 1;
 }
 #endif

server.c

#include "reactor.h"
 void read_cb(int fd, int events, void *privdata) {
     event_t *e = (event_t *)privdata;
     int n = event_buffer_read(e); // 将网络中读缓冲区的数据拷贝到用户态缓冲区
     if (n > 0) {
         // buffer_search 检测是否是一个完整的数据包
         int len = buffer_search(&e->in, "\n", 1);
         if (len > 0 && len < 1024) {
             char buf[1024] = {0};
             buffer_remove(&e->in, buf, len);
             event_buffer_write(e, buf, len);
         }
     }
 }
 void accept_cb(int fd, int events, void *privdata) {
     event_t *e = (event_t*) privdata;
     struct sockaddr_in addr;
     memset(&addr, 0, sizeof(struct sockaddr_in));
     socklen_t len = sizeof(addr);
     int clientfd = accept(fd, (struct sockaddr*)&addr, &len);
     if (clientfd <= 0) {
         printf("accept failed\n");
         return;
     }
     char str[INET_ADDRSTRLEN] = {0};
     printf("recv from %s at port %d\n", inet_ntop(AF_INET, &addr.sin_addr, str, sizeof(str)),
         ntohs(addr.sin_port));
     event_t *ne = new_event(e->r, clientfd, read_cb, 0, 0);
     add_event(e->r, EPOLLIN, ne);
     set_nonblock(clientfd);
 }
 int main() {
     reactor_t *R = create_reactor();
     if (create_server(R, 8989, accept_cb) != 0) {
         release_reactor(R);
         return 1;
     }
     eventloop(R);
     release_reactor(R);
     return 0;
 }

4、Reactor 应用

4.1、redis

单 reactor 模型

  • 场景:KV 内存数据库
  • 特点:单线程处理业务逻辑(命令)
  • 原因:数据结构高效,操作命令速度快
  • 优化:read, decode 和 encode, send 阶段采用多线程 (redis 6.0以后)

skynet 采用的也是单 reactor 模型。

redis

4.2、memcached

多 reactor 模型

  • 场景:KV 内存数据库
  • 特点:多线程处理业务逻辑(命令)
  • 原因:更高程度并发处理业务

memcached

4.3、nginx

多进程

  • 场景:反向代理
  • 特点:多进程处理业务逻辑
  • 原因:业务类型复杂,通过进程隔离运行环境避免加锁

master 进程根据配置文件生成一个监听相应端口的 socket,然后 fork 多个 worker 子进程,每个 worker 进程都可以监听 socket 消息。为了解决 accept 惊群问题,当一个连接到来,每个 worker 都能收到通知,但是只有一个 worker 能够建立连接,其他 worker 连接失败。nginx 通过互斥锁 accept_mutex 控制 worker 进程接收连接,只有获得了 accept_mutex 的进程才会添加 accept 事件。

nginx 使用变量 ngx_accept_disabled 来控制是否去竞争 accept_mutex 锁。

ngx_accept_disabled = nginx单进程的连接总数/8 - 空闲连接数量

当 ngx_accept_disabled > 0,不会尝试获取 accept_mutex 锁,该值越大,让出的机会越多,其他进程获取锁的机会越大。不添加 accept,每个 worker 进程的连接数得到控制,实现了连接平衡。

nginx

相关文章
|
6月前
|
消息中间件 Kubernetes NoSQL
Reactor 和 Proactor 区别
Reactor 和 Proactor 区别
|
1月前
|
Java
Reactor模式
通过一个具体的Java代码示例展示了如何在NIO框架下实现Reactor模式,用于处理网络IO事件,包括事件的接收、分发和处理。
34 4
Reactor模式
|
6月前
|
监控 安全 Linux
reactor的原理与实现
前情回顾 网络IO,会涉及到两个系统对象:   一个是用户空间调用的进程或线程   一个是内核空间的内核系统 如果发生IO操作read时,会奖励两个阶段:
71 1
|
6月前
|
缓存
2.1.2事件驱动reactor的原理与实现
2.1.2事件驱动reactor的原理与实现
|
6月前
|
API Windows
Reactor和Proactor网络模型的区别
Reactor和Proactor网络模型的区别
|
6月前
|
监控 Java 应用服务中间件
Reactor反应器模式
在Java的OIO编程中,最初和最原始的网络服务器程序使用一个while循环,不断地监听端口是否有新的连接,如果有就调用一个处理函数来处理。这种方法最大的问题就是如果前一个网络连接的处理没有结束,那么后面的连接请求没法被接收,于是后面的请求统统会被阻塞住,服务器的吞吐量就太低了。 为了解决这个严重的连接阻塞问题,出现了一个即为经典模式:Connection Per Thread。即对于每一个新的网络连接都分配一个线程,每个线程都独自处理自己负责的输入和输出,任何socket连接的输入和输出处理不会阻塞到后面新socket连接的监听和建立。早期版本的Tomcat服务器就是这样实现的。
|
存储 索引
2.2 事件驱动的reactor网络设计模型
2.2 事件驱动的reactor网络设计模型
49 0
|
消息中间件 JavaScript 前端开发
Reactor模型
Reactor模型
|
网络协议 数据处理
Reactor模式(二)
Reactor模式
81 0
|
设计模式 网络协议 数据处理
Reactor模式(一)
Reactor模式
120 0