在网络编程中通常需要处理很多个连接,可以用select和poll来处理多个连接。但是select都受进程能打开的最大文件描述符个数的限制。并且select和poll效率会随着监听fd的数目增多而下降。
解决方法就是用epoll
1.epoll
是Linux内核为处理大批量文件描述符而做了改进的poll,是Linux下多路复用IO接口select/poll的增强版本。
2.epoll、select、poll的区别:
1)相比于select和poll,epoll最大的好处在于不会随着监听fd数目的增加而降低效率
2)内核中的select与poll的实现是采用轮询来处理的,轮询数目越多耗时就越多
3)epoll的实现是基于回调的,如果fd有期望的事件发生就会通过回调函数将其加入epoll就绪队列中。也就是说它只关心“活跃”的fd,与fd数目无关。
4)内核空间用户空间数据拷贝问题,如何让内核把fd消息通知给用户空间?select和poll采取了内存拷贝的方法,而epoll采用的是共享内存的方式。速度快
5)epoll不仅会告诉应用程序有I/o事件的到来,还会告诉应用程序相关的信息,这写信息是应用程序填充的,因此根据这写信息应用程序就能直接定位到事件,而不必遍历整个fd集合。
6)poll和select受进程能打开的最大文件描述符的限制。select还受FD_SETSIZE的限制。但是epoll的限制的最大可以打开文件的数目(cat /proc/sys/fs/file-max进行查看)。
3.epoll的工作模式
有下面两种工作模式,默认是水平触发。
EPOLLLT:水平触发(Level Triggered),事件没有处理完也会触发。完全靠kernel epoll驱动,应用程序只需要处理从epoll_wait返回的fds。这些fds我们认为他们处于就绪状态。
LT模式支持阻塞fd和非阻塞fd。
EPOLLET:边沿触发(Edge Triggered)。只有空闲->就绪才会触发。应用程序需要维护一个就绪队列。
此模式下,系统仅仅通知应用程序哪些fds变成了就绪状态,一旦fd变成了就绪状态,epoll将不再关注这个fd的任何状态信息(从epoll队列移除)。
直到应用程序通过读写操作触发EAGAIN状态,epoll认为这个fd又变成空闲状态,那么epoll又重新关注这个fd的状态变化(重新加入epoll队列中)。
随着epoll_wait的返回,队列中的fds是减少的,所以在大并发的系统中,EPOLLET更有优势。但是对程序员的要求也更高。
ET模式只支持non-block socket,以避免由于一个文件句柄的阻塞读/阻塞写把处理多个文件描述符的任务饿死。
4.如何使用
主要是下面几个函数和结构体。
#include <sys/epoll.h>
int epoll_create(int size);
int epoll_create1(int flags);
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
int epoll_wait(int epfd, struct epoll_event *events,int maxevents, int timeout);
The struct epoll_event is defined as :
typedef union epoll_data {
void *ptr;
int fd;
uint32_t u32;
uint64_t u64;
} epoll_data_t;
struct epoll_event {
uint32_t events; /* Epoll events */
epoll_data_t data; /* User data variable */
};
1)int epoll_create(int size);
创建一个epoll的句柄,
size:告诉内核这个句柄可以监听的数目一共多大。
注意这里返回一个句柄,也是一个文件描述符,后面还是要关闭的。
2)int epoll_create1(int flags);
上面那个的加强版,flags可以是EPOLL_CLOEXEC,表示具有执行后关闭的特性
EPOLL_CLOEXEC
Set the close-on-exec (FD_CLOEXEC) flag on the new file descrip‐
tor. See the description of the O_CLOEXEC flag in open(2) for
reasons why this may be useful
3) int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
注册函数,用来对创建的epollfd进行操作的。
epfd:create出来的fd
op:执行的动作,由3个宏来表示
EPOLL_CTL_ADD:注册新的fd到epfd中;
EPOLL_CTL_MOD:修改已经注册的fd的监听事件;
EPOLL_CTL_DEL:从epfd中删除一个fd;
fd:要监听的fd
event:表示需要监听的事件
结构见上面。
events可以是以下几个宏的集合:
EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭);
EPOLLOUT:表示对应的文件描述符可以写;
EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);
EPOLLERR:表示对应的文件描述符发生错误;
EPOLLHUP:表示对应的文件描述符被挂断;
EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。
EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里
4) int epoll_wait(int epfd, struct epoll_event *events,int maxevents, int timeout);
用来等待事件的产生
epfd:create出来的epollfd
events:从内核得到事件的集合。一般的一个数组
maxevents:用来告诉内核events有多大,不能大于epoll_create()时的size。
timeout是超时时间:单位的毫秒,为0表示立即返回,-1表示阻塞。
返回:0表示超时,>0表示需要处理的事件数目。<0表示出错
5.实例:
server端是一个回射服务器:
#include<sys/types.h> #include<sys/socket.h> #include<sys/select.h> #include<netinet/in.h> #include<arpa/inet.h> #include<poll.h> #include<stdlib.h> #include<stdio.h> #include<string.h> #include<errno.h> #include<unistd.h> #include <fcntl.h> #include<sys/epoll.h> #include<vector> #include<algorithm> // #include"comm.h" void setfdisblock(int fd, bool isblock) { int flags = fcntl(fd, F_GETFL); if(flags < 0) return; if(isblock) // 阻塞 { flags &= ~O_NONBLOCK; } else // 非阻塞 { flags |= O_NONBLOCK; } if(fcntl(fd, F_SETFL, flags)<0) perror("fcntl set"); } typedef std::vector<struct epoll_event> EventList; #define CLIENTCOUNT 2048 #define MAX_EVENTS 2048 int main(int argc, char **argv) { int listenfd = socket(AF_INET, SOCK_STREAM, 0); if(listenfd < 0) { perror("socket"); return -1; } unsigned short sport = 8080; if(argc == 2) { sport = atoi(argv[1]); } struct sockaddr_in addr; addr.sin_family = AF_INET; printf("port = %d\n", sport); addr.sin_port = htons(sport); addr.sin_addr.s_addr = inet_addr("127.0.0.1"); if(bind(listenfd, (struct sockaddr*)&addr, sizeof(addr)) < 0) { perror("bind"); return -2; } if(listen(listenfd, 20) < 0) { perror("listen"); return -3; } struct sockaddr_in connaddr; socklen_t len = sizeof(connaddr); int i = 0, ret = 0; std::vector<int> clients; // 客户端存储的迭代器 int epollfd = epoll_create1(EPOLL_CLOEXEC); //int epollfd = epoll_create(MAX_EVENTS);// 设置连接数 struct epoll_event event; event.events = EPOLLIN|EPOLLET; event.data.fd = listenfd; if(epoll_ctl(epollfd, EPOLL_CTL_ADD, listenfd, &event) < 0) { perror("epoll_ctl"); return -2; } EventList events(16); int count = 0; int nready = 0; char buf[1024] = {0}; int conn = 0; while(1) { nready = epoll_wait(epollfd, &*events.begin(), static_cast<int>(events.size()), -1); if(nready == -1) { perror("epoll_wait"); return -3; } if(nready == 0) // 肯定不会走到这里,因为上面没设置超时时间 { continue; } if((size_t)nready == events.size()) // 对clients进行扩容 events.resize(events.size() * 2); for(i = 0; i < nready; i++) { if(events[i].data.fd == listenfd) { conn = accept(listenfd, (struct sockaddr*)&connaddr, &len); if(conn < 0) { perror("accept"); return -4; } char strip[64] = {0}; char *ip = inet_ntoa(connaddr.sin_addr); strcpy(strip, ip); printf("client connect, conn:%d,ip:%s, port:%d, count:%d\n", conn, strip,ntohs(connaddr.sin_port), ++count); clients.push_back(conn); // 设为非阻塞 setfdisblock(conn, false); // add fd in events event.data.fd = conn;// 这样在epoll_wait返回时就可以直接用了 event.events = EPOLLIN|EPOLLET; epoll_ctl(epollfd, EPOLL_CTL_ADD, conn, &event); } else if(events[i].events & EPOLLIN) { conn = events[i].data.fd; if(conn < 0) continue; ret = read(conn, buf, sizeof(buf)); if(ret == -1) { perror("read"); return -5; } else if(ret == 0) { printf("client close remove:%d, count:%d\n", conn, --count); close(conn); event = events[i]; epoll_ctl(epollfd, EPOLL_CTL_DEL, conn, &event); clients.erase(std::remove(clients.begin(), clients.end(), conn), clients.end()); } write(conn, buf, sizeof(buf)); memset(buf, 0, sizeof(buf)); } } } close(listenfd); return 0; }
client:连接服务器,通过终端发送数据给server,并接收server发来的数据。
#include<sys/types.h> #include<sys/socket.h> #include<netinet/in.h> #include<arpa/inet.h> #include<sys/select.h> #include<stdlib.h> #include<stdio.h> #include<string.h> void select_test(int conn) { int ret = 0; fd_set rset; FD_ZERO(&rset); int nready; int maxfd = conn; int fd_stdin = fileno(stdin); if(fd_stdin > maxfd) { maxfd = fd_stdin; } int len = 0; char readbuf[1024] = {0}; char writebuf[1024] = {0}; while(1) { FD_ZERO(&rset); FD_SET(fd_stdin, &rset); FD_SET(conn, &rset); nready = select(maxfd+1, &rset, NULL, NULL, NULL); if(nready == -1) { perror("select"); exit(0); } else if(nready == 0) { continue; } if(FD_ISSET(conn, &rset)) { ret = read(conn, readbuf, sizeof(readbuf)); if(ret == 0) { printf("server close1\n"); break; } else if(-1 == ret) { perror("read1"); break; } fputs(readbuf, stdout); memset(readbuf, 0, sizeof(readbuf)); } if(FD_ISSET(fd_stdin, &rset)) { read(fd_stdin, writebuf, sizeof(writebuf)); len = strlen(writebuf); ret = write(conn, writebuf, len); if(ret == 0) { printf("server close3\n"); break; } else if(-1 == ret) { perror("write"); break; } memset(writebuf, 0, sizeof(writebuf)); } } } int sockfd = 0; int main(int argc, char **argv) { sockfd = socket(AF_INET, SOCK_STREAM, 0); if(sockfd < 0) { perror("socket"); return -1; } unsigned short sport = 8080; if(argc == 2) { sport = atoi(argv[1]); } struct sockaddr_in addr; addr.sin_family = AF_INET; printf("port = %d\n", sport); addr.sin_port = htons(sport); addr.sin_addr.s_addr = inet_addr("127.0.0.1"); if(connect(sockfd, (struct sockaddr*)&addr, sizeof(addr)) < 0) { perror("connect"); return -2; } struct sockaddr_in addr2; socklen_t len = sizeof(addr2); if(getpeername(sockfd, (struct sockaddr*)&addr2, &len) < 0) { perror("getsockname"); return -3; } printf("Server: port:%d, ip:%s\n", ntohs(addr2.sin_port), inet_ntoa(addr2.sin_addr)); select_test(sockfd); close(sockfd); return 0; }
还可以进行暴力连接测试。可以参考: http://www.cnblogs.com/xcywt/p/8120166.html 这个例子的客户端就是暴力连接测试的。
测试结果可以和select实现的server进行比较,发现在虚拟机上epollserver好像没有快多少(我也暂时没找到原因)。
但是在服务器上,还是有很快的,效率提升了很多。