Linux C TCP服务器端-select案例

简介: 本文主要介绍了linux下Select的TCP通信流程,实现了客户端和服务器的通信,主要实现了消息的回发,即服务器将消息原封不动的回发给客户端。

前言

本文主要介绍了linux下Select的TCP通信流程,实现了客户端和服务器的通信,主要实现了消息的回发,即服务器将消息原封不动的回发给客户端。

这里主要介绍服务端代码,关于客户端代码请参考客户端代码和socket的基本使用


服务器端代码

#include <errno.h>
#include <netinet/in.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <sys/socket.h>
#include <sys/types.h>
#include <unistd.h>
#define MAXLNE  4096
int main(int argc, char **argv) 
{
    int listenfd, connfd, n;
    struct sockaddr_in servaddr;
    char buff[MAXLNE];
    if ((listenfd = socket(AF_INET, SOCK_STREAM, 0)) == -1) {
        printf("create socket error: %s(errno: %d)\n", strerror(errno), errno);
        return 0;
    }
    memset(&servaddr, 0, sizeof(servaddr));
    servaddr.sin_family = AF_INET;
    servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
    servaddr.sin_port = htons(9999);
    if (bind(listenfd, (struct sockaddr *)&servaddr, sizeof(servaddr)) == -1) {
        printf("bind socket error: %s(errno: %d)\n", strerror(errno), errno);
        return 0;
    }
    //listen接口之后会一直监听客户端的连接,每次客户端连接,都会和其创建连接(三次连接时内核完成的,不是由应用程序去控制的)
  //三次握手不发生在任何API中,协议栈本身被动完成的。
    if (listen(listenfd, 10) == -1) {
        printf("listen socket error: %s(errno: %d)\n", strerror(errno), errno);
        return 0;
    }
    //select模型相比于一请求一线程而言
  //一个select最多支持1024 socket,如果开多个线程,那么是能支持大量socket的。
    //select不能做到100w级别的fd,select函数本身有copy全部监控的socket,循环这些
  //全部监控的socket存在一定的效率问题
  // fd_set,每个socket对应一个bit位,bit位为1,代表该socket发生了事件。
  //rfds:是需要监控读的集合(从用户copy到内核)
  //rset:是发生了读事件的socket的集合(从内核copy到用户)
  fd_set rfds, rset, wfds, wset;
  FD_ZERO(&rfds);//清空bit位
  FD_SET(listenfd, &rfds);//设置监听的socket的bit位
  FD_ZERO(&wfds);
    //比如listenfd为100,那么select就需要从第一位bit监控到101位的bit
  int max_fd = listenfd;//select第一个参数为监听socket的最大值+1
  while (1) {
  rset = rfds;
  wset = wfds;
        //一个专门的服务员来给所有的客户端服务,可以知道到底是哪些客户端发生了相应的事件(比如发送了数据给服务器)
  //如果最后一个参数为NULL,那么是阻塞的,一直到有事件发生(nready会大于0)
  int nready = select(max_fd+1, &rset, &wset, NULL, NULL);
  if (FD_ISSET(listenfd, &rset)) { //listenfd监听到了客户端连接
    struct sockaddr_in client;
      socklen_t len = sizeof(client);
      if ((connfd = accept(listenfd, (struct sockaddr *)&client, &len)) == -1) {
          printf("accept socket error: %s(errno: %d)\n", strerror(errno), errno);
          return 0;
      }
    FD_SET(connfd, &rfds);//加入到读的集合中,代表要监听某客户端的读(recv)事件
    //如果客户端没有回收,connfd比max_fd大,但是如果客户端回收了fd,那么数字会变小,因此需要判断当前的connfd是否大于max_fd  
    if (connfd > max_fd) max_fd = connfd;//重新设置最大的fd
    if (--nready == 0) continue;//只有一个客户端的连接
  }
  int i = 0;
  //注意0-标志输入,1-标志输出,2-错误,然后是listenfd,
  //然后每次客户端连接后,connfd会依次增大。回收后connfd会变小,但是无论如何都比listenfd大
  //因此这里检测的是所有客户端是否有客户端与服务器进行了通信
  for (i = listenfd+1;i <= max_fd;i ++) {
    if (FD_ISSET(i, &rset)) { //检测某个客户端是否已经准备好了数据或者关闭(正常关闭也会设置读数据)
    n = recv(i, buff, MAXLNE, 0);//
          if (n > 0) { //收到n个字节的数据
              buff[n] = '\0';
              printf("recv msg from client: %s\n", buff);
      设置可以往该客户端socket发送数据
      //有兴趣的朋友可以去为每个fd封装一个发送缓冲和接收缓冲,设置写标志后
      //然后再下面的else if (FD_ISSET(i, &wset))发送数据给客户端
      FD_SET(i, &wfds);
      send(i, buff, n, 0);//直接将接收到的数据发送给客户端
          } else if (n == 0) { //收到的字节为0,代表该客户端正常关闭了
      FD_CLR(i, &rfds);//清空该客户端的读事件
      //printf("disconnect\n");
              close(i);
          }
    if (--nready == 0) break;//没有客户端的读事件了
    } 
    else if (FD_ISSET(i, &wset)) {//某个客户端写事件已就绪
    // send(i, buff, n, 0);  //将前面接收到数据发送给客户端
    // FD_SET(i, &rfds);//
    }
  }
  } 
    close(listenfd);
    return 0;
}

说明

代码主要说明了select的基本用法,一般服务器使用select来实现多路复用的代码都跟其类似,不过在实际的开发中,一般select是和定时器事件结合起来的,因为在一般的网络中,包括定时器事件和网络I/O事件,在一次消息循环中需要同时处理定时器事件和网络I/O事件。,有兴趣的朋友可以参考live555的消息循环的相关代码。


相关文章
|
3天前
|
存储 数据挖掘 数据库
服务器数据恢复—OceanStor存储数据恢复案例
华为OceanStor T系列某型号存储中有一组由24块机械硬盘组建的一组RAID5阵列。 运行过程中该存储设备RAID5阵列上多块硬盘出现故障离线,阵列失效,存储中数据无法访问。
|
5天前
|
运维 监控 Linux
推荐几个不错的 Linux 服务器管理工具
推荐几个不错的 Linux 服务器管理工具
|
1天前
|
存储 数据挖掘
服务器数据恢复—zfs文件系统服务器数据恢复案例
一台配有32块硬盘的服务器在运行过程中突然崩溃不可用。经过初步检测,基本上确定服务器硬件不存在物理故障。管理员重启服务器后问题依旧。需要恢复该服务器中的数据。
|
10天前
|
运维 数据挖掘 索引
服务器数据恢复—Lustre分布式文件系统服务器数据恢复案例
5台节点服务器,每台节点服务器上有一组RAID5阵列。每组RAID5阵列上有6块硬盘(其中1块硬盘设置为热备盘,其他5块硬盘为数据盘)。上层系统环境为Lustre分布式文件系统。 机房天花板漏水导致这5台节点服务器进水,每台服务器都有至少2块硬盘出现故障。每台服务器中的RAID5阵列短时间内同时掉线2块或以上数量的硬盘,导致RAID崩溃,服务器中数据无法正常读取。
|
9天前
|
缓存 网络协议 Java
【JavaEE】——TCP回显服务器(万字长文超详细)
ServerSocket类,Socket类,PrintWriter缓冲区问题,Socket文件释放问题,多线程问题
|
14天前
|
存储 数据挖掘
服务器数据恢复—V7000存储上多块Mdisk成员盘出现故障的数据恢复案例
服务器存储数据恢复环境: 一台V7000存储上共12块SAS机械硬盘(其中1块是热备盘),组建了2组Mdisk,创建了一个pool。挂载在小型机上作为逻辑盘使用,小型机上安装的AIX+Sybase。 服务器存储故障: V7000存储中磁盘出现故障,管理员发现问题后立即更换磁盘。新更换的硬盘在上线同步数据的时候,存储上另一块磁盘也出现问题,导致逻辑盘无法挂接在小型机上,业务暂时中断。V7000存储的管理界面上显示两块硬盘故障脱机。 pool无法加载,其中三个通用卷均无法挂载。
|
24天前
|
安全 数据挖掘
服务器数据恢复—RAID5阵列中两块硬盘离线导致阵列崩溃的数据恢复案例
服务器数据恢复环境: 两组分别由4块SAS接口硬盘组建的raid5阵列,两组raid5阵列划分LUN并由LVM管理,格式化为EXT3文件系统。 服务器故障: RAID5阵列中一块硬盘未知原因离线,热备盘自动激活上线替换离线硬盘。在热备盘上线过程中,raid5阵列中又有一块硬盘离线。热备盘同步失败,该raid阵列崩溃,LVM结构变得不完整,文件系统无法正常使用。
|
29天前
|
存储 监控 调度
云服务器成本优化深度解析与实战案例
本文深入探讨了云服务器成本优化的策略与实践,涵盖基本原则、具体策略及案例分析。基本原则包括以实际需求为导向、动态调整资源、成本控制为核心。具体策略涉及选择合适计费模式、优化资源配置、存储与网络配置、实施资源监控与审计、应用性能优化、利用优惠政策及考虑多云策略。文章还通过电商、制造企业和初创团队的实际案例,展示了云服务器成本优化的有效性,最后展望了未来的发展趋势,包括智能化优化、多云管理和绿色节能。
|
30天前
|
人工智能 安全 Linux
|
1月前
|
存储 运维 数据挖掘
服务器数据恢复—EVA存储中多块硬盘离线导致存储崩溃的数据恢复案例
一台HP EVA存储中有23块硬盘,挂接到一台windows server操作系统的服务器。 EVA存储上有三个硬盘指示灯亮黄灯,此刻存储还能正常使用。管理员在更换硬盘的过程中,又出现一块硬盘对应的指示灯亮黄灯,存储崩溃,无法使用了。