Linux异步IO之 io_uring 详解及使用代码示例

简介: Linux异步IO之 io_uring 详解及使用代码示例

一、什么是io_uring

io_uring是linux 5.1引入的异步io接口,适合io密集型应用。其初衷是为了解决linux下异步io接口不完善且性能差的现状,用以替代linux aio接口(io_setup,io_submit,io_getevents)。现在io_uring已经支持socket和文件的读写,未来会支持更多场景。

二、io_uring API

io_uring 的实现主要在 fs/io_uring.c 中。

2.1 io_uring 三个系统调用

io_uring 的实现仅仅使用了三个 syscall

  1. io_uring_setup,用于设置io_uring的上下文;
  2. io_uring_enter,用于提交和获取完成任务;
  3. io_uring_register,用于注册内核用户共享缓冲区(通过mmap)

用户和内核通过提交和完成队列进行任务的提交和获取。以下是io_uring常用的缩写及对应的含义。

2.2 初始化io_uring
int io_uring_setup(u32 entries, struct io_uring_params *param);

用户通过io_uring_setup初始化一个io_uring的上下文。该函数返回一个文件描述符fd,并将io_uring支持的功能及各个数据结构在 fd 中的偏移保存在param中。用户根据偏移量通过mmap将 fd 映射到内存,获取到一段用户和内核共享的内存区域。这块区域中有 io_uring 的上下文,SQ_Ring、CQ_Ring以及一块专门用来存放SQ Entry的区域(SQE area)。

注意,SQ_Ring中保存的是SQ Entry在SQE area中的Index,而CQ_Ring中保存的是完成后完整的数据。

在Linux 5.12 内核中,SQE的大小为64B,CQE的大小为16B。初始化io_uring时,若没有指定第一个参数entries,内核默认会分配entries个SQE,2*entries的CQE。

2.3 小结

io_uring 设计的巧妙之处在于,用户和内核通过mmap映射出一段共享区域,任务的提交和获取都在这块区域进行,速度非常快。

三、io_uring实现Tcp sever代码示例

代码功能:实现Tcp服务器,支持多客户端连接,实现客户端服务端echo功能。

#include <stdio.h>
#include <unistd.h>
#include <string.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <liburing.h>
#define ENTRIES_LENGTH    4096
#define MAX_CONNECTIONS   1024
#define BUFFER_LENGTH   1024
char buf_table[MAX_CONNECTIONS][BUFFER_LENGTH] = {0};
enum {
  READ,
  WRITE,
  ACCEPT,
};
struct conninfo {
  int connfd;
  int type;
};
void set_read_event(struct io_uring *ring, int fd, void *buf, size_t len, int flags) {
  struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
  io_uring_prep_recv(sqe, fd, buf, len, flags);
  struct conninfo ci = {
    .connfd = fd,
    .type = READ
  };
  memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
  return ;
}
void set_write_event(struct io_uring *ring, int fd, const void *buf, size_t len, int flags) {
  struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
  io_uring_prep_send(sqe, fd, buf, len, flags);
  struct conninfo ci = {
    .connfd = fd,
    .type = WRITE
  };
  memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
  return ;
}
void set_accept_event(struct io_uring *ring, int fd,
  struct sockaddr *cliaddr, socklen_t *clilen, unsigned flags) {
  struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
  io_uring_prep_accept(sqe, fd, cliaddr, clilen, flags);
  struct conninfo ci = {
    .connfd = fd,
    .type = ACCEPT
  };
  memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
  return ;
}
int main() {
  int listenfd = socket(AF_INET, SOCK_STREAM, 0);  // 
    if (listenfd == -1) return -1;
    struct sockaddr_in servaddr, clientaddr;
    servaddr.sin_family = AF_INET;
    servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
    servaddr.sin_port = htons(9999);
    if (-1 == bind(listenfd, (struct sockaddr*)&servaddr, sizeof(servaddr))) {
            return -2;
    }
  listen(listenfd, 10);
  struct io_uring_params params;
  memset(&params, 0, sizeof(params));
  struct io_uring ring;
  memset(&ring, 0, sizeof(ring));
  /*初始化params 和 ring*/
  io_uring_queue_init_params(ENTRIES_LENGTH, &ring, &params);
  socklen_t clilen = sizeof(clientaddr);
  set_accept_event(&ring, listenfd, (struct sockaddr*)&clientaddr, &clilen, 0);
  while (1) {
    struct io_uring_cqe *cqe;
    io_uring_submit(&ring);
    int ret = io_uring_wait_cqe(&ring, &cqe);
    struct io_uring_cqe *cqes[10];
    int cqecount = io_uring_peek_batch_cqe(&ring, cqes, 10);
    unsigned count = 0;
    for (int i = 0;i < cqecount;i ++) {
      cqe = cqes[i];
      count ++;
      struct conninfo ci;
      memcpy(&ci, &cqe->user_data, sizeof(ci));
      if (ci.type == ACCEPT) {
        int connfd = cqe->res;
        char *buffer = buf_table[connfd];
        set_read_event(&ring, connfd, buffer, 1024, 0);
        set_accept_event(&ring, listenfd, (struct sockaddr*)&clientaddr, &clilen, 0);
      } else if (ci.type == READ) {
        int bytes_read = cqe->res;
        if (bytes_read == 0) {
          close(ci.connfd);
        } else if (bytes_read < 0) {
          close(ci.connfd);
          printf("client %d disconnected!\n", ci.connfd);
        } else {
          //printf("buffer : %s\n", buffer);
          char *buffer = buf_table[ci.connfd];
          set_write_event(&ring, ci.connfd, buffer, bytes_read, 0);
        }
      } else if (ci.type == WRITE) {
        char *buffer = buf_table[ci.connfd];
        set_read_event(&ring, ci.connfd, buffer, 1024, 0);
      }
    }
    io_uring_cq_advance(&ring, count);
  }
  return 0;
}

文章参考于<零声教育>的C/C++linux服务期高级架构

相关文章
|
2月前
|
网络协议 安全 Linux
Linux C/C++之IO多路复用(select)
这篇文章主要介绍了TCP的三次握手和四次挥手过程,TCP与UDP的区别,以及如何使用select函数实现IO多路复用,包括服务器监听多个客户端连接和简单聊天室场景的应用示例。
99 0
|
2月前
|
存储 Linux C语言
Linux C/C++之IO多路复用(aio)
这篇文章介绍了Linux中IO多路复用技术epoll和异步IO技术aio的区别、执行过程、编程模型以及具体的编程实现方式。
115 1
Linux C/C++之IO多路复用(aio)
|
21天前
|
Linux Shell
Linux 10 个“who”命令示例
Linux 10 个“who”命令示例
50 14
Linux 10 个“who”命令示例
|
2月前
|
Unix Linux
Linux | Rsync 命令:16 个实际示例(下)
Linux | Rsync 命令:16 个实际示例(下)
48 3
Linux | Rsync 命令:16 个实际示例(下)
|
2月前
|
存储 缓存 Java
java基础:IO流 理论与代码示例(详解、idea设置统一utf-8编码问题)
这篇文章详细介绍了Java中的IO流,包括字符与字节的概念、编码格式、File类的使用、IO流的分类和原理,以及通过代码示例展示了各种流的应用,如节点流、处理流、缓存流、转换流、对象流和随机访问文件流。同时,还探讨了IDEA中设置项目编码格式的方法,以及如何处理序列化和反序列化问题。
92 1
java基础:IO流 理论与代码示例(详解、idea设置统一utf-8编码问题)
|
1月前
|
Ubuntu Linux Shell
Linux 系统中的代码类型或脚本类型内容
在 Linux 系统中,代码类型多样,包括 Shell 脚本、配置文件、网络配置、命令行工具和 Cron 定时任务。这些代码类型广泛应用于系统管理、自动化操作、网络配置和定期任务,掌握它们能显著提高系统管理和开发的效率。
|
2月前
|
安全 Linux Shell
Linux | Rsync 命令:16 个实际示例(上)
Linux | Rsync 命令:16 个实际示例(上)
90 0
Linux | Rsync 命令:16 个实际示例(上)
|
2月前
|
Linux C++
Linux C/C++之IO多路复用(poll,epoll)
这篇文章详细介绍了Linux下C/C++编程中IO多路复用的两种机制:poll和epoll,包括它们的比较、编程模型、函数原型以及如何使用这些机制实现服务器端和客户端之间的多个连接。
40 0
Linux C/C++之IO多路复用(poll,epoll)
|
2月前
|
监控 网络协议 Java
IO 多路复用? 什么是 IO 多路复用? 简单示例(日常生活)来解释 IO 多路复用 一看就懂! 大白话,可爱式(傻瓜式)教学! 保你懂!
本文通过日常生活中的简单示例解释了IO多路复用的概念,即一个线程通过监控多个socket来处理多个客户端请求,提高了效率,同时介绍了Linux系统中的select、poll和epoll三种IO多路复用的API。
170 2
|
2月前
|
Linux C语言 C++
vsCode远程执行c和c++代码并操控linux服务器完整教程
这篇文章提供了一个完整的教程,介绍如何在Visual Studio Code中配置和使用插件来远程执行C和C++代码,并操控Linux服务器,包括安装VSCode、安装插件、配置插件、配置编译工具、升级glibc和编写代码进行调试的步骤。
396 0
vsCode远程执行c和c++代码并操控linux服务器完整教程