Linux异步IO之 io_uring 详解及使用代码示例

简介: Linux异步IO之 io_uring 详解及使用代码示例

一、什么是io_uring

io_uring是linux 5.1引入的异步io接口,适合io密集型应用。其初衷是为了解决linux下异步io接口不完善且性能差的现状,用以替代linux aio接口(io_setup,io_submit,io_getevents)。现在io_uring已经支持socket和文件的读写,未来会支持更多场景。

二、io_uring API

io_uring 的实现主要在 fs/io_uring.c 中。

2.1 io_uring 三个系统调用

io_uring 的实现仅仅使用了三个 syscall

  1. io_uring_setup,用于设置io_uring的上下文;
  2. io_uring_enter,用于提交和获取完成任务;
  3. io_uring_register,用于注册内核用户共享缓冲区(通过mmap)

用户和内核通过提交和完成队列进行任务的提交和获取。以下是io_uring常用的缩写及对应的含义。

2.2 初始化io_uring
int io_uring_setup(u32 entries, struct io_uring_params *param);

用户通过io_uring_setup初始化一个io_uring的上下文。该函数返回一个文件描述符fd,并将io_uring支持的功能及各个数据结构在 fd 中的偏移保存在param中。用户根据偏移量通过mmap将 fd 映射到内存,获取到一段用户和内核共享的内存区域。这块区域中有 io_uring 的上下文,SQ_Ring、CQ_Ring以及一块专门用来存放SQ Entry的区域(SQE area)。

注意,SQ_Ring中保存的是SQ Entry在SQE area中的Index,而CQ_Ring中保存的是完成后完整的数据。

在Linux 5.12 内核中,SQE的大小为64B,CQE的大小为16B。初始化io_uring时,若没有指定第一个参数entries,内核默认会分配entries个SQE,2*entries的CQE。

2.3 小结

io_uring 设计的巧妙之处在于,用户和内核通过mmap映射出一段共享区域,任务的提交和获取都在这块区域进行,速度非常快。

三、io_uring实现Tcp sever代码示例

代码功能:实现Tcp服务器,支持多客户端连接,实现客户端服务端echo功能。

#include <stdio.h>
#include <unistd.h>
#include <string.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <liburing.h>
#define ENTRIES_LENGTH    4096
#define MAX_CONNECTIONS   1024
#define BUFFER_LENGTH   1024
char buf_table[MAX_CONNECTIONS][BUFFER_LENGTH] = {0};
enum {
  READ,
  WRITE,
  ACCEPT,
};
struct conninfo {
  int connfd;
  int type;
};
void set_read_event(struct io_uring *ring, int fd, void *buf, size_t len, int flags) {
  struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
  io_uring_prep_recv(sqe, fd, buf, len, flags);
  struct conninfo ci = {
    .connfd = fd,
    .type = READ
  };
  memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
  return ;
}
void set_write_event(struct io_uring *ring, int fd, const void *buf, size_t len, int flags) {
  struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
  io_uring_prep_send(sqe, fd, buf, len, flags);
  struct conninfo ci = {
    .connfd = fd,
    .type = WRITE
  };
  memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
  return ;
}
void set_accept_event(struct io_uring *ring, int fd,
  struct sockaddr *cliaddr, socklen_t *clilen, unsigned flags) {
  struct io_uring_sqe *sqe = io_uring_get_sqe(ring);
  io_uring_prep_accept(sqe, fd, cliaddr, clilen, flags);
  struct conninfo ci = {
    .connfd = fd,
    .type = ACCEPT
  };
  memcpy(&sqe->user_data, &ci, sizeof(struct conninfo));
  return ;
}
int main() {
  int listenfd = socket(AF_INET, SOCK_STREAM, 0);  // 
    if (listenfd == -1) return -1;
    struct sockaddr_in servaddr, clientaddr;
    servaddr.sin_family = AF_INET;
    servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
    servaddr.sin_port = htons(9999);
    if (-1 == bind(listenfd, (struct sockaddr*)&servaddr, sizeof(servaddr))) {
            return -2;
    }
  listen(listenfd, 10);
  struct io_uring_params params;
  memset(&params, 0, sizeof(params));
  struct io_uring ring;
  memset(&ring, 0, sizeof(ring));
  /*初始化params 和 ring*/
  io_uring_queue_init_params(ENTRIES_LENGTH, &ring, &params);
  socklen_t clilen = sizeof(clientaddr);
  set_accept_event(&ring, listenfd, (struct sockaddr*)&clientaddr, &clilen, 0);
  while (1) {
    struct io_uring_cqe *cqe;
    io_uring_submit(&ring);
    int ret = io_uring_wait_cqe(&ring, &cqe);
    struct io_uring_cqe *cqes[10];
    int cqecount = io_uring_peek_batch_cqe(&ring, cqes, 10);
    unsigned count = 0;
    for (int i = 0;i < cqecount;i ++) {
      cqe = cqes[i];
      count ++;
      struct conninfo ci;
      memcpy(&ci, &cqe->user_data, sizeof(ci));
      if (ci.type == ACCEPT) {
        int connfd = cqe->res;
        char *buffer = buf_table[connfd];
        set_read_event(&ring, connfd, buffer, 1024, 0);
        set_accept_event(&ring, listenfd, (struct sockaddr*)&clientaddr, &clilen, 0);
      } else if (ci.type == READ) {
        int bytes_read = cqe->res;
        if (bytes_read == 0) {
          close(ci.connfd);
        } else if (bytes_read < 0) {
          close(ci.connfd);
          printf("client %d disconnected!\n", ci.connfd);
        } else {
          //printf("buffer : %s\n", buffer);
          char *buffer = buf_table[ci.connfd];
          set_write_event(&ring, ci.connfd, buffer, bytes_read, 0);
        }
      } else if (ci.type == WRITE) {
        char *buffer = buf_table[ci.connfd];
        set_read_event(&ring, ci.connfd, buffer, 1024, 0);
      }
    }
    io_uring_cq_advance(&ring, count);
  }
  return 0;
}

文章参考于<零声教育>的C/C++linux服务期高级架构

相关文章
|
23天前
|
存储 缓存 Linux
Linux IO的奥秘:深入探索数据流动的魔法
Linux I/O(输入/输出)系统是其核心功能之一,负责处理数据在系统内部及与外界之间的流动。为了优化这一流程,Linux进行了一系列努力和抽象化,以提高效率、灵活性和易用性。🚀
Linux IO的奥秘:深入探索数据流动的魔法
|
28天前
|
缓存 监控 IDE
linux如何查看io性能
linux如何查看io性能
|
29天前
|
Linux C++
LInux下Posix的传统线程示例
LInux下Posix的传统线程示例
20 1
|
1月前
|
算法 数据处理 Python
Python并发编程:解密异步IO与多线程
本文将深入探讨Python中的并发编程技术,重点介绍异步IO和多线程两种常见的并发模型。通过对比它们的特点、适用场景和实现方式,帮助读者更好地理解并发编程的核心概念,并掌握在不同场景下选择合适的并发模型的方法。
|
2月前
|
Linux 编译器 程序员
【Linux 调试秘籍】深入探索 C++:运行时获取堆栈信息和源代码行数的终极指南
【Linux 调试秘籍】深入探索 C++:运行时获取堆栈信息和源代码行数的终极指南
69 0
|
10天前
|
机器学习/深度学习 缓存 监控
linux查看CPU、内存、网络、磁盘IO命令
`Linux`系统中,使用`top`命令查看CPU状态,要查看CPU详细信息,可利用`cat /proc/cpuinfo`相关命令。`free`命令用于查看内存使用情况。网络相关命令包括`ifconfig`(查看网卡状态)、`ifdown/ifup`(禁用/启用网卡)、`netstat`(列出网络连接,如`-tuln`组合)以及`nslookup`、`ping`、`telnet`、`traceroute`等。磁盘IO方面,`iostat`(如`-k -p ALL`)显示磁盘IO统计,`iotop`(如`-o -d 1`)则用于查看磁盘IO瓶颈。
|
21天前
|
Linux
Linux操作系统调优相关工具(三)查看IO运行状态相关工具 查看哪个磁盘或分区最繁忙?
Linux操作系统调优相关工具(三)查看IO运行状态相关工具 查看哪个磁盘或分区最繁忙?
22 0
|
29天前
|
缓存 Linux
Linux 文件IO简单实例
Linux 文件IO简单实例
12 1
|
5天前
|
人工智能 算法 调度
uvloop,一个强大的 Python 异步IO编程库!
uvloop,一个强大的 Python 异步IO编程库!
18 2
|
6天前
|
API 调度 开发者
Python中的并发编程:使用asyncio库实现异步IO
传统的Python编程模式中,使用多线程或多进程实现并发操作可能存在性能瓶颈和复杂性问题。而随着Python 3.5引入的asyncio库,开发者可以利用异步IO来更高效地处理并发任务。本文将介绍如何利用asyncio库实现异步IO,提升Python程序的并发性能。