DPDK入门(环境搭建以及小demo)

本文涉及的产品
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
简介: DPDK入门(环境搭建以及小demo)

零、从0开始配置dpdk环境的虚拟机

  • 外部配置
  • 配置网卡
  • 初始网卡选择桥接模式作为dpdk运行的网卡,添加第二张网卡NAT模式用于ssh连接
  • 内存与CPU核数选择
  • 内存选择8g以上,核数选择8核以上
  • 修改源文件让网卡支持多队列
  • 修改虚拟机的vmx文件,修改ethernet0.virtualDev = "e1000"的值并添加一行
ethernet0.virtualDev = "vmxnet3"
ethernet0.wakeOnPcktRcv = "TRUE"
  • 内部配置
  • 配置网卡
  • 在安装``ubunt_userver时,存在多个网卡时需要选择默认网关网卡,这里选择用于ssh连接网卡ens33`
  • ens160是多队列网卡,配置其静态ip地址,在/etc/network/interface追加下面行
auto ens160
iface ens160 inet static
address 10.17.43.34
netmask 255.255.0.0
  • ip需要根据主机的ip地址的网段和掩码一致,因为这是桥接模式,第二章nat网卡直接使用dhcp自动获取ip网关dns服务器即可
    使用route -n可以查看默认网关
  • 修改系统启动参数
  • 修改etc/default/grub文件
GRUB_CMDLINE_LINUX_DEFAULT=""
GRUB_CMDLINE_LINUX=""
>>>>修改后
GRUB_CMDLINE_LINUX_DEFAULT="quiet"
GRUB_CMDLINE_LINUX="find_preseed=/preseed.cfg noprompt net.ifnames=0 biosdevname=0 default_hugepages=1G hugepagesz=2M hugepages=1024 isolCPUs=0-2"
  • 修改后update-grubreboot会发现网卡名字变为了eth*,此时修改/etc/network/interfaces文件
  • eth0对应第一张也就是桥接模式的网卡,就替换ens160
  • eth1替换ens33

一、dpdk的编译usertool/dpdk-setup.sh

  • 下载dpdk-19.08.2,在dpdk-stable-19.08.2文件夹下执行./usertools/dpdk-setup.sh
  • 选择不带appx86_64-native-linux-gcc[39],因为它可以改源码
  • 设置运行时环境变量
export RTE_SDK=/home/ljq/share/module/dpdk-stable-19.08.2/
  • 设置运行时环境的目标
export RTE_TARGET=x86_64-native-linux-gcc
  • ./usertools/dpdk-setup.sh选择[43] or [44]插入IGB_UIO模块 or插入V
  • 选择[45]插入KNI模块
  • 选择[46] or [47]巨页的配置
  • 46代表采用no numa方式管理多内存编号,47代表采用numa方式管理多内存编号
    numa表示不是同一的编码方式,每个内存块都从索引0开始,no-numa表示同一编码方式,内存块之间的索引是连着的
  • 512来设置1g的巨页
  • 选择[49] or [50]
  • 把对应网卡的绑定设备绑定在哪个模块上[49]->UIO[50]->VFIO
  • 两者选一个 我选49
  • 接着输入PCI地址来绑定IGB UIO
    找到eth0对应的行,输入其前面的数字字符串 我的是0000:03:00.0
    回车后会警告:
    Warning: routing table indicates that interface 0000:03:00.0 is active. Not modifying OK,意思是还在工作中 没有修改成功
    我们要给他down掉,就是不让对应的NIC接收数据,让dpdk去绑定这个网卡去截获,网卡的数据就不会往内核里面走了
    ifconfig eth0 down
    再次选择49,输入0000:03:00.0后绑定成功
    此时ifconfig是不存在eth0,也就是说明此时eth0对应的NIC不会再去接管他了,之后所有数据就是走到dpdk里面了

编译前需要安装的

sudo apt-get install libnuma-dev libpcap-dev make

dpdk接管网卡的两种方式

  • 通用型IO
  • 虚拟IO

注意有可能45出会出现错误,此时使用grep CONFIG_RTE_KNI /boot/config-$(uname -r)查看CONFIG_RTE_KNI是否被设置为了m或者y,如果没有则需要手动添加进去

二、dpdk需要什么配置来支持

1.多队列网卡

dpdk要指定用哪一个队列来接收数据

2.巨页

三、解析接收网络数据的过程经历了什么

1.物理网卡

  • 物理网卡接收(vmware的网络适配器就是一个网卡,是vmware模拟的)
  • 物理网卡是光信号或者电信号与数字信号的相互转换

2.NIC

  • 接收后每个网卡都会配对的有一个网络适配器(NIC
  • 问题,NIC什么数据结构存?
  • 使用ifconfig就是查看NIC的数量以及相关信息
  • 网卡每来一帧数据NIC都会将它组织成sk_buff(其中有很多指针,指向数据包中的各个层的头部),发送给协议栈,协议栈就解析其各个头

3.内核协议栈

  • NIC把数据抛给内核协议栈,协议栈解析其sk_buff中指向的各个头,注意这个协议栈是所有网卡共用的
  • 协议栈与NIC驱动的数据交互是怎样的
  • 网卡每来一帧数据NIC都会将它组织成sk_buff(其中有很多指针,指向数据包中的各个层的头部),发送给协议栈,协议栈就解析其各个头

4.标准接口层Posix API

  • 标准接口层调用各种网络系统调用

5. 应用层

应用层就接收到了…

上述过程发生的拷贝

  1. 网卡数据拷贝到NIC,组织出sk_buff
  2. APP调用recv..将数据从内核态拷贝到用户态
  3. 上述操作需要CPU的参与

四、DPDK介绍

基于上述接收网络数据流程dpdk做的事

  • 把网卡通过一种映射的方式,把网卡接收数据的存储空间映射到用户态的内存空间中,
    这其中没有拷贝,是通过DMA的方式,直接网络适配器与硬盘驱动器与内存交互
  • dpdk主要做的事:把网卡的数据快速转移到用户态内存里

dpdk如何组织映射的数据

Huge Page

  • 正常的内存操作,一个页4k,假设一秒钟来了1G的数据,那么4k的页划分的包就为256x1024,太多了,于是dpdk采用巨页

dpdk优化了什么

threadCPU的亲缘性

  • 某一线程只在同一个CPU上运行

KNI机制

dpdk只想处理一种协议,其他协议还是通过内核协议栈来处理

  • dpdk提供了一种方式,将不需要的数据写入到内核协议栈,内核网络接口(Kernel Network Interface<kni>)

DPDK的技术边界

dpdk处理数据时是跨过了NIC这一层,在NIC接收数据前就截获了数据,与NIC平级,改变了数据流程

DPDK能做什么

  1. 路由器、SDN网络定制开发
  2. 网络协议栈
  3. 防火墙,防ddos攻击
  1. 接收数据,检测异常数据
  1. VPN
  1. 直接往原始数据中加入vxline或加上隧道技术再从网卡中发送出去

五、DPDK该怎么学

环境搭建完后该做的事

  • coding,代码可控
  • 实现一个协议栈(eth,ip,arp,icmp,tcp,udp)
  • posix api, epoll的实现
  • 协议栈是与dpdk相生相辅
  • 行业的应用
  • 三层网络层的vpp
  • 二层传输层考虑ovs
  • 负载均衡dpvs
  • 发包工具pktgen
  • 1-2款上线的产品。。。

六、coding

rte_eal_init(argc, argv)初始化dpdk应用

rte_pktmbuf_pool_create创建

rte_pktmbuf_pool_create(
  const char * name,
    unsigned int n,  // 初始化mbufpoll池能放多少个mbuf
    unsigned int cache_size,  // 0
    uint16_t priv_size,  // 0
    unit16_t data_room_size,
    int socket_id  // 设置为一个全局的一个变量per_lcore_socket_id
);
// 返回一个rte_mempoll结构体
  • 名字中的mbuf就是内核中的sk_buf
  • namePacket Buffer 池的名称,可以是任何字符串,建议使用有意义的名称。
  • nPacket Buffer 池中 Packet Buffer 的数量,建议设置为大于等于 1024
  • cache_sizePacket Buffer 池中的本地缓存大小,可以根据使用场景进行调整,建议设置为 Packet Buffer 数量的1/8左右。
  • priv_sizePacket Buffer 中每个 Packet Buffer 的私有数据大小,如果不需要私有数据,则可以设置为 0
  • data_room_sizePacket Buffer 中数据区域的大小,即可以存储数据包的空间大小,建议设置为 2048 或更大。
  • socket_id:用于分配内存的 NUMA 节点编号,建议设置为套接字绑定的CPU所在的NUMA节点编号。

对网口的配置

TCP/IP网络中,当一个网络设备接收到来自其他设备的数据包时,就会触发RX操作,将数据包解析并交给上层协议或应用程序

tx与rx是什么分别用在什么地方

txqueue主要用于管理应用程序待发送的数据包,当应用程序需要向网络中发送数据时,首先将其封装成一个数据包,并添加到txqueue中。

rxqueue主要用于管理已经从网络中接收到的数据包,当网络中有数据包到达时,DPDK会将其添加到rxqueue中,应用程序可以从rxqueue中取出数据包并进行进一步的处理。

// setup
  uint16_t nb_rx_queues = 1;
  uint16_t nb_tx_queues = 0;
  const struct rte_eth_conf port_conf_default = {
    .rxmode = {.max_rx_pkt_len = RTE_ETHER_MAX_LEN }
  };
  rte_eth_dev_configure(gDpdkPortId, 
                          nb_rx_queues, 
                          nb_tx_queues, 
                          &port_conf_default); 
  // 设置第gDpdkPortId个绑定网口的信息,使用了索引为0对应的rx队列,设置了rx队列的大小为128,使用mbuf_pool来存储接收队列缓存
  rte_eth_rx_queue_setup(gDpdkPortId,  // 设置第gDpdkPortId个绑定网口的信息
                           0,        // 使用了索引为0对应的rx队列
                           128,      // 设置了rx队列的大小为128
                           rte_eth_dev_socket_id(gDpdkPortId), 
                           NULL, 
                           mbuf_pool);   // 使用mbuf_pool来存储接收队列缓存
  // 
  rte_eth_dev_start(gDpdkPortId);
  // disable
  //rte_eth_promiscuous_enable(gDpdkPortId); //
  • rte_eth_dev_configureAPI介绍
ret_eth_dev_configure(
  unit16_t port_id,  //网口 nic 的id是什么
    unit16_t nb_rx_q,  // rx队列 ,对应索引  0表示使用第一个
    unit16_t nb_tx_q,  
    const struct rte_eth_conf* dev_conf  // 配置信息  每个包的长度
);
  • port_id:以太网设备的端口 ID。
  • nb_rx_queue:用于接收数据包的 RX 队列数量。
  • nb_tx_queue:用于发送数据包的 TX 队列数量。
  • eth_conf:一个结构体,包含了以太网设备的配置信息,如 CRC 校验、硬件 RSS 散列、速率控制,以及杂项配置等。
  • rte_eth_rx_queue_setupAPI介绍
int rte_eth_rx_queue_setup(
    uint16_t port_id,      // 要绑定的网口索引号 0代表使用第一个网口
    uint16_t rx_queue_id,  // 要绑定的队列的索引,0代表绑定第一个rx队列
  uint16_t nb_rx_desc,   // 指定队列可以装多少mbuf
    unsigned int socket_id,
  const struct rte_eth_rxconf *rx_conf,
  struct rte_mempool *mb_pool
);
  • port_id:以太网设备的端口 ID。
  • rx_queue_id:将要创建的接收队列的队列号。
  • nb_rx_desc:用于网卡接收队列的缓存区描述符数量,可以简单理解为接收队列的缓存容量。(是网卡上面的rx_queue_id对应id的接收队列的大小,前面mbuf_pool内存池的大小就是用来接收这个队列中的节点,所以这个内存池的大小肯定要比rx队列大小大)
  • socket_id:用于分配和管理内存资源的 NUMA 节点 ID,一般使用 rte_socket_id() 函数获取。
  • rx_conf:用于指定接收队列的配置信息,如 RSS 散列、哈希过滤器和 Ptype 解析等特性。如果不需要使用这些特性,可以将该参数设置为 NULL
  • mb_pool:用于存储接收队列缓存的内存池指针。

接受数据

while(1){
        //..后面的代码都在这个里面
    }

使用API接受数据

struct rte_mbuf *mbufs[MBUF_SIZE];  // 32
    unsigned num_recvd = rte_eth_rx_burst(
            gDpdkPortId,   // 绑定的网口
            0,             // rx队列索引
            mbufs, 
            MBUF_SIZE  // 设置的32
        );
    if (num_recvd > MBUF_SIZE) {
      rte_exit(EXIT_FAILURE, "rte_eth_rx_burst Error\n");
    }
  • rte_eth_rx_burst
uint16_t rte_eth_rx_burst(uint16_t port_id, 
                          uint16_t queue_id,
                          struct rte_mbuf **rx_pkts,  // 传出参数
                          const uint16_t nb_pkts
                          );
// 不需要考虑释放  在内存池中直接将对应id取出来直接用
  • port_id:以太网设备的端口 ID
  • queue_id:用于接收数据包的 RX 队列 ID
  • rx_pkts:指向 rte_mbuf 结构体指针的数组,用于存储接收到的数据包。
  • nb_pkts:要读取的最大数据包数量。

循环遍历解析所有接受到的包

unsigned i = 0;
for (i = 0;i < num_recvd;i ++) {
    // 宏函数
    struct rte_ether_hdr *ehdr = rte_pktmbuf_mtod(
        mbufs[i], 
        struct rte_ether_hdr *
    );
    if (ehdr->ether_type != rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) {
        continue;
    }
    struct rte_ipv4_hdr *iphdr = rte_pktmbuf_mtod_offset(
        mbufs[i], 
        struct rte_ipv4_hdr *, 
        sizeof(struct rte_ether_hdr)
    );
    if (iphdr->next_proto_id == IPPROTO_UDP) {
        struct rte_udp_hdr* udphdr = (struct rte_udp_hdr*)(iphdr + 1);  // 加上IP头得到udp头
        uint16_t length = udphdr->dgram_len;
        *((char*) udphdr + length - 1) = '\0';
        printf("udp: %s\n",  (char*)(udphdr+1));
    }
}
  • rte_pktmbuf_mtod 是一个宏,而不是一个函数。在 DPDKrte_mbuf.h 文件中,可以看到 rte_pktmbuf_mtod 的定义如下:
#define rte_pktmbuf_mtod(m, t)  ((t)((char *)((m)->buf_addr) + (m)->data_off))
  • 这个宏的实现使用了强制类型转换,其目的是将缓冲区中数据的地址转换为用户指定的数据类型 t 的指针,从而方便用户访问和处理接收到的数据包。需要注意的是,在使用 rte_pktmbuf_mtod 宏时,应当确保传入的参数合法,并且传入的数据类型和数据包的格式相符,否则可能会导致程序错误。

设置arp静态映射

arp静态映射 就可以用网络调试工具调试了

注意设置的ip地址是要与本机网卡ip地址是同一个网段

arp -s 10.17.31.80 00-0C-29-AF-77-5C
arp -d 10.17.31.80
# The ARP entry addition failed: Access is denied
netsh i i show in  # 查看网络接口的索引号
netsh -c i i add neighbors 18 10.17.31.80 00-0C-29-AF-77-5C
netsh -c "i i" delete neighbors 1

关于dpdk无法接收来自主机的数据解决

  • 保证绑定网卡前主机可以ping通虚拟机的eth0的桥接网卡
  • eth0ip要在主机上静态绑定eth0mac

重启虚拟机后需要做的事

  • 查看主机ip是否改变(连接不同的网络都会改变)
  • 如果改变了就重新设置/etc/network/interfaces文件,设置eth的静态ip,需要与主机ip为同一网段即可
相关文章
|
6月前
|
架构师 测试技术 网络性能优化
dpdk课程学习之练习笔记七(vpp环境搭建及plugin demo测试)
dpdk课程学习之练习笔记七(vpp环境搭建及plugin demo测试)
518 0
|
6月前
|
应用服务中间件 测试技术 nginx
dpdk环境搭建及运行helloworld测试
dpdk环境搭建及运行helloworld测试
311 0
|
2月前
|
Linux Go 开发工具
Golang各平台环境搭建实战
这篇文章详细介绍了如何在Windows、Linux和Mac平台上搭建Golang开发环境,包括下载和安装Go SDK、配置环境变量、安装开发工具如Visual Studio Code和Go扩展,以及如何编写和运行第一个Go程序。
116 3
|
6月前
|
存储 NoSQL 容灾
Neo4j【环境部署 01】图形数据库(简介+下载地址+安装+配置+demo源码+学习教程地址)
Neo4j【环境部署 01】图形数据库(简介+下载地址+安装+配置+demo源码+学习教程地址)
410 1
|
IDE 编译器 Go
Go开发基础环境搭建
Go开发基础环境搭建
70 7
|
6月前
|
编译器 开发工具 C语言
C/C++入门001-概述环境搭建与案例
C/C++入门001-概述环境搭建与案例
|
IDE Linux Go
Golang安装和配置指南:从零开始的高效开发之旅
Golang安装和配置指南:从零开始的高效开发之旅
|
安全 Ubuntu
metasploitable2安装实战
metasploitable2安装实战
402 0
|
运维 Kubernetes 应用服务中间件
k8s 基础&环境搭建
k8s 基础&环境搭建
214 0
k8s 基础&环境搭建
|
Java Linux Shell
Linux详解(基础、环境配置、项目部署入门)(下)
Linux详解(基础、环境配置、项目部署入门)
Linux详解(基础、环境配置、项目部署入门)(下)
下一篇
无影云桌面