DPDK UDP小程序使用记录

简介: DPDK UDP小程序使用记录

1 编译

https://blog.csdn.net/qq43645149/article/details/130545239 的基础上
先设置一下环境变量

export RTE_SDK=/home/king/share/dpdk/dpdk-stable-19.08.2/
 export RTE_TARGET=x86_64-native-linux-gcc
root@ubuntu:/home/king/share/cs/ustack-main# make
  CC ustack.o
  LD ustack
  INSTALL-APP ustack
  INSTALL-MAP ustack.map

2 运行程序看到的提示参考

root@ubuntu:/home/king/share/cs/ustack-main# ./build/ustack 
EAL: Detected 4 lcore(s)
EAL: Detected 1 NUMA nodes
EAL: Multi-process socket /var/run/dpdk/rte/mp_socket
EAL: Selected IOVA mode 'PA'
EAL: Probing VFIO support...
EAL: VFIO support initialized
EAL: PCI device 0000:02:01.0 on NUMA socket -1
EAL:   Invalid NUMA socket, default to 0
EAL:   probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:02:06.0 on NUMA socket -1
EAL:   Invalid NUMA socket, default to 0
EAL:   probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:03:00.0 on NUMA socket -1
EAL:   Invalid NUMA socket, default to 0
EAL:   probe driver: 15ad:7b0 net_vmxnet3
EAL: PCI device 0000:0b:00.0 on NUMA socket -1
EAL:   Invalid NUMA socket, default to 0
EAL:   probe driver: 15ad:7b0 net_vmxnet3

3 代码部分

#include <stdio.h>
#include <rte_eal.h>
#include <rte_mbuf.h>
#include <rte_ethdev.h>

#include <arpa/inet.h>

#define MBUF_COUNT        4096        
#define BURST_SIZE        32

// eth0 , 0
// eth1 , 1

int gDpdkPortId = 0;  // 这里是一个逻辑值,网口id(port id)

static const struct rte_eth_conf port_conf_default = {
   
   
    .rxmode = {
   
   .max_rx_pkt_len = RTE_ETHER_MAX_LEN }  // 这里只尝试接收数据
};

int main(int argc, char *argv[]) {
   
   

    if (rte_eal_init(argc, argv) < 0) {
   
   
        rte_exit(EXIT_FAILURE, "Failed to init EAL\n");
    } //

    struct rte_mempool *mbuf_pool = rte_pktmbuf_pool_create("mbufpool", MBUF_COUNT, 0, 0, 
        RTE_MBUF_DEFAULT_BUF_SIZE, rte_socket_id());

    struct rte_eth_conf port_conf = port_conf_default;
    int num_rx_queues = 1; //这里只处里收
    int num_tx_queues = 0;  // 发送暂不处理
    rte_eth_dev_configure(gDpdkPortId, num_rx_queues, num_tx_queues, &port_conf);

    rte_eth_rx_queue_setup(gDpdkPortId, 0, 128, rte_eth_dev_socket_id(gDpdkPortId), 
        NULL, mbuf_pool);
    rte_eth_dev_start(gDpdkPortId);

    // tcp
    while (1) {
   
   
        struct rte_mbuf *mbufs[BURST_SIZE];        
        // 数据来源与 rte_eth_rx_queue_setup 中的 mbuf_pool环行buf中最多取BURST_SIZE个
        unsigned num_recvd = rte_eth_rx_burst(gDpdkPortId, 0, mbufs, BURST_SIZE);  // mbufs从池子中拿,无拷贝,不用释放
        if (num_recvd > BURST_SIZE) {
   
   
            rte_exit(EXIT_FAILURE, "Failed rte_eth_rx_burst\n");
        }
        unsigned i = 0;
        // 解析收到的这些数据包
        for (i = 0;i < num_recvd;i ++) {
   
   
            // 解 以太网头
            struct rte_ether_hdr *ehdr = rte_pktmbuf_mtod(mbufs[i], struct rte_ether_hdr *);
            if (ehdr->ether_type == htons(RTE_ETHER_TYPE_IPV4)) {
   
   
                // 解 IP头
                struct rte_ipv4_hdr *iphdr = rte_pktmbuf_mtod_offset(mbufs[i],struct rte_ipv4_hdr *, sizeof(struct rte_ether_hdr));

                if (iphdr->next_proto_id == IPPROTO_UDP) {
   
   
                    // tcp/ip, udp/ip
                    // 解 UDP头
                    struct rte_udp_hdr *udphdr = (struct rte_udp_hdr *)(iphdr + 1);

                    uint16_t length = ntohs(udphdr->dgram_len);
                    *((char*)udphdr + length) = '\0';
                    printf("data: %s\n", (char*)(udphdr + 1));            
                }
            }
        }
    }
    printf("hello ustack\n");
}

3.1 部分函数说明

struct rte_mempool mbuf_pool = rte_pktmbuf_pool_create("mbufpool", MBUF_COUNT, 0, 0,
RTE_MBUF_DEFAULT_BUF_SIZE, rte_socket_id());
原型:struct rte_mempool
rte_pktmbuf_pool_create(const char *name, unsigned n, unsigned cache_size, uint16_t priv_size, uint16_t data_room_size, int socket_id);

参数说明:

name:内存池的名称。
n:内存池中的元素数量。
cache_size:每个 CPU 缓存的大小,单位为元素数目,如果为 0 则表示禁用缓存。
priv_size:每个元素的私有数据空间大小。可以使用 0 表示没有私有数据。
data_room_size:每个元素中存储数据的空间大小。
socket_id:内存池所在的 NUMA 节点编号。

4 测试代码

4.1 设置虚拟机网卡

几个网络适配器都设置为NAT
在这里插入图片描述

4.2 在windows侧做虚拟机被绑定的网卡的ip地址到mac地址的映射

前置条件:vmware eth0是被绑定到了dpdk

eth0 Link encap:Ethernet HWaddr 00:0c:29:a3:11:bf
inet addr:192.168.241.133 Bcast:192.168.241.255 Mask:255.255.255.0
inet6 addr: fe80::20c:29ff:fea3:11bf/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:438 errors:0 dropped:0 overruns:0 frame:0
TX packets:25 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:54959 (54.9 KB) TX bytes:5958 (5.9 KB)

windows侧处理部分

windows上面
cmd中输入 arp -a 看结果里面有没有 ==192.168.241.133==
接口: 192.168.241.1 --- 0x9
Internet 地址 物理地址 类型
192.168.241.128 00-0c-29-a3-11-c9 动态
192.168.241.254 00-50-56-f5-29-de 动态
192.168.241.255 ff-ff-ff-ff-ff-ff 静态
224.0.0.22 01-00-5e-00-00-16 静态
224.0.0.251 01-00-5e-00-00-fb 静态
224.0.0.252 01-00-5e-00-00-fc 静态
239.255.255.250 01-00-5e-7f-ff-fa 静态
255.255.255.255 ff-ff-ff-ff-ff-ff 静态
发现,找不到==192.168.241.133==,但是我的dpdk小程序是跑在==192.168.241.133==上面的,怎么办?
这时候需要cmd中输入
netsh i i show in

Idx Met MTU 状态 名称


17 40 1500 connected WLAN
1 75 4294967295 connected Loopback Pseudo-Interface 1
19 25 1500 disconnected 本地连接 1
11 25 1500 disconnected 本地连接
2
22 25 1500 connected 以太网 2
5 35 1500 connected VMware Network Adapter VMnet1
==9== 35 1500 connected VMware Network Adapter VMnet8
找到对应的网卡的idx(根据虚拟机的配置),做一个ip地址到mac地址的映射(arp):(为了让pc端的网络助手与虚拟机上跑的dpdk程序通信)
netsh -c i i add neighbors 9 192.168.241.133 00:0c:29:a3:11:bf (后面两项来自 vmware eth0)
上面的格式不对,改为:
netsh -c i i add neighbors 9 192.168.241.133 00-0c-29-a3-11-bf
再次输入arp -a
接口: 192.168.241.1 --- ==0x9== (对应netsh -c i i add neighbors ==9== 192.168.241.133 00-0c-29-a3-11-bf 中的9)
Internet 地址 物理地址 类型
192.168.241.128 00-0c-29-a3-11-c9 动态
==192.168.241.133 00-0c-29-a3-11-bf 静态== ⇒ 这里就是做了arp映射的ip与mac了
192.168.241.254 00-50-56-f5-29-de 动态
192.168.241.255 ff-ff-ff-ff-ff-ff 静态
224.0.0.22 01-00-5e-00-00-16 静态
224.0.0.251 01-00-5e-00-00-fb 静态
224.0.0.252 01-00-5e-00-00-fc 静态
239.255.255.250 01-00-5e-7f-ff-fa 静态
255.255.255.255 ff-ff-ff-ff-ff-ff 静态

用网络调试助手测试 dpdk udp小程序

本机地址对应上面的192.168.241.1,远程主机是192.168.124.133,端口不限定
在这里插入图片描述
文章参考与<零声教育>的C/C++linux服务期高级架构系统教程学习:链接

相关文章
|
7月前
|
存储 缓存 网络协议
dpdk课程学习之练习笔记二(arp, udp协议api测试)
dpdk课程学习之练习笔记二(arp, udp协议api测试)
186 0
|
7月前
【DPDK 】dpdk测试发udp包
【DPDK 】dpdk测试发udp包
|
7月前
|
存储 缓存 网络协议
DPDK:UDP 协议栈的实现
DPDK:UDP 协议栈的实现
|
存储 缓存 网络协议
2.8 基于DPDK的UDP用户态协议栈实现
2.8 基于DPDK的UDP用户态协议栈实现
312 0
|
3月前
|
存储 网络协议 算法
UDP 协议和 TCP 协议
本文介绍了UDP和TCP协议的基本结构与特性。UDP协议具有简单的报文结构,包括报头和载荷,报头由源端口、目的端口、报文长度和校验和组成。UDP使用CRC校验和来检测传输错误。相比之下,TCP协议提供更可靠的传输服务,其结构复杂,包含序列号、确认序号和标志位等字段。TCP通过确认应答和超时重传来保证数据传输的可靠性,并采用三次握手建立连接,四次挥手断开连接,确保通信的稳定性和完整性。
98 1
UDP 协议和 TCP 协议
|
15天前
|
网络协议 网络性能优化 数据处理
深入解析:TCP与UDP的核心技术差异
在网络通信的世界里,TCP(传输控制协议)和UDP(用户数据报协议)是两种核心的传输层协议,它们在确保数据传输的可靠性、效率和实时性方面扮演着不同的角色。本文将深入探讨这两种协议的技术差异,并探讨它们在不同应用场景下的适用性。
48 4
|
15天前
|
监控 网络协议 网络性能优化
网络通信的核心选择:TCP与UDP协议深度解析
在网络通信领域,TCP(传输控制协议)和UDP(用户数据报协议)是两种基础且截然不同的传输层协议。它们各自的特点和适用场景对于网络工程师和开发者来说至关重要。本文将深入探讨TCP和UDP的核心区别,并分析它们在实际应用中的选择依据。
36 3
|
1月前
|
网络协议 算法 网络性能优化
|
1月前
|
网络协议 SEO
TCP连接管理与UDP协议IP协议与ethernet协议
TCP、UDP、IP和Ethernet协议是网络通信的基石,各自负责不同的功能和层次。TCP通过三次握手和四次挥手实现可靠的连接管理,适用于需要数据完整性的场景;UDP提供不可靠的传输服务,适用于低延迟要求的实时通信;IP协议负责数据包的寻址和路由,是网络层的重要协议;Ethernet协议定义了局域网的数据帧传输方式,广泛应用于局域网设备之间的通信。理解这些协议的工作原理和应用场景,有助于设计和维护高效可靠的网络系统。
34 4
|
1月前
|
缓存 负载均衡 网络协议
面试:TCP、UDP如何解决丢包问题
TCP、UDP如何解决丢包问题。TCP:基于数据块传输/数据分片、对失序数据包重新排序以及去重、流量控制(滑动窗口)、拥塞控制、自主重传ARQ;UDP:程序执行后马上开始监听、控制报文大小、每个分割块的长度小于MTU