零、从0开始配置dpdk环境的虚拟机
- 外部配置
- 配置网卡
- 初始网卡选择桥接模式作为
dpdk运行的网卡,添加第二张网卡NAT模式用于ssh连接 - 内存与
CPU核数选择
- 内存选择
8g以上,核数选择8核以上
- 修改源文件让网卡支持多队列
- 修改虚拟机的
vmx文件,修改ethernet0.virtualDev = "e1000"的值并添加一行
ethernet0.virtualDev = "vmxnet3" ethernet0.wakeOnPcktRcv = "TRUE"
- 内部配置
- 配置网卡
- 在安装``ubunt_userver
时,存在多个网卡时需要选择默认网关网卡,这里选择用于ssh连接网卡ens33` ens160是多队列网卡,配置其静态ip地址,在/etc/network/interface追加下面行
auto ens160 iface ens160 inet static address 10.17.43.34 netmask 255.255.0.0
ip需要根据主机的ip地址的网段和掩码一致,因为这是桥接模式,第二章nat网卡直接使用dhcp自动获取ip网关dns服务器即可
使用route -n可以查看默认网关
- 修改系统启动参数
- 修改
etc/default/grub文件
GRUB_CMDLINE_LINUX_DEFAULT="" GRUB_CMDLINE_LINUX="" >>>>修改后 GRUB_CMDLINE_LINUX_DEFAULT="quiet" GRUB_CMDLINE_LINUX="find_preseed=/preseed.cfg noprompt net.ifnames=0 biosdevname=0 default_hugepages=1G hugepagesz=2M hugepages=1024 isolCPUs=0-2"
- 修改后
update-grub后reboot会发现网卡名字变为了eth*,此时修改/etc/network/interfaces文件
eth0对应第一张也就是桥接模式的网卡,就替换ens160eth1替换ens33
一、dpdk的编译usertool/dpdk-setup.sh
- 下载
dpdk-19.08.2,在dpdk-stable-19.08.2文件夹下执行./usertools/dpdk-setup.sh - 选择不带
app的x86_64-native-linux-gcc[39],因为它可以改源码 - 设置运行时环境变量
export RTE_SDK=/home/ljq/share/module/dpdk-stable-19.08.2/
- 设置运行时环境的目标
export RTE_TARGET=x86_64-native-linux-gcc
./usertools/dpdk-setup.sh选择[43] or [44]插入IGB_UIO模块or插入V- 选择
[45]插入KNI模块 - 选择
[46] or [47]巨页的配置
46代表采用no numa方式管理多内存编号,47代表采用numa方式管理多内存编号numa表示不是同一的编码方式,每个内存块都从索引0开始,no-numa表示同一编码方式,内存块之间的索引是连着的- 写
512来设置1g的巨页
- 选择
[49] or [50]
- 把对应网卡的绑定设备绑定在哪个模块上
[49]->UIO[50]->VFIO - 两者选一个 我选
49
- 接着输入
PCI地址来绑定IGB UIO
找到eth0对应的行,输入其前面的数字字符串 我的是0000:03:00.0
回车后会警告:Warning: routing table indicates that interface 0000:03:00.0 is active. Not modifying OK,意思是还在工作中 没有修改成功
我们要给他down掉,就是不让对应的NIC接收数据,让dpdk去绑定这个网卡去截获,网卡的数据就不会往内核里面走了ifconfig eth0 down
再次选择49,输入0000:03:00.0后绑定成功
此时ifconfig是不存在eth0,也就是说明此时eth0对应的NIC不会再去接管他了,之后所有数据就是走到dpdk里面了
编译前需要安装的
sudo apt-get install libnuma-dev libpcap-dev make
dpdk接管网卡的两种方式
- 通用型
IO- 虚拟
IO注意有可能45出会出现错误,此时使用
grep CONFIG_RTE_KNI /boot/config-$(uname -r)查看CONFIG_RTE_KNI是否被设置为了m或者y,如果没有则需要手动添加进去
二、dpdk需要什么配置来支持
1.多队列网卡
dpdk要指定用哪一个队列来接收数据
2.巨页
三、解析接收网络数据的过程经历了什么
1.物理网卡
- 物理网卡接收(
vmware的网络适配器就是一个网卡,是vmware模拟的) - 物理网卡是光信号或者电信号与数字信号的相互转换
2.NIC
- 接收后每个网卡都会配对的有一个网络适配器(
NIC)
- 问题,
NIC什么数据结构存? - 使用
ifconfig就是查看NIC的数量以及相关信息 - 网卡每来一帧数据
NIC都会将它组织成sk_buff(其中有很多指针,指向数据包中的各个层的头部),发送给协议栈,协议栈就解析其各个头
3.内核协议栈
NIC把数据抛给内核协议栈,协议栈解析其sk_buff中指向的各个头,注意这个协议栈是所有网卡共用的
- 协议栈与
NIC驱动的数据交互是怎样的
- 网卡每来一帧数据
NIC都会将它组织成sk_buff(其中有很多指针,指向数据包中的各个层的头部),发送给协议栈,协议栈就解析其各个头
4.标准接口层Posix API
- 标准接口层调用各种网络系统调用
5. 应用层
应用层就接收到了…
上述过程发生的拷贝
- 网卡数据拷贝到
NIC,组织出sk_buff APP调用recv..将数据从内核态拷贝到用户态- 上述操作需要
CPU的参与
四、DPDK介绍
基于上述接收网络数据流程dpdk做的事
- 把网卡通过一种映射的方式,把网卡接收数据的存储空间映射到用户态的内存空间中,
这其中没有拷贝,是通过DMA的方式,直接网络适配器与硬盘驱动器与内存交互 dpdk主要做的事:把网卡的数据快速转移到用户态内存里
dpdk如何组织映射的数据
Huge Page
- 正常的内存操作,一个页
4k,假设一秒钟来了1个G的数据,那么4k的页划分的包就为256x1024,太多了,于是dpdk采用巨页
dpdk优化了什么
对thread做CPU的亲缘性
- 某一线程只在同一个
CPU上运行
KNI机制
用dpdk只想处理一种协议,其他协议还是通过内核协议栈来处理
dpdk提供了一种方式,将不需要的数据写入到内核协议栈,内核网络接口(Kernel Network Interface<kni>)
DPDK的技术边界
dpdk处理数据时是跨过了NIC这一层,在NIC接收数据前就截获了数据,与NIC平级,改变了数据流程
DPDK能做什么
- 路由器、
SDN网络定制开发 - 网络协议栈
- 防火墙,防
ddos攻击
- 接收数据,检测异常数据
VPN
- 直接往原始数据中加入
vxline或加上隧道技术再从网卡中发送出去
五、DPDK该怎么学
环境搭建完后该做的事
coding,代码可控
- 实现一个协议栈(
eth,ip,arp,icmp,tcp,udp) posix api, epoll的实现
- 协议栈是与dpdk相生相辅
- 行业的应用
- 三层网络层的
vpp - 二层传输层考虑
ovs - 负载均衡
dpvs - 发包工具
pktgen
- 做
1-2款上线的产品。。。
六、coding
rte_eal_init(argc, argv)初始化dpdk应用
rte_pktmbuf_pool_create创建
rte_pktmbuf_pool_create( const char * name, unsigned int n, // 初始化mbufpoll池能放多少个mbuf unsigned int cache_size, // 0 uint16_t priv_size, // 0 unit16_t data_room_size, int socket_id // 设置为一个全局的一个变量per_lcore_socket_id ); // 返回一个rte_mempoll结构体
- 名字中的
mbuf就是内核中的sk_buf name:Packet Buffer池的名称,可以是任何字符串,建议使用有意义的名称。n:Packet Buffer池中Packet Buffer的数量,建议设置为大于等于1024。cache_size:Packet Buffer池中的本地缓存大小,可以根据使用场景进行调整,建议设置为Packet Buffer数量的1/8左右。priv_size:Packet Buffer中每个Packet Buffer的私有数据大小,如果不需要私有数据,则可以设置为0。data_room_size:Packet Buffer中数据区域的大小,即可以存储数据包的空间大小,建议设置为2048或更大。socket_id:用于分配内存的NUMA节点编号,建议设置为套接字绑定的CPU所在的NUMA节点编号。
对网口的配置
在TCP/IP网络中,当一个网络设备接收到来自其他设备的数据包时,就会触发RX操作,将数据包解析并交给上层协议或应用程序
tx与rx是什么分别用在什么地方
txqueue主要用于管理应用程序待发送的数据包,当应用程序需要向网络中发送数据时,首先将其封装成一个数据包,并添加到txqueue中。
rxqueue主要用于管理已经从网络中接收到的数据包,当网络中有数据包到达时,DPDK会将其添加到rxqueue中,应用程序可以从rxqueue中取出数据包并进行进一步的处理。
// setup uint16_t nb_rx_queues = 1; uint16_t nb_tx_queues = 0; const struct rte_eth_conf port_conf_default = { .rxmode = {.max_rx_pkt_len = RTE_ETHER_MAX_LEN } }; rte_eth_dev_configure(gDpdkPortId, nb_rx_queues, nb_tx_queues, &port_conf_default); // 设置第gDpdkPortId个绑定网口的信息,使用了索引为0对应的rx队列,设置了rx队列的大小为128,使用mbuf_pool来存储接收队列缓存 rte_eth_rx_queue_setup(gDpdkPortId, // 设置第gDpdkPortId个绑定网口的信息 0, // 使用了索引为0对应的rx队列 128, // 设置了rx队列的大小为128 rte_eth_dev_socket_id(gDpdkPortId), NULL, mbuf_pool); // 使用mbuf_pool来存储接收队列缓存 // rte_eth_dev_start(gDpdkPortId); // disable //rte_eth_promiscuous_enable(gDpdkPortId); //
rte_eth_dev_configureAPI介绍
ret_eth_dev_configure( unit16_t port_id, //网口 nic 的id是什么 unit16_t nb_rx_q, // rx队列 ,对应索引 0表示使用第一个 unit16_t nb_tx_q, const struct rte_eth_conf* dev_conf // 配置信息 每个包的长度 );
port_id:以太网设备的端口 ID。nb_rx_queue:用于接收数据包的 RX 队列数量。nb_tx_queue:用于发送数据包的 TX 队列数量。eth_conf:一个结构体,包含了以太网设备的配置信息,如CRC校验、硬件RSS散列、速率控制,以及杂项配置等。
rte_eth_rx_queue_setupAPI介绍
int rte_eth_rx_queue_setup( uint16_t port_id, // 要绑定的网口索引号 0代表使用第一个网口 uint16_t rx_queue_id, // 要绑定的队列的索引,0代表绑定第一个rx队列 uint16_t nb_rx_desc, // 指定队列可以装多少mbuf unsigned int socket_id, const struct rte_eth_rxconf *rx_conf, struct rte_mempool *mb_pool );
port_id:以太网设备的端口 ID。rx_queue_id:将要创建的接收队列的队列号。nb_rx_desc:用于网卡接收队列的缓存区描述符数量,可以简单理解为接收队列的缓存容量。(是网卡上面的rx_queue_id对应id的接收队列的大小,前面mbuf_pool内存池的大小就是用来接收这个队列中的节点,所以这个内存池的大小肯定要比rx队列大小大)socket_id:用于分配和管理内存资源的NUMA节点ID,一般使用rte_socket_id()函数获取。rx_conf:用于指定接收队列的配置信息,如RSS散列、哈希过滤器和Ptype解析等特性。如果不需要使用这些特性,可以将该参数设置为NULL。mb_pool:用于存储接收队列缓存的内存池指针。
接受数据
while(1){ //..后面的代码都在这个里面 }
使用API接受数据
struct rte_mbuf *mbufs[MBUF_SIZE]; // 32 unsigned num_recvd = rte_eth_rx_burst( gDpdkPortId, // 绑定的网口 0, // rx队列索引 mbufs, MBUF_SIZE // 设置的32 ); if (num_recvd > MBUF_SIZE) { rte_exit(EXIT_FAILURE, "rte_eth_rx_burst Error\n"); }
rte_eth_rx_burst
uint16_t rte_eth_rx_burst(uint16_t port_id, uint16_t queue_id, struct rte_mbuf **rx_pkts, // 传出参数 const uint16_t nb_pkts ); // 不需要考虑释放 在内存池中直接将对应id取出来直接用
port_id:以太网设备的端口ID。queue_id:用于接收数据包的RX队列ID。rx_pkts:指向rte_mbuf结构体指针的数组,用于存储接收到的数据包。nb_pkts:要读取的最大数据包数量。
循环遍历解析所有接受到的包
unsigned i = 0; for (i = 0;i < num_recvd;i ++) { // 宏函数 struct rte_ether_hdr *ehdr = rte_pktmbuf_mtod( mbufs[i], struct rte_ether_hdr * ); if (ehdr->ether_type != rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) { continue; } struct rte_ipv4_hdr *iphdr = rte_pktmbuf_mtod_offset( mbufs[i], struct rte_ipv4_hdr *, sizeof(struct rte_ether_hdr) ); if (iphdr->next_proto_id == IPPROTO_UDP) { struct rte_udp_hdr* udphdr = (struct rte_udp_hdr*)(iphdr + 1); // 加上IP头得到udp头 uint16_t length = udphdr->dgram_len; *((char*) udphdr + length - 1) = '\0'; printf("udp: %s\n", (char*)(udphdr+1)); } }
rte_pktmbuf_mtod是一个宏,而不是一个函数。在 DPDK的rte_mbuf.h文件中,可以看到rte_pktmbuf_mtod的定义如下:
#define rte_pktmbuf_mtod(m, t) ((t)((char *)((m)->buf_addr) + (m)->data_off))
- 这个宏的实现使用了强制类型转换,其目的是将缓冲区中数据的地址转换为用户指定的数据类型
t的指针,从而方便用户访问和处理接收到的数据包。需要注意的是,在使用rte_pktmbuf_mtod宏时,应当确保传入的参数合法,并且传入的数据类型和数据包的格式相符,否则可能会导致程序错误。
设置
arp静态映射用
arp静态映射 就可以用网络调试工具调试了注意设置的ip地址是要与本机网卡ip地址是同一个网段
arp -s 10.17.31.80 00-0C-29-AF-77-5C arp -d 10.17.31.80 # The ARP entry addition failed: Access is denied netsh i i show in # 查看网络接口的索引号 netsh -c i i add neighbors 18 10.17.31.80 00-0C-29-AF-77-5C netsh -c "i i" delete neighbors 1
关于dpdk无法接收来自主机的数据解决
- 保证绑定网卡前主机可以
ping通虚拟机的eth0的桥接网卡 eth0的ip要在主机上静态绑定eth0的mac
重启虚拟机后需要做的事
- 查看主机ip是否改变(连接不同的网络都会改变)
- 如果改变了就重新设置
/etc/network/interfaces文件,设置eth的静态ip,需要与主机ip为同一网段即可
