智能网卡在分布式 SDN 网络的应用与实践 | 龙蜥技术

简介: 智能网卡加速原理和以及在浪潮分布式 SDN 网络加速的应用。

编者按:当前智能网卡能够加速数据处理和传输,并能实现网络、存储和安全等功能卸载,在云计算领域得到广泛的应用。今天,浪潮数据云计算网络架构师王培辉带大家了解智能网卡加速原理和以及在浪潮分布式 SDN 网络加速的应用,深入理解智能网卡加速虚拟化网络的基本原理。本文整理自龙蜥大讲堂第 79 期,以下为本次分享内容:

01 SDN 技术回顾

SDN 技术从提出到发展至今将近 20 年的时间,目前 SDN 相关解决方案和产品已经大规模落地和应用,虽然不同厂商在各自的 SDN 解决方案实现上有一定差异,但是在业界关于 SDN 相关技术特点或者理念上基本一致的:

  • 控制业务逻辑与转发逻辑分离。
  • 集中控制。
  • 支持 API 的可编程。

当前主要的 SDN 网络方案

网络 Overlay:网络 Overlay 一般是硬件解决方案,是指 Overlay 隧道封装在物理交换机上完成,通过控制边缘设备交换机完成网络的构建与扩展。这种方案一般性能和可靠性较高,但是因为需要采用 SDN 专用设备,成本上一般相对较高;再一个是因为网络 Overlay 的方案不够贴近云端,也即虚拟机、容器等云资源产生的网络 I/O,外部物理交换机是看不到的,所以容易产生发卡流量,也没有办法直接卸载网络 I/O 进行加速。

主机 Overlay:主机 Overlay 一般是软件解决方案,是指 Overlay 隧道封装的处理在主机内部的 vSwitch 完成,通过 vSwitch 完成 Overlay 网络的构建。这种方案一般灵活性比较高并且 vSwith 贴近云资源,能够比较容易做一些针对性的优化和卸载工作,但是因为流量转发是依靠软件处理,所以性能相对会比较差一些。

02 智能网卡发展概述

随着云计算和数据中心的不断发展,智能网卡的发展基本可以分为三个阶段:

  • 基础网卡:网络功能相对简单,支持一些 TSO、LRO、网卡多队列等特性,协助加速报文处理,这类网卡目前在数据中心仍然有比较广泛的采用。
  • 第一代智能网卡:除了基础网卡的功能外,具备了一些硬件卸载的特性,比如 OVS 流表的卸载以及 RDMA 加速的功能,能够基于网卡硬件的特性加速报文和数据处理,卸载数据面的业务,对业务进行加速。
  • 第二代智能网卡:一般是具有 SOC 系统,通用处理器对控制面处理,具备更高的灵活性,数据面可以由其他专用芯片来处理。可以将控制面和数据面全部卸载到智能网卡中,并且具有更多的硬件加速功能,比如加解密、解压缩等。

智能网卡的发展为云计算网络来的变革:

  • 可以将原本由专用硬件设备处理的功能,放在智能网卡上进行处理,达到与硬件设备处理相媲美的性能。
  • 可以针对虚拟机、容器的网络 I/O 进行卸载加速,降低 CPU 在系统任务上的消耗。
  • 增加云资源的灵活性和弹性,满足业务快速上线的需求。

03 智能加速原理

当前智能网卡卸载网络的主要方式通过卸载 OVS 流表,目前卸载 OVS 流表有两种接口方式:

1. 基于 TC Flower 接口的方式,ovs-vswitchd 通过将 openflow 转换为 TC flower,网卡驱动程序将 tc flower 规则转换为对应硬件转发表项,涉及内核模块和驱动开发,upstream 更新较慢。不过,目前内核对这一块支持已经比较完善。

2. 基于 Rte-Flow 接口的方式,ovs-vswitchd 通过将 openflow 转换为 rte flow,网卡 PMD 驱动程序将 rte flow 规则转换为对应硬件转发表项,用户态开发,upstream 更新较快。但这种方式需要开启大页、CPU 绑定等,有一定使用成本。

Datapath 转发原理

相对于普通 OVS 内核转发模式,基于 TC Flower 接口卸载的方式相当于增加了一层硬件数据转发面。原理如下图所示,当收到一条流的首包时,由于智能网卡硬件没有对应的转发表,会上送给内核 ovs datapath 模块查找转发表,对于首包 ovs datapath 也没有对应的转发表, OVS 内核会执行 upcall 将报文上送到用户态去查找流表,ovs-vswitchd 根据上送的报文查找对应的流表,生成相应的转发表项,下发给硬件 OVS,后续的报文转发就直接在硬件 OVS 转发完成处理。

Offload 规则下发流程

Offload 规则下发的流程与上节所述类似,卸载规则的下发依赖业务流的首包触发,当首包到达智能网卡硬件时,由于没有转发规则,上送内核 OVS,内核 OVS 依然查不到转发规则,则报文上送 OVS 用户态,ovs-vswitchd 通过查找用户态 OpenFlow 流表,同时 OVS 会判断是否开启了 Hardware Offload 配置选项,如果开启则需要将 OpenFlow 转发规则转换为 TC Flower 规则走 netlink 通道下发到内核模块,内核 TC 模块会通过驱动注册的对应钩子函数将转发规则通过驱动程序下发到底层智能网卡中,后续报文转发则直接在智能网卡硬件匹配转发进行流量转发,这样就完成了 OVS 流表卸载规则的下发。

TC 规则的下发注意事项

TC 规则下发到硬件设备的条件:

  • 卸载硬件是否 enable NETIF_F_HW_TC 标记,可以通过如下命令打开。
# ethtool -K eth0 hw-tc-offload on
# ethtool -K eth0 hw-tc-offload off
  • 设备驱动是否注册实现了 ndo_setup_tc 函数。
  • Ovs 是开启了 hw-offload,以及 tc-policy 策略。
ovs-vsctl set Open_vSwitch . other_config:hw-offload=true
tc-policy策略
none: add software rule and offload rule to HW.
skip_sw: offload rule to HW only.
skip_hw: add software rule without offloading rule to HW

满足以上配置的网卡,并不一定就能支持 OVS 卸载,只是能够下发 TC 规则,支持 OVS 卸载主要看是否支持 Tunnel 加解封装和报文在硬件查表转发。

在实际使用中,因为 OVS TC 规则控制粒度比较粗,对不支持卸载规则的网卡最好关闭相应的 NETIF_F_HW_TC 特性。

04 浪潮数据在智能网卡应用与实践

浪潮数据在 2020 年就已经在业内率先发布了基于智能网卡的分布式 SDN 解决方案 SmartFlow,将专用算力的负载,例如将网络、存储等 I/O 密集负载卸载到智能加速卡处理,为虚拟机、容器、裸金属等计算资源加速。通过将分布式 SDN 系统构建在智能加速卡之上,为用户提供灵活可编程、高性能且成本更有优势的网络解决方案

SmartFlow 软件架构

  • 控制平面集群进行业务逻辑的处理以及提供标准 API。
  • vBGP 集群负载 BGP 路由和 OpenFlow 流表的转换。
  • 本地控制器负责根据逻辑资源计算 OpenFlow 流表。
  • 数据平面 OVS 通过 TC Flower 接口进行硬件卸载规则的下发

SmartFlow 异构多云大二层解决方案

SmartFlow 通过融合标准 MP-BGP 协议,提供独具特色的标准可扩展的异构多云网络互连互通的解决方案。

1、抽象设计转发模型,融合 EVPN 与 OpenFlow 协议,支持 EVPN 路由与 OpenFlow 流表的互相转换。

2、支持标准的对称转发模式,能够兼容业内 IRB 流量转发模型,兼容第三方硬件或软件交换机对接。

3、通过 EVPN 同步转发表项,使 SmartFlow 在多站点网络互连互通解决方案中拥有良好的扩展性。

性能指标

通过将网络流量从 Open vSwitch 卸载到 SmartFlow 智能网卡,推进对 CPU 算力极大需求的数据包进行封装、解封装、校验、加解密等操作并下沉到智能网卡。通过智能网卡的加速,可以看到 Overlay 性能在 25G 链路上相比软件转发提升了 8 倍左右,报文转发的延时有大幅下降,一般业务报文延时小于 25us,64K 大包转发延时稳定在 60us 以下。

关于直播课件及视频回放获取方式:

【PPT 课件获取】:关注微信公众号(OpenAnolis),回复“龙蜥课件” 即可获取。有任何疑问请随时咨询龙蜥助手—小龙(微信:openanolis_assis)。

【视频回放】:视频回放可在龙蜥视频号(账号:龙蜥社区_小龙)或龙蜥官网 https://openanolis.cn/video 查看。

—— 完 ——

加入龙蜥社群

加入微信群:添加社区助理-龙蜥社区小龙(微信:openanolis_assis),备注【龙蜥】与你同在;加入钉钉群:扫描下方钉钉群二维码。

相关实践学习
CentOS 7迁移Anolis OS 7
龙蜥操作系统Anolis OS的体验。Anolis OS 7生态上和依赖管理上保持跟CentOS 7.x兼容,一键式迁移脚本centos2anolis.py。本文为您介绍如何通过AOMS迁移工具实现CentOS 7.x到Anolis OS 7的迁移。
相关文章
|
1月前
|
存储 安全 5G
|
5天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络:从理论到实践
【10月更文挑战第35天】在人工智能的浪潮中,深度学习技术以其强大的数据处理能力成为科技界的宠儿。其中,卷积神经网络(CNN)作为深度学习的一个重要分支,在图像识别和视频分析等领域展现出了惊人的潜力。本文将深入浅出地介绍CNN的工作原理,并结合实际代码示例,带领读者从零开始构建一个简单的CNN模型,探索其在图像分类任务中的应用。通过本文,读者不仅能够理解CNN背后的数学原理,还能学会如何利用现代深度学习框架实现自己的CNN模型。
|
5天前
|
网络协议 Linux
通用网卡配置文件配置网络
本文介绍了在RHEL 7系统中配置网络的方法。首先,通过编辑位于`/etc/sysconfig/network-scripts`目录下的网卡配置文件(例如`ifcfg-ens33`),设置静态IP地址、子网掩码、网关和DNS等参数。接着,使用`systemctl`命令重启网络服务,确保配置生效。此外,还介绍了使用`nmtui`图形界面工具进行网络配置的步骤,包括修改IP地址、保存配置和重启网络。最后,通过`ip addr`或`ifconfig`命令验证配置是否成功。
23 2
|
5天前
|
数据采集 网络协议 算法
移动端弱网优化专题(十四):携程APP移动网络优化实践(弱网识别篇)
本文从方案设计、代码开发到技术落地,详尽的分享了携程在移动端弱网识别方面的实践经验,如果你也有类似需求,这篇文章会是一个不错的实操指南。
15 1
|
11天前
|
数据采集 存储 XML
Python实现网络爬虫自动化:从基础到实践
本文将介绍如何使用Python编写网络爬虫,从最基础的请求与解析,到自动化爬取并处理复杂数据。我们将通过实例展示如何抓取网页内容、解析数据、处理图片文件等常用爬虫任务。
|
14天前
|
机器学习/深度学习 人工智能 物联网
5G与AI融合:智能网络的新纪元
【10月更文挑战第25天】
37 3
|
26天前
|
机器学习/深度学习 人工智能 监控
深入理解深度学习中的卷积神经网络(CNN):从原理到实践
【10月更文挑战第14天】深入理解深度学习中的卷积神经网络(CNN):从原理到实践
76 1
|
28天前
|
人工智能 文字识别 Java
SpringCloud+Python 混合微服务,如何打造AI分布式业务应用的技术底层?
尼恩,一位拥有20年架构经验的老架构师,通过其深厚的架构功力,成功指导了一位9年经验的网易工程师转型为大模型架构师,薪资逆涨50%,年薪近80W。尼恩的指导不仅帮助这位工程师在一年内成为大模型架构师,还让他管理起了10人团队,产品成功应用于多家大中型企业。尼恩因此决定编写《LLM大模型学习圣经》系列,帮助更多人掌握大模型架构,实现职业跃迁。该系列包括《从0到1吃透Transformer技术底座》、《从0到1精通RAG架构》等,旨在系统化、体系化地讲解大模型技术,助力读者实现“offer直提”。此外,尼恩还分享了多个技术圣经,如《NIO圣经》、《Docker圣经》等,帮助读者深入理解核心技术。
SpringCloud+Python 混合微服务,如何打造AI分布式业务应用的技术底层?
|
1月前
|
机器学习/深度学习 存储 自然语言处理
从理论到实践:如何使用长短期记忆网络(LSTM)改善自然语言处理任务
【10月更文挑战第7天】随着深度学习技术的发展,循环神经网络(RNNs)及其变体,特别是长短期记忆网络(LSTMs),已经成为处理序列数据的强大工具。在自然语言处理(NLP)领域,LSTM因其能够捕捉文本中的长期依赖关系而变得尤为重要。本文将介绍LSTM的基本原理,并通过具体的代码示例来展示如何在实际的NLP任务中应用LSTM。
65 4
|
9天前
|
边缘计算 5G 数据处理
5G网络能耗管理:绿色通信的实践
【10月更文挑战第30天】
27 0