基于阿里云eRDMA的GPU实例大幅提升多机训练性能

本文涉及的产品
轻量应用服务器 4vCPU 16GiB,适用于搭建游戏自建服
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
轻量应用服务器 2vCPU 4GiB,适用于网站搭建
简介: 2023年3月23日14:00(中国时间),NVIDIA GTC开发者大会,阿里云开发者社区观看入口正式开放,阿里云高级技术专家李伟男;阿里云弹性计算产品专家宋迪共同带来了题为《基于阿里云eRDMA的GPU实例大幅提升多机训练性能》的分享

ECS.jpg

202332314:00(中国时间),NVIDIA GTC开发者大会阿里云开发者社区观看入口正式开放,阿里云高级技术专家李伟男;阿里云弹性计算产品专家宋迪共同带来了题为《基于阿里云eRDMAGPU实例大幅提升多机训练性能》的分享,以下是他们的演讲内容整理:

幻灯片2.JPG

eRDMA基于RDMA技术研发RDMA具有特性和优势在eRDMA上同样适用。


最初RDMA技术的出现以及被广泛应用,得益于其相对于传统的TCP网络通信协议有着明显的优势。数据从内存到网卡的搬移不再需要CPU的持续介入,而通过集成在物理网卡中的DMA引擎,通过直接内存访问的方式完成数据搬移。同时在搬移过程中避免了频繁的用户态和内核态切换,由应用层直接触发物理网卡上的DMA访问,从而大幅节约了CPU的开销,降低了延时,最终大幅提升了通讯效率。


在服务器节点间的数据通信过程中,CPU仅负责指定RDMA通信的源及目的物理地址,并触发通信动作,其余工作全部由物理网卡上的DMA引擎负责完成。


相比传统的TCP通信,近端及远端的物理网卡通过协作可以直接将本地的内存数据写入远端的内存地址空间,或从远端的物理内存空间读取数据到本地内存,待数据传输全部完成后,再通知CPU进行下一步动作,将数据传输和计算分开,从而实现高效的并行计算处理。

幻灯片3.JPG

RDMA高效处理分布式节点间的内存数据搬移,其本质DMA的访问。


DMA引擎同样可以对设备地址进行直接访问。在异构计算的应用场景中,服务器节点间同步的不仅内存的数据,还有GPU显存的数据。GDR便是为了实现物理绑卡在服务节点间直接搬移GPU显存的数据而实现。

为了支持功能,NVIDIAGPU驱动提供了一套标准接口,用于获取应用层申请的显存对应的物理地址。物理网卡可以使用这一物理地址完成DMA的直接访问。部分详细的实现以及应用实例代码可以在NVIDIA的官网上获取到


GPU作为标准的PCI设备根据物理服务器的硬件拓扑结构不同,与RDMA设备通信的链路也会有很大不同。如上图所示,展示不同的硬件拓扑结构下GDR通信的链路以及效率的对比。


RDMA设备与上图中的GPU1连接在同PCIe Switch下,两者之间的通信通过PCIe Switch即可完成种类型被称为PIX通信,通讯效率最好。


RDMA设备和GPU2位于两个不同的Root Complex下,两者之间的通信需要穿过两个PCIe Switch以及两个RC。该种类型的通信被称为PHB,通讯效率会受到影响。


RDMA设备与GPU3的距离更远它位于两个CPUsocket两者之间的通信需要穿过CPU之间的UPI通道才能完成。该种通信的类型命名为SYS,效率最差。一些CPU架构上能够支持这一级别的GDR,但在实际使用中需要根据实际应用情况进行权衡,选择打开或关闭。


幻灯片4.JPG

eRDMA技术阿里云在2021年云栖大会发布RDMA生态完全兼容。在RDMA环境中运行的应用层代码可实现无修改直接迁移eRDMA环境中。


另外,其基于阿里云弹性VPC的特点,可以支持更高的弹性扩展,同时可以复用VPC网络的租户隔离,实现数据通信安全。在VPC网络覆盖的区域均可以实现eRDMA组网,突破集群限制,实现近10万级的超大规模组网。


eRDMA基于第四代神龙CIPU,带宽可200G,可以通过扩展硬件的方式实现更高的带宽,极限时延可低至5us,吞吐量可达到30M数据包/s

幻灯片5.JPG

如何在阿里云弹性计算实例中激活eRDMA


可以通过弹性RDMA网卡(ERI)实现。它是可以绑定到ECS实例的虚拟网卡但必须依附于弹性网卡,在弹性网卡的基础上开启RDMA的功能。


ERI复用了弹性网卡所属的网络VPC)无需改变业务组网,可在原有的网络上使用RDMA功能,体验RDMA带来的超低延时。在基于第四代神龙架构的阿里云服务器上可使用eRDMA


eRDMA基于阿里云的VPC网络,因此不论纯粹的CPU服务器还GPU服务器,均可以通过添加eRDMA设备激活eRDMA功能。现有业务可以平滑进行升级,完全继承阿里云的用户界面。


上图右侧展示了两种视角,下方为神龙底层视角,上方为用户侧视角。


在神龙底层的实现上,它由神龙CIPU模拟出VirtIO网卡设备ERI设备,通过神龙的虚拟化层分配给弹性服务在用户视角两个设备,分别为VirtIOERI底层物理设备的访问对用户完全透明,用户仅需要安装阿里云提供的eRDMA驱动即可使用。

幻灯片6.JPG

eRDMA在技术上具有哪些优势?


首先,在eRDMA的实现中,使用了自研的拥塞控制算法,能够容忍VPC网络中的传输质量变化,比如延时的抖动、丢包问题,在有损的网络环境中依然能够拥有良好的性能表现。


另外,相比IB以及RoCE网络,其基础设施无需重新部署,也不需要进行特有的网络交换机配置它依托于阿里云的VPC网络,可以在全地域任意扩容部署,用户可以按需购买,弹性伸缩,确保资源高效利用。更重要的继承云服务器高可用性的特点,可以实现任意节点的故障迁移,保障业务快速恢复。


另外,结合阿里云控制台全面的性能监控工具,可以实现快速诊断网络异常,或根据性能监控的分析优化业务通讯模型,提升性能。


eRDMA全面兼容RDMA的生态以及Verbs接口,上图右侧展示当前eRDMA能够支持的Verbs Opcode,覆盖了RDMA的主要操作代码。但同时,需要注意,eRDMA基于可靠连接服务RC)实现的通信,同时支持TCP及CM两种建链方式,用户可以根据自己的应用进行选择。

幻灯片7.JPG

阿里云推出第一款支持eRDMAGPU实例ebmgn7ex它是ebmgn7e的升级版,搭配了8NVIDIA Ampere架构的GPUGPU间通过NVLink互联。整机内嵌两张eRDMA网卡,分别挂载在两个CPU Socket上,实现均衡的节点间数据通道。每4GPU卡共用一个eRDMA设备,共用最大100GeRDMA网络带宽。


与现有的弹性计算实例不同,ebmgn7ex使用的eRDMAEBS存储以及VPC网络均为共享带宽模式。在没有存储及VPC网络流量的情况下,eRDMA可以使用最大200G带宽存储或VPC网络存在流量时,会按照权重在不同的数据流量间进行带宽分配。但神龙CIPU在底层可以保证存储的性能,可以使得带宽的利用更高效,充分释放神龙CIPU的效能。

幻灯片8.JPG

主流的AI框架底层通过多种不同的通讯后端进行多机或多卡通信等,几大集合通讯库比如OpenMPIGlooNCCL对各种集合通信的模式和算法都有各自的实现。


NVIDIA 针对DPU实现了一套开源通讯库,可以通过PCIe和NVLink等通道,实现高速的机器间或GPU卡间的互联。借助软硬件协同,在性能优化上有得天独厚的优势,也是主流AI框架的推荐通讯后端。eRDMA对NCCL提供了很好的支持,可以做到无修改使用开源的NCCL通讯库,可以使能底层的eRDMA设备。相比较传统的TCP通信有更低的延时实现更高的吞吐能力,但可以做到与RDMA通信链路相当的性能。


另外,相比较RDMA,它更适合在云上大规模部署,为用户提供超高性价比普惠大带宽通信链路解决方案。

幻灯片9.JPG

ebmgn7ex相比于ebmgn7e采用同样的CPUGPU配置,但底层采用第四代神龙CIPU,将整机的网络带宽从65G提升200G,提升幅度接近200%。同时通过eRDMA技术使得通信延迟相比VPC网络降低了80%

我们选择了几个典型的多机训练应用场景对两者进行了对比测试。ebmgn7ex整体性能提升大约30%尤其在对时延以及带宽强依赖的场景中,比如vgg16、语音变换以及mae等,性能提升超过40%


与此同时,在用户成本接近的基础上,ebmgn7ex显然展示出了更好的性价比。初步估计,根据用户的业务场景,可实现20%-30%的成本优化。

幻灯片10.JPG

阿里云在2022年发布了CIPU云处理单元。如今,在阿里云上,云服务已经远远不是将一台服务器通过虚拟化分割资源后提供给用户,而通过CIPU智能调度和管理能力,将CIPUGPU存储网络等分拆为不同的资源池,根据用户的需求灵活地提供相应的服务。


由于存储网络和计算资源相互独立,在使用计算服务时,几类资源都可以根据用户的需求进行动态调整。比如CPU的核数、挂载ESSD数据盘的容量、网络带宽等,都可以根据业务对性能的需求而变化,相对于自建IDC提供了极大的弹性。


基于CIPU我们做了两件事:


第一将软件硬件化。将原来的虚拟化软件、网络传输、可信计算等功能通过CIPU的硬件加速来实现将云软件功能从服务器的CPU内存里解放出来,让计算资源池独立地提供服务。通过软件硬件化也提高了虚拟化和网络传输等功能的性能。


幻灯片11.JPG


第二,硬件软件化。通过软件定义硬件的方式,在CPU上提供了原本由硬件才能提供的RDMA功能。


当前,支持RDMA功能的主要解决方案有三种,分别为IBRoCE以及iWARPCIPU通过软件定义网络的方式,基于iWARP协议提供RDMA功能。


市面上采用iWARP协议的方案并不多,原因在于iWARP协议基于TCP传输相较于RoCEIB,需要大量内存访问,在大型网络中会影响服务器的CPU性能。并且由于采用了通用的TCP/IP网络设施,无法实现对RDMA传输的监控,在控制拥塞等方面也存在问题。


然而,阿里云采用了CIPU,通过软件定义的方式,实现了对网络数据的拥塞控制和流量管理。同时,CIPU将原来网络和虚拟化层上的内存和计算工作offloadCIPU的处理器上,不会影响计算节点的性能。

幻灯片12.JPG·

通过以上方式,CIPU规避了iWARP的缺点,以TCP/IP overlay方式组网。原先阿里云以RoCE协议提供的计算产品,首先需要一套overlay网络来做VPC网络,另外需要再组一套RoCE来进行RDMA的数据传输。eRDMA相较于原来的方案,将RDMA合并VPC网络里,整个拓扑变得非常简单便捷


阿里云的网络存储计算资源都连接在VPC网络里,通过CIPU,可以让AZ内所有资源都通过RDMA来进行数据的传输。传统的RoCEIB网络需要独立新建专门的机房,机房建好后网络拓扑难以改变。eRDMA实例无需新建机房,因此在机房成本方面相较于RoCE网络的方式有很大降低,具性价比。


另外,CIPU软件定义硬件可以实现弹性网络,因此eRDMA的计算集群无需额外的网络配置即可overlay类上链接AZ里所有资源只要是部署于单一AZ的资源,都可以被拉起提供给同一个计算资源集群使用,弹性能力大幅增强。同时,eRDMA基于通用计算网络,兼容性非常好,可以兼容几乎所有API

幻灯片13.JPG

正由于eRDMA能够让AZ里几乎任意规模的计算资源汇合成为独立的计算集群,因此非常适合于搭建AI训练集群。基于eRDMA协议,实例采用了ICL处理器每一台机器可以通过eRDMA200G网络进行互联,在可用区内申请的所有此类实例,互相之间都可以实现RDMA传输。

幻灯片14.JPG

需要特别说明,云上提供资源时一般通过虚拟化层,算力在虚拟化层会有一定的损耗,而阿里云采用CIPU提供金属实例则有所不同。实例前面的ebm三个字母代表了这一台裸金属实例整机的物理资源通过CIPU直接透传给用户,中间没有虚拟化层的损耗,在CIPU的云管理加持下,用户可以获得一台完整的物理机能力。


实例的价格相比于此前64G网络带宽的裸金属实例ebmgn7e反而有所降低这正CIPU对网络的兼容性带来的高性价比红利。同时,并非只有训练集群业务才能选择实例,一些通用的单机训练以及推理业务也可以选择。比如当前非常火的ChatGPTChatGPT模型在推理时需要500G以上的显存,因此该实例也是大模型推理的最优选择。


当前在云上可以通过测链接申请使用eRDMA实例。申请实例时的步骤选项也于此前有所不同。


第一,在操作系统选择时新增了自动安装eRDMA驱动选项,建议勾选,勾选后在实例内可以自动安装eRDMA的网络驱动


第二,在网络配置方面,ebmgn7ex需要选择两个固定的弹性网卡,两个弹性网卡不可释放,每个网卡可以提供100G的网络带宽在勾选上右eRDMA后,即可支持RDMA传输。在使用或测试中某些应用出现异常,也可以将勾选取消,此时实例的网络带宽仍然不变,但是仅支持VPC网络连接实例。

幻灯片15.JPG

阿里云将会逐步推出更多产品来支持eRDMAebmgn7ex实例也会在阿里云上形成完整的生态通过基于eRDMA互联,用户在集群中可以接入ECS通用计算实例,可以接入支持eRDMACPFS分布式存储来获得更低延时。并且由于裸金属与CPFS实现了RDMA传输,因此借助GPU Direct Storage功能,可以快速获取训练数据时节省更多NC的资源。


同时公共云上原有的安全功能以及阿里云在人工智能方面提供的各类PaaS服务,比如ACK容器服务、serverless计算服务、PAI平台的所有功能也都可以运行在基于eRDMA的实例上。

幻灯片16.JPG

使用阿里云支持eRDMA的实例用户,可以获得极高的计算集群弹性能力以分钟级极快速度在云上搭建RDMA训练集群,并根据需求进行弹性扩容,将极大节省训练业务时间。


eRDMA具有非常高的带宽,所有支持eRDMA的实例可以以数百G的带宽进行RDMA的低延时通信,并且不会增加成本,节省了搭建机房的费用。更重要的是,公共云的生态可以提供非常优质的计算服务,比如基于业务实现弹性伸缩、OSS、CPFS等各类存储。


eRDMA还提供方便的管理能力,以及公共云基于神龙架构提供的针对计算、存储、网络的稳定性保障,极高的稳定性也节省了运维和维护成本。


在阿里云the more you buythe more you save。

李伟男 宋迪.jpg

点击链接进入阿里云开发者社区直播间 / 扫描上方海报中的二维码进入NVIDIA GTC官网,均可观看完整视频。



相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
打赏
0
1
0
0
3502
分享
相关文章
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
51 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
Gemma 3 是谷歌最新推出的开源多模态AI模型,支持超过35种语言,具备文本、图像及短视频处理能力,提供四种模型尺寸,优化单GPU性能,适用于多种AI应用场景。
300 8
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
MiniMind 是一个开源的超小型语言模型项目,帮助开发者以极低成本从零开始训练自己的语言模型,最小版本仅需25.8M参数,适合在普通个人GPU上快速训练。
336 10
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
COMET:字节跳动开源MoE训练加速神器,单层1.96倍性能提升,节省百万GPU小时
COMET是字节跳动推出的针对Mixture-of-Experts(MoE)模型的优化系统,通过细粒度的计算-通信重叠技术,显著提升分布式训练效率,支持多种并行策略和大规模集群部署。
83 9
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
介绍如何使用ACK Edge与虚拟节点满足DeepSeek部署的弹性需求。
阿里云当选UALink联盟董事会成员,推进新一代GPU互连技术!
阿里云当选UALink联盟董事会成员,推进新一代GPU互连技术!
68 2
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
2025年阿里云GPU服务器租用价格、选型策略与应用场景详解
随着AI与高性能计算需求的增长,阿里云提供了多种GPU实例,如NVIDIA V100、A10、T4等,适配不同场景。2025年重点实例中,V100实例GN6v单月3830元起,适合大规模训练;A10实例GN7i单月3213.99元起,适用于混合负载。计费模式有按量付费和包年包月,后者成本更低。针对AI训练、图形渲染及轻量级推理等场景,推荐不同配置以优化成本和性能。阿里云还提供抢占式实例、ESSD云盘等资源优化策略,支持eRDMA网络加速和倚天ARM架构,助力企业在2025年实现智能计算的效率与成本最优平衡。 (该简介为原文内容的高度概括,符合要求的字符限制。)
2025年阿里云GPU服务器的租赁价格与选型指南
随着AI、深度学习等领域的发展,GPU服务器成为企业及科研机构的核心算力选择。阿里云提供多种GPU实例类型(如NVIDIA V100、A100等),涵盖计算型、共享型和弹性裸金属等,满足不同场景需求。本文详解2025年阿里云GPU服务器的核心配置、价格策略及适用场景,帮助用户优化选型与成本控制,实现高效智能计算。
阿里云gpu云服务器租用价格:最新收费标准及活动价格参考
阿里云gpu云服务器多少钱?A10卡GN7i GPU云服务器32核188G3213.99/1个月起,V100卡GN6v GPU云服务器8核32G3830.00/1个月起,阿里云GPU云服务器是基于GPU应用的计算服务,多适用于视频解码,图形渲染,深度学习,科学计算等应用场景,该产品具有超强计算能力、网络性能出色、购买方式灵活、高性能实例存储( GA1和GN5特有)等特点。下面小编来介绍下阿里云gpu云服务器最新的收费标准及活动价格。

相关产品

  • GPU云服务器
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等