基于阿里云eRDMA的GPU实例大幅提升多机训练性能

本文涉及的产品
轻量应用服务器 2vCPU 1GiB,适用于搭建电商独立站
轻量应用服务器 2vCPU 4GiB,适用于搭建Web应用/小程序
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
简介: 2023年3月23日14:00(中国时间),NVIDIA GTC开发者大会,阿里云开发者社区观看入口正式开放,阿里云高级技术专家李伟男;阿里云弹性计算产品专家宋迪共同带来了题为《基于阿里云eRDMA的GPU实例大幅提升多机训练性能》的分享

ECS.jpg

202332314:00(中国时间),NVIDIA GTC开发者大会阿里云开发者社区观看入口正式开放,阿里云高级技术专家李伟男;阿里云弹性计算产品专家宋迪共同带来了题为《基于阿里云eRDMAGPU实例大幅提升多机训练性能》的分享,以下是他们的演讲内容整理:

幻灯片2.JPG

eRDMA基于RDMA技术研发RDMA具有特性和优势在eRDMA上同样适用。


最初RDMA技术的出现以及被广泛应用,得益于其相对于传统的TCP网络通信协议有着明显的优势。数据从内存到网卡的搬移不再需要CPU的持续介入,而通过集成在物理网卡中的DMA引擎,通过直接内存访问的方式完成数据搬移。同时在搬移过程中避免了频繁的用户态和内核态切换,由应用层直接触发物理网卡上的DMA访问,从而大幅节约了CPU的开销,降低了延时,最终大幅提升了通讯效率。


在服务器节点间的数据通信过程中,CPU仅负责指定RDMA通信的源及目的物理地址,并触发通信动作,其余工作全部由物理网卡上的DMA引擎负责完成。


相比传统的TCP通信,近端及远端的物理网卡通过协作可以直接将本地的内存数据写入远端的内存地址空间,或从远端的物理内存空间读取数据到本地内存,待数据传输全部完成后,再通知CPU进行下一步动作,将数据传输和计算分开,从而实现高效的并行计算处理。

幻灯片3.JPG

RDMA高效处理分布式节点间的内存数据搬移,其本质DMA的访问。


DMA引擎同样可以对设备地址进行直接访问。在异构计算的应用场景中,服务器节点间同步的不仅内存的数据,还有GPU显存的数据。GDR便是为了实现物理绑卡在服务节点间直接搬移GPU显存的数据而实现。

为了支持功能,NVIDIAGPU驱动提供了一套标准接口,用于获取应用层申请的显存对应的物理地址。物理网卡可以使用这一物理地址完成DMA的直接访问。部分详细的实现以及应用实例代码可以在NVIDIA的官网上获取到


GPU作为标准的PCI设备根据物理服务器的硬件拓扑结构不同,与RDMA设备通信的链路也会有很大不同。如上图所示,展示不同的硬件拓扑结构下GDR通信的链路以及效率的对比。


RDMA设备与上图中的GPU1连接在同PCIe Switch下,两者之间的通信通过PCIe Switch即可完成种类型被称为PIX通信,通讯效率最好。


RDMA设备和GPU2位于两个不同的Root Complex下,两者之间的通信需要穿过两个PCIe Switch以及两个RC。该种类型的通信被称为PHB,通讯效率会受到影响。


RDMA设备与GPU3的距离更远它位于两个CPUsocket两者之间的通信需要穿过CPU之间的UPI通道才能完成。该种通信的类型命名为SYS,效率最差。一些CPU架构上能够支持这一级别的GDR,但在实际使用中需要根据实际应用情况进行权衡,选择打开或关闭。


幻灯片4.JPG

eRDMA技术阿里云在2021年云栖大会发布RDMA生态完全兼容。在RDMA环境中运行的应用层代码可实现无修改直接迁移eRDMA环境中。


另外,其基于阿里云弹性VPC的特点,可以支持更高的弹性扩展,同时可以复用VPC网络的租户隔离,实现数据通信安全。在VPC网络覆盖的区域均可以实现eRDMA组网,突破集群限制,实现近10万级的超大规模组网。


eRDMA基于第四代神龙CIPU,带宽可200G,可以通过扩展硬件的方式实现更高的带宽,极限时延可低至5us,吞吐量可达到30M数据包/s

幻灯片5.JPG

如何在阿里云弹性计算实例中激活eRDMA


可以通过弹性RDMA网卡(ERI)实现。它是可以绑定到ECS实例的虚拟网卡但必须依附于弹性网卡,在弹性网卡的基础上开启RDMA的功能。


ERI复用了弹性网卡所属的网络VPC)无需改变业务组网,可在原有的网络上使用RDMA功能,体验RDMA带来的超低延时。在基于第四代神龙架构的阿里云服务器上可使用eRDMA


eRDMA基于阿里云的VPC网络,因此不论纯粹的CPU服务器还GPU服务器,均可以通过添加eRDMA设备激活eRDMA功能。现有业务可以平滑进行升级,完全继承阿里云的用户界面。


上图右侧展示了两种视角,下方为神龙底层视角,上方为用户侧视角。


在神龙底层的实现上,它由神龙CIPU模拟出VirtIO网卡设备ERI设备,通过神龙的虚拟化层分配给弹性服务在用户视角两个设备,分别为VirtIOERI底层物理设备的访问对用户完全透明,用户仅需要安装阿里云提供的eRDMA驱动即可使用。

幻灯片6.JPG

eRDMA在技术上具有哪些优势?


首先,在eRDMA的实现中,使用了自研的拥塞控制算法,能够容忍VPC网络中的传输质量变化,比如延时的抖动、丢包问题,在有损的网络环境中依然能够拥有良好的性能表现。


另外,相比IB以及RoCE网络,其基础设施无需重新部署,也不需要进行特有的网络交换机配置它依托于阿里云的VPC网络,可以在全地域任意扩容部署,用户可以按需购买,弹性伸缩,确保资源高效利用。更重要的继承云服务器高可用性的特点,可以实现任意节点的故障迁移,保障业务快速恢复。


另外,结合阿里云控制台全面的性能监控工具,可以实现快速诊断网络异常,或根据性能监控的分析优化业务通讯模型,提升性能。


eRDMA全面兼容RDMA的生态以及Verbs接口,上图右侧展示当前eRDMA能够支持的Verbs Opcode,覆盖了RDMA的主要操作代码。但同时,需要注意,eRDMA基于可靠连接服务RC)实现的通信,同时支持TCP及CM两种建链方式,用户可以根据自己的应用进行选择。

幻灯片7.JPG

阿里云推出第一款支持eRDMAGPU实例ebmgn7ex它是ebmgn7e的升级版,搭配了8NVIDIA Ampere架构的GPUGPU间通过NVLink互联。整机内嵌两张eRDMA网卡,分别挂载在两个CPU Socket上,实现均衡的节点间数据通道。每4GPU卡共用一个eRDMA设备,共用最大100GeRDMA网络带宽。


与现有的弹性计算实例不同,ebmgn7ex使用的eRDMAEBS存储以及VPC网络均为共享带宽模式。在没有存储及VPC网络流量的情况下,eRDMA可以使用最大200G带宽存储或VPC网络存在流量时,会按照权重在不同的数据流量间进行带宽分配。但神龙CIPU在底层可以保证存储的性能,可以使得带宽的利用更高效,充分释放神龙CIPU的效能。

幻灯片8.JPG

主流的AI框架底层通过多种不同的通讯后端进行多机或多卡通信等,几大集合通讯库比如OpenMPIGlooNCCL对各种集合通信的模式和算法都有各自的实现。


NVIDIA 针对DPU实现了一套开源通讯库,可以通过PCIe和NVLink等通道,实现高速的机器间或GPU卡间的互联。借助软硬件协同,在性能优化上有得天独厚的优势,也是主流AI框架的推荐通讯后端。eRDMA对NCCL提供了很好的支持,可以做到无修改使用开源的NCCL通讯库,可以使能底层的eRDMA设备。相比较传统的TCP通信有更低的延时实现更高的吞吐能力,但可以做到与RDMA通信链路相当的性能。


另外,相比较RDMA,它更适合在云上大规模部署,为用户提供超高性价比普惠大带宽通信链路解决方案。

幻灯片9.JPG

ebmgn7ex相比于ebmgn7e采用同样的CPUGPU配置,但底层采用第四代神龙CIPU,将整机的网络带宽从65G提升200G,提升幅度接近200%。同时通过eRDMA技术使得通信延迟相比VPC网络降低了80%

我们选择了几个典型的多机训练应用场景对两者进行了对比测试。ebmgn7ex整体性能提升大约30%尤其在对时延以及带宽强依赖的场景中,比如vgg16、语音变换以及mae等,性能提升超过40%


与此同时,在用户成本接近的基础上,ebmgn7ex显然展示出了更好的性价比。初步估计,根据用户的业务场景,可实现20%-30%的成本优化。

幻灯片10.JPG

阿里云在2022年发布了CIPU云处理单元。如今,在阿里云上,云服务已经远远不是将一台服务器通过虚拟化分割资源后提供给用户,而通过CIPU智能调度和管理能力,将CIPUGPU存储网络等分拆为不同的资源池,根据用户的需求灵活地提供相应的服务。


由于存储网络和计算资源相互独立,在使用计算服务时,几类资源都可以根据用户的需求进行动态调整。比如CPU的核数、挂载ESSD数据盘的容量、网络带宽等,都可以根据业务对性能的需求而变化,相对于自建IDC提供了极大的弹性。


基于CIPU我们做了两件事:


第一将软件硬件化。将原来的虚拟化软件、网络传输、可信计算等功能通过CIPU的硬件加速来实现将云软件功能从服务器的CPU内存里解放出来,让计算资源池独立地提供服务。通过软件硬件化也提高了虚拟化和网络传输等功能的性能。


幻灯片11.JPG


第二,硬件软件化。通过软件定义硬件的方式,在CPU上提供了原本由硬件才能提供的RDMA功能。


当前,支持RDMA功能的主要解决方案有三种,分别为IBRoCE以及iWARPCIPU通过软件定义网络的方式,基于iWARP协议提供RDMA功能。


市面上采用iWARP协议的方案并不多,原因在于iWARP协议基于TCP传输相较于RoCEIB,需要大量内存访问,在大型网络中会影响服务器的CPU性能。并且由于采用了通用的TCP/IP网络设施,无法实现对RDMA传输的监控,在控制拥塞等方面也存在问题。


然而,阿里云采用了CIPU,通过软件定义的方式,实现了对网络数据的拥塞控制和流量管理。同时,CIPU将原来网络和虚拟化层上的内存和计算工作offloadCIPU的处理器上,不会影响计算节点的性能。

幻灯片12.JPG·

通过以上方式,CIPU规避了iWARP的缺点,以TCP/IP overlay方式组网。原先阿里云以RoCE协议提供的计算产品,首先需要一套overlay网络来做VPC网络,另外需要再组一套RoCE来进行RDMA的数据传输。eRDMA相较于原来的方案,将RDMA合并VPC网络里,整个拓扑变得非常简单便捷


阿里云的网络存储计算资源都连接在VPC网络里,通过CIPU,可以让AZ内所有资源都通过RDMA来进行数据的传输。传统的RoCEIB网络需要独立新建专门的机房,机房建好后网络拓扑难以改变。eRDMA实例无需新建机房,因此在机房成本方面相较于RoCE网络的方式有很大降低,具性价比。


另外,CIPU软件定义硬件可以实现弹性网络,因此eRDMA的计算集群无需额外的网络配置即可overlay类上链接AZ里所有资源只要是部署于单一AZ的资源,都可以被拉起提供给同一个计算资源集群使用,弹性能力大幅增强。同时,eRDMA基于通用计算网络,兼容性非常好,可以兼容几乎所有API

幻灯片13.JPG

正由于eRDMA能够让AZ里几乎任意规模的计算资源汇合成为独立的计算集群,因此非常适合于搭建AI训练集群。基于eRDMA协议,实例采用了ICL处理器每一台机器可以通过eRDMA200G网络进行互联,在可用区内申请的所有此类实例,互相之间都可以实现RDMA传输。

幻灯片14.JPG

需要特别说明,云上提供资源时一般通过虚拟化层,算力在虚拟化层会有一定的损耗,而阿里云采用CIPU提供金属实例则有所不同。实例前面的ebm三个字母代表了这一台裸金属实例整机的物理资源通过CIPU直接透传给用户,中间没有虚拟化层的损耗,在CIPU的云管理加持下,用户可以获得一台完整的物理机能力。


实例的价格相比于此前64G网络带宽的裸金属实例ebmgn7e反而有所降低这正CIPU对网络的兼容性带来的高性价比红利。同时,并非只有训练集群业务才能选择实例,一些通用的单机训练以及推理业务也可以选择。比如当前非常火的ChatGPTChatGPT模型在推理时需要500G以上的显存,因此该实例也是大模型推理的最优选择。


当前在云上可以通过测链接申请使用eRDMA实例。申请实例时的步骤选项也于此前有所不同。


第一,在操作系统选择时新增了自动安装eRDMA驱动选项,建议勾选,勾选后在实例内可以自动安装eRDMA的网络驱动


第二,在网络配置方面,ebmgn7ex需要选择两个固定的弹性网卡,两个弹性网卡不可释放,每个网卡可以提供100G的网络带宽在勾选上右eRDMA后,即可支持RDMA传输。在使用或测试中某些应用出现异常,也可以将勾选取消,此时实例的网络带宽仍然不变,但是仅支持VPC网络连接实例。

幻灯片15.JPG

阿里云将会逐步推出更多产品来支持eRDMAebmgn7ex实例也会在阿里云上形成完整的生态通过基于eRDMA互联,用户在集群中可以接入ECS通用计算实例,可以接入支持eRDMACPFS分布式存储来获得更低延时。并且由于裸金属与CPFS实现了RDMA传输,因此借助GPU Direct Storage功能,可以快速获取训练数据时节省更多NC的资源。


同时公共云上原有的安全功能以及阿里云在人工智能方面提供的各类PaaS服务,比如ACK容器服务、serverless计算服务、PAI平台的所有功能也都可以运行在基于eRDMA的实例上。

幻灯片16.JPG

使用阿里云支持eRDMA的实例用户,可以获得极高的计算集群弹性能力以分钟级极快速度在云上搭建RDMA训练集群,并根据需求进行弹性扩容,将极大节省训练业务时间。


eRDMA具有非常高的带宽,所有支持eRDMA的实例可以以数百G的带宽进行RDMA的低延时通信,并且不会增加成本,节省了搭建机房的费用。更重要的是,公共云的生态可以提供非常优质的计算服务,比如基于业务实现弹性伸缩、OSS、CPFS等各类存储。


eRDMA还提供方便的管理能力,以及公共云基于神龙架构提供的针对计算、存储、网络的稳定性保障,极高的稳定性也节省了运维和维护成本。


在阿里云the more you buythe more you save。

李伟男 宋迪.jpg

点击链接进入阿里云开发者社区直播间 / 扫描上方海报中的二维码进入NVIDIA GTC官网,均可观看完整视频。



相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
2月前
|
存储 并行计算 调度
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
本文旨在梳理作者学习路径,带领读者共同探索 GPU Kernel 性能分析从宏观到微观的技术演进。
658 24
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
|
1月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
238 1
|
1月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
252 0
|
3月前
|
存储 机器学习/深度学习 人工智能
GPU云存储性能:加速AI与高性能计算的关键
在人工智能(AI)、机器学习(ML)和高性能计算(HPC)飞速发展的今天,数据存储和处理的效率已成为决定项目成败的关键因素。传统的云存储方案往往无法满足GPU密集型工作负载的需求,而GPU云存储性能的优化正成为企业提升计算效率、降低延迟的核心突破口。本文将深入探讨GPU云存储性能的重要性、关键技术及优化策略,助您在数据驱动的竞争中占据先机。
|
2月前
|
存储 人工智能 弹性计算
阿里云gpu云服务器收费价格,热门实例简介和最新按量、1个月、1年收费标准参考
在阿里云所有gpu云服务器实例规格中,计算型gn5、gn6i、gn6v、gn7i和最新推出的gn8is、gn8v-tee等实例规格是其中比较热门的gpu云服务器实例。阿里云gpu云服务器最新租用价格参考,适合AI推理/训练的16核60G+1张A10 24G显存(gn7i-c16g1.4xlarge),按量优惠价1.9/小时起。本文为大家展示阿里云gpu云服务器中gn5、gn6i等热门实例规格的主要性能和适用场景以及最新按量和1个月、1年收费标准,以供参考。
|
6月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1147 61
|
9月前
|
存储 机器学习/深度学习 人工智能
2025年阿里云GPU服务器租用价格、选型策略与应用场景详解
随着AI与高性能计算需求的增长,阿里云提供了多种GPU实例,如NVIDIA V100、A10、T4等,适配不同场景。2025年重点实例中,V100实例GN6v单月3830元起,适合大规模训练;A10实例GN7i单月3213.99元起,适用于混合负载。计费模式有按量付费和包年包月,后者成本更低。针对AI训练、图形渲染及轻量级推理等场景,推荐不同配置以优化成本和性能。阿里云还提供抢占式实例、ESSD云盘等资源优化策略,支持eRDMA网络加速和倚天ARM架构,助力企业在2025年实现智能计算的效率与成本最优平衡。 (该简介为原文内容的高度概括,符合要求的字符限制。)
|
7月前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。
|
9月前
|
边缘计算 调度 对象存储
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
介绍如何使用ACK Edge与虚拟节点满足DeepSeek部署的弹性需求。

热门文章

最新文章

相关产品

  • GPU云服务器