ChatGPT、AIGC(人工智能生成内容)等技术潮流快速兴起,让普通人也感受到了人工智能技术应用落地对用户体验带来的巨大改变。应用的快速落地,离不开背后基础设施的支撑。人工智能模型的训练场景,往往要求高算力、高吞吐、低延时,可以大大加快训练速度,加速模型迭代。
近日,阿里云发布最新一代面向 AI 训练场景的 GPU 计算型裸金属实例规格族 ebmgn7ex,相较于上一代搭载了 A100 GPU 的裸金属计算实例 ebmgn7e,ebmgn7ex 的带宽提升了 150%、延时降低了 50%,整体 AI 训练场景性能提升约 30%,性价比提升约 20%~30%。
该实例主要适用于自动驾驶、AI 图像识别、语音识别、语义识别、自动控制等人工智能场景,面向互联网、技术服务和自动驾驶等高新技术行业,以及高校、实验室等科研院所对 AI 技术领域进行探索;同时,也十分适用于高性能计算场景,如石油、气象、地质、工业仿真、机械、水文等行业与研究中的仿真模拟应用,以及经济金融领域的预测计算等。
据阿里云弹性计算产品专家介绍,ebmgn7ex 实例采用阿里云自研的云基础设施处理器 CIPU,带宽升级至 160G,满足大多数模型的训练要求;同时利用阿里云自研的 eRDMA 大规模加速能力,GPU以RDMA 接入 TCP overlay 网络,以最低 8 微秒延迟支持 GPU Direct(GPU 直通技术),使多机 AI 训练更高效,更具弹性。基于以上能力,用户可以快速灵活地构建多机 GPU 计算集群。
传统 RDMA 网络低延时而难以扩展,大大限制了其使用场景。阿里云自研的 eRDMA 网络,兼具了低延时和支持大规模组网的优势,使得 gn7ex 实例可部署于阿里云所有可用区(Availible Zone,简称 AZ),可在主要地域实现任意数量集群的快速搭建,帮助企业快速部署人工智能模型。