近日,全球权威AI基准评测组织MLCommons公布了最新一期 MLPerf™ v2.1推理性能基准测试结果。阿里云在Edge封闭式、数据中心和Edge开放式、数据中心网络等场景均表现亮眼。其中,基于阿里云弹性计算GPU云服务器的神龙AI加速引擎(AIACC)在图像识别的Edge封闭式场景中实现了最低延时,突破性能天花板,处于业界第一。
MLPerf Benchmark是一套用于测量机器学习软硬件性能的通用基准,由来自学术界、研究实验室和相关行业的 AI 领导者组成的联盟,旨在“构建公平和有用的基准测试”;评估在不同条件下,不同企业硬件、软件和服务的训练和推理性能;可以帮助企业简化选择AI软硬件服务的流程。
MLPerf覆盖了图像分类、目标检测、医学图像分割、自然语言处理等不同的AI服务场景,阿里云AIACC本次参与的主要是图像识别的封闭式推理场景。
封闭式即指在不对模型进行任何改动,仅优化底层软硬件平台的情况下获得的性能,具有极大优化难度。往期的封闭式场景结果中,搭载最新的NVIDIA TensorRT版本是所有NVIDIA GPU硬件平台的性能天花板,不同厂商的差距仅在于不同GPU硬件产生的小幅性能差异。本次MLPerf™ v2.1推理结果的Edge封闭式计算中,神龙AI加速引擎(AIACC)针对ResNet50的单流(单任务处理)推理进行了专门的深入优化,超过了直接使用NVIDIA TensorRT的用例,获得了0.38毫秒的最低延时,意味着在阿里云上识别一张图片只需要0.38毫秒。
MLPerf Inference Edge v2.1截图
阿里云神龙加速引擎AIACC团队本次主要基于两款阿里云GPU云服务实例——gn7i、gn7e实例。
在gn7i实例上,AIACC实现了单流时延0.40 毫秒,低于业界其他厂商0.44-0.50毫秒的时延;在gn7e实例上,AIACC加速的ResNet50推理时延为仅为0.38毫秒,远低于其他厂商0.50-0.53毫秒的延时。
阿里云GPU云服务器是提供 GPU 算力的弹性计算服务,具有超强的计算能力,服务于深度学习、科学计算、图形可视化、视频处理多种应用场景,能为客户提供软件与硬件结合的完整服务体系,助力客户在实际业务中实现资源的灵活分配、弹性扩展、算力的提升以及成本的控制。
基于阿里云弹性计算服务ECS的神龙计算加速引擎致力于为阿里云ECS客户提供快速、便捷、用户无感的计算加速服务,覆盖AI训练与推理、大数据、通用计算等领域。在AI训练与推理领域,神龙AI加速引擎(AIACC)持续深耕性能优化技术,服务了大量客户优化AI计算业务性能,助力其业务在阿里云GPU云服务器上线部署和提速,并曾在世界AI性能权威榜单DAWNBench中斩获4项世界第一。在大数据领域,神龙大数据加速引擎(MRACC)亦在世界大数据权威榜单TPC Benchmark Express-BigBench(TPCx-BB) SF3000摘得桂冠。
AIACC和MRACC等性能优化技术在长期服务客户的过程中得以积累和沉淀,客户可在阿里云GPU云服务实例和阿里云弹性计算ECS实例上开放使用,应用无感的提升客户业务的性能。
点击这里,了解阿里云GPU云服务器。
丨近期活动预告
面对“元宇宙”概念兴起,我们邀请到NVIDIA中国Omniverse业务负责人何展、沙核科技创始人楼彦昕、阿里云弹性计算产品专家张新涛,分享行业理解、落地案例、瓶颈挑战等。数字世界先锋x科技艺术家x云计算活化石,欢迎看三位碰撞出何种观点。
本次对谈节目,将于9月26日下午2点播出,点击这里预约直播。