最新MLPerf基准测试:基于阿里云GPU云服务器的AIACC在图像识别封闭式场景下夺冠

本文涉及的产品
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
轻量应用服务器 2vCPU 4GiB,适用于搭建Web应用/小程序
轻量应用服务器 2vCPU 4GiB,适用于网站搭建
简介: 最低延时0.38毫秒

图片0.png

近日,全球权威AI基准评测组织MLCommons公布了最新一期 MLPerf™ v2.1推理性能基准测试结果。阿里云在Edge封闭式、数据中心和Edge开放式、数据中心网络等场景均表现亮眼。其中,基于阿里云弹性计算GPU云服务器的神龙AI加速引擎(AIACC)在图像识别的Edge封闭式场景中实现了最低延时,突破性能天花板,处于业界第一


MLPerf Benchmark是一套用于测量机器学习软硬件性能的通用基准,由来自学术界、研究实验室和相关行业的 AI 领导者组成的联盟,旨在“构建公平和有用的基准测试”;评估在不同条件下,不同企业硬件、软件和服务的训练和推理性能;可以帮助企业简化选择AI软硬件服务的流程。


MLPerf覆盖了图像分类、目标检测、医学图像分割、自然语言处理等不同的AI服务场景,阿里云AIACC本次参与的主要是图像识别的封闭式推理场景。


封闭式即指在不对模型进行任何改动,仅优化底层软硬件平台的情况下获得的性能,具有极大优化难度。往期的封闭式场景结果中,搭载最新的NVIDIA TensorRT版本是所有NVIDIA GPU硬件平台的性能天花板,不同厂商的差距仅在于不同GPU硬件产生的小幅性能差异。本次MLPerf™ v2.1推理结果的Edge封闭式计算中,神龙AI加速引擎(AIACC)针对ResNet50的单流(单任务处理)推理进行了专门的深入优化,超过了直接使用NVIDIA TensorRT的用例,获得了0.38毫秒的最低延时,意味着在阿里云上识别一张图片只需要0.38毫秒。

图片1.1png.png

MLPerf Inference Edge v2.1截图


阿里云神龙加速引擎AIACC团队本次主要基于两款阿里云GPU云服务实例——gn7i、gn7e实例。


在gn7i实例上,AIACC实现了单流时延0.40 毫秒,低于业界其他厂商0.44-0.50毫秒的时延;在gn7e实例上,AIACC加速的ResNet50推理时延为仅为0.38毫秒,远低于其他厂商0.50-0.53毫秒的延时。

图片2.png

图片3.png


阿里云GPU云服务器是提供 GPU 算力的弹性计算服务,具有超强的计算能力,服务于深度学习、科学计算、图形可视化、视频处理多种应用场景,能为客户提供软件与硬件结合的完整服务体系,助力客户在实际业务中实现资源的灵活分配、弹性扩展、算力的提升以及成本的控制。


基于阿里云弹性计算服务ECS的神龙计算加速引擎致力于为阿里云ECS客户提供快速、便捷、用户无感的计算加速服务,覆盖AI训练与推理、大数据、通用计算等领域。在AI训练与推理领域,神龙AI加速引擎(AIACC)持续深耕性能优化技术,服务了大量客户优化AI计算业务性能,助力其业务在阿里云GPU云服务器上线部署和提速,并曾在世界AI性能权威榜单DAWNBench中斩获4项世界第一。在大数据领域,神龙大数据加速引擎(MRACC)亦在世界大数据权威榜单TPC Benchmark Express-BigBench(TPCx-BB) SF3000摘得桂冠。


AIACC和MRACC等性能优化技术在长期服务客户的过程中得以积累和沉淀,客户可在阿里云GPU云服务实例和阿里云弹性计算ECS实例上开放使用,应用无感的提升客户业务的性能。


点击这里,了解阿里云GPU云服务器。



丨近期活动预告

面对“元宇宙”概念兴起,我们邀请到NVIDIA中国Omniverse业务负责人何展、沙核科技创始人楼彦昕、阿里云弹性计算产品专家张新涛,分享行业理解、落地案例、瓶颈挑战等。数字世界先锋x科技艺术家x云计算活化石,欢迎看三位碰撞出何种观点。


本次对谈节目,将于9月26日下午2点播出,点击这里预约直播


活动海报_1080_1920.jpg


相关文章
|
2月前
|
存储 人工智能 容灾
阿里云服务器2核8G、4核16G、8核32G配置热门实例性能对比与场景化选型指南
2核8G/4核16G/8核32G配置的阿里云服务器在阿里云活动中目前有经济型e、通用算力型u1、通用型g7、通用型g8y和通用型g9i五种实例可选,目前2核8G配置选择u1实例活动价格652.32元1年起,4核16G月付选择经济型e实例最低89元1个月,8核32G配置160元1个月起,本文将为大家解析经济型e、通用算力型u1、通用型g7及通用型g8y实例,帮助用户根据自身需求合理选择最适合的实例规格和配置。
|
2月前
|
机器学习/深度学习 数据库 数据安全/隐私保护
服务器核心组件:CPU 与 GPU 的核心区别、应用场景、协同工作
CPU与GPU在服务器中各司其职:CPU擅长处理复杂逻辑,如订单判断、网页请求;GPU专注批量并行计算,如图像处理、深度学习。二者协同工作,能大幅提升服务器效率,满足多样化计算需求。
1343 39
|
2月前
|
运维 NoSQL 调度
GPU集群扩展:Ray Serve与Celery的技术选型与应用场景分析
Ray Serve与Celery对比:Ray Serve适用于低延迟、高并发的GPU推理服务,支持资源感知调度;Celery适合CPU密集型的离线批处理,具备成熟的任务队列机制。两者设计理念不同,适用场景各异,可根据任务类型灵活选型。
134 6
GPU集群扩展:Ray Serve与Celery的技术选型与应用场景分析
|
6月前
|
存储 弹性计算 缓存
阿里云服务器ECS实例选型与性能监控指南:从场景匹配到优化参考
随着云服务器的普及应用,越来越多的企业和个人用户选择将业务迁移到云端,以享受其带来的灵活性、可扩展性和成本效益。阿里云服务器(Elastic Compute Service,简称ECS)以其丰富的实例规格、卓越的性能和稳定的运行环境,赢得了广大用户的信赖。然而,对于很多初次接触云服务器产品的新手用户来说,面对阿里云多达几十种的云服务器实例规格,往往感到无从下手,不知道如何选择最适合自己业务需求的实例规格。本文旨在通过详细解析阿里云ECS实例规格的选择策略,并介绍如何有效监控云服务器性能,确保业务的高效运行。
434 63
|
1月前
|
机器学习/深度学习 人工智能 弹性计算
2025年阿里云GPU服务器租用价格与应用场景详解
阿里云GPU服务器基于ECS架构,集成NVIDIA A10/V100等顶级GPU与自研神龙架构,提供高达1000 TFLOPS混合精度算力。2025年推出万卡级异构算力平台及Aegaeon池化技术,支持AI训练、推理、科学计算与图形渲染,实现性能与成本最优平衡。
|
4月前
|
弹性计算 关系型数据库 数据库
阿里云服务器ECS是什么?ECS应用场景、租用流程及使用教程整理
阿里云ECS(弹性计算服务)是性能稳定、弹性扩展的云计算服务,支持多种处理器架构和实例类型,适用于网站托管、开发测试、数据存储、企业服务、游戏多媒体及微服务架构等场景。提供从注册、配置到部署、运维的完整使用流程,助力用户高效上云。
|
4月前
|
机器学习/深度学习 存储 缓存
阿里云服务器企业级实例选购攻略:八代/九代/倚天实例性能、场景、选型参考
2025年阿里云活动中适合企业用户的云服务器实例规格主要为通用算力型u1、计算型c8i、计算型c9i、计算型c8y、通用型g8i、通用型g9i、通用型g8y、内存型r9i、内存型r8y等实例。本文为大家介绍这些实例规格的性能、场景以及选型参考。
|
5月前
|
弹性计算 开发框架 Ubuntu
阿里云服务器ECS镜像知识解析:功能特性、场景及上手实操教程参考
对于部分初次选择阿里云服务器的新手用户来说,可能并不是很清楚阿里云服务器镜像是什么?ECS镜像堪称搭建ECS实例的基础模板,其中涵盖了启动及运行实例所必需的操作系统以及预先配置好的数据。本文将围绕阿里云服务器镜像的相关知识展开介绍,助力大家全方位了解并熟练运用这一强大功能。

热门文章

最新文章

相关产品

  • 云服务器 ECS
  • GPU云服务器