浪潮发布业界最高GPU密度的SR-AI整机柜

简介:
+关注继续查看

在不久前结束的2017浪潮云数据中心全国合作伙伴大会(IPF)上,浪潮秉承坚持围绕"计算+"战略,进一步明确业务重心,聚焦智慧计算,发展开放融合的计算生态,建立智慧计算市场的领导力。

智慧计算的未来在商业应用, 随着人工智能应用的快速发展,AI所需的计算力也急剧攀升。此前,浪潮就已在AI计算平台、架构领域布局,拥有业界完整的支持2、4、8 GPU卡的异构超算服务器阵列。而本次IPF上,浪潮发布了业界最高密度的、单机点支持16块GPU卡的SR-AI整机柜,进一步优化了AI计算硬件架构,改变原有CPU-GPU紧耦合状态,实现GPU资源的灵活池化扩容。

浪潮发布业界最高GPU密度的SR-AI整机柜

人工智能成为未来社会发展重要动因

更复杂的AI应用呼唤更强大的计算平台

深度学习概念和浅层学习算法已经被提出多年,而人工智能近年才开始逐渐升温,原因是人工智能技术的进步受限于计算平台的性能和数据量的积累。举个例子,从IBM深蓝战胜卡斯帕罗夫,浪潮天梭战胜五位象棋大师,再到谷歌AlphaGo战胜围棋冠军李世石,解决问题的博弈树空间扩大了237数量级,这其中需要更优化的算法,也需要更强大的计算平台来支撑实时运算。

除了AI游戏,在现实生活中人工智能的应用也越来越广泛和复杂,从人脸签到打卡,到行动轨迹追踪,再到无人驾驶汽车,更复杂的AI应用呼唤更强大的计算平台。传统的单机单卡、2卡甚至8卡已经不能满足多样化的业务需求,浪潮SR-AI整机柜服务器以单节点16卡的更高密度,满足当下快速膨胀的AI计算能力需求。

浪潮发布业界最高GPU密度的SR-AI整机柜

SR-AI整机柜服务器

更高密度+资源解耦,10倍于传统AI计算设备性能

此次,浪潮与百度联合发布的SR-AI整机柜服务器,符合最新的天蝎2.5标准,是全球首个采用PCIe Fabric互联架构设计的AI方案,通过PCI-E交换机和GPU BOX两个模块的配合,打破GPU和CPU的物理耦合,让两者可以灵活扩展,相对于传统的GPU服务器,这是种颠覆式的创新,带来了高密度、低延迟、易扩展等优势。

首先,传统的AI计算设备集群需要通过高速网络实现数据的交互,着会带来us级以上的延迟,而SR-AI整机柜中GPU BOX间的互联是通过PCI-E交换机来实现,并借助GPUDirect RDMA技术可以大幅下降跨节点GPU间的通信延迟,能够实现ns级网络延时。

第二,SR-AI整机柜的I/O BOX单节点即可实现支持16个GPU的超大扩展,并且可以通过PCI-E交换机实现4个BOX、64块GPU的级联,峰值处理能力达到为512TFlops。

第三,SR-AI整机柜的GPU资源扩展无需同步配置高成本的IT资源(比如IB交换机),成本可优化5%以上,并随着规模上升成本优势越明显。

SR-AI整机柜是面向更大规模数据集和深层神经网络的超大规模AI计算平台,能够高效支撑复杂的深度学习线下模型训练任务,适用于图像识别、语音识别、自然语言处理、搜索排序等AI应用。百度实际业务的测试数据显示,SR-AI整机柜相比传统的AI方案性能提高5-10倍!

高效开发框架+算法协同优化,AI计算效率最大化

与 CPU 少量的逻辑运算单元相比,GPUFPGAMIC这种协处理加速设备整个就是一个庞大的计算矩阵,可实现 10-100 倍应用吞吐量。但同时,这种庞大的并行能力需要付出代价:需要较强的软件开发能力和算法优化能力。

为此,浪潮将高效深度学习框架Caffe-MPI开源,与众多开发者共同优化,为深度学习的用户提供了更便捷、更高效的应用手段。浪潮Caffe-MPI能够在保证正确率相同的情况下,在4节点下16卡的性能较单卡提升13倍,并增加了对cuDNN库的支持,使程序开发人员能够轻松实现高性能深度学习代码的开发。

在算法方面,此前浪潮与客户在GPU加速加速流量特征分析技术开展合作,通过软硬件和算法的协同优化,使训练24万样本的时间单节点4GPU相对于单GPU加速3倍,单机4GPU卡程序性能较原始版本加速270倍。

数据显示,2016年浪潮在人工智能计算领域的市场份额超过60%,为百度、阿里巴巴、腾讯、奇虎、科大讯飞、Face++等中国人工智能企业,提供基于GPU、FPGA、KNL等协处理加速服务器和caffe-MPI等软件、算法优化。


原文发布时间为: 2017年5月11日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
通过GPU云服务器生成AI视频
本教程介绍如何使用GPU云服务器搭建Stable Diffusion模型,并基于ModelScope框架,实现使用文本生成视频。
相关文章
|
4月前
|
机器学习/深度学习 人工智能 PyTorch
7nm制程,比GPU效率高,Meta发布第一代AI推理加速器
7nm制程,比GPU效率高,Meta发布第一代AI推理加速器
|
4月前
|
机器学习/深度学习 人工智能 编解码
双芯片四芯粒互联,寒武纪发布AI训练卡MLU370-X8:性能超越RTX
双芯片四芯粒互联,寒武纪发布AI训练卡MLU370-X8:性能超越RTX
191 0
双芯片四芯粒互联,寒武纪发布AI训练卡MLU370-X8:性能超越RTX
|
机器学习/深度学习 人工智能 并行计算
能效提升3倍,登临科技展示国内唯一量产GPU实力
AI 时代应该构建什么样的 GPU?这家创业公司给出了自己的答案。
571 0
能效提升3倍,登临科技展示国内唯一量产GPU实力
|
机器学习/深度学习 人工智能 编解码
华为麒麟的AI性能是高通的3.5倍?这是所有手机运行神经网络的能力
麒麟 970 真的是当前最强手机 AI 芯片吗?至少苏黎世联邦理工学院的研究人员是这样认为的,在他们开发的 AI Benchmark 应用中,搭载麒麟芯片的华为 P20 Pro 的神经网络处理性能第一,比第二名一加 6 手机(搭载高通骁龙 845)的 3.4 倍还多。这款 APP 目前已经在 Google Play Store 上线,任何人都可以用来测试自己的手机「是否准备好进入 AI 时代了」。
153 0
华为麒麟的AI性能是高通的3.5倍?这是所有手机运行神经网络的能力
|
机器学习/深度学习 人工智能 运维
业界最高密度 阿里云发布新一代浸没式液冷GPU服务器集群解决方案
10月20日,2021杭州云栖大会,阿里云携手英伟达,宣布将为客户提供搭载英伟达A100 GPU的新一代浸没式液冷服务器集群解决方案。作为全球领先的云服务提供商和数字经济的新基础设施,阿里云为英伟达异构算力服务领域丰富了新的解决方案,将为不同需求用户提供更丰富、更具性价比的GPU服务器集群解决方案。
业界最高密度 阿里云发布新一代浸没式液冷GPU服务器集群解决方案
|
人工智能 AI芯片
寒武纪推出第二代云端AI芯片,采用16nm工艺性能比上代提升4倍
寒武纪宣布推出第二代云端AI芯片思元270(MLU270)及板卡产品,目标是提供速度更快、功耗更低、性价比更高的AI加速解决方案。
1646 0
|
机器学习/深度学习 存储 人工智能
IBM认为模拟芯片可为机器学习加速1000倍
IBM在博客中的一篇文章中指出,通过使用基于相变存储器的模拟芯片,机器学习可以加速一千倍。
372 0
|
机器学习/深度学习 存储 人工智能
AI加速发展和摩尔定律放缓如何影响7nm eFPGA的设计?
eFPGA这种嵌入式的FPGA技术将如何推动AI的发展?7nm eFPGA设计又将如何被AI的发展影响?
443 0
三星新一代AI芯片Exynos 9820或将发布,内置独立双NPU
这是三星首款内置NPU的Exynos 9系旗舰处理器。
374 0
|
机器学习/深度学习 人工智能 自动驾驶
刚刚,黄仁勋发布全球最大GPU,超算级逆天算力,仅售39.9万美元
今天在刚刚结束的GTC 2018上,英伟达CEO黄仁勋说两件大事,一是发布了迄今最大的GPU,二是暂定自动驾驶暂停研发。随后英伟达股价下跌3.8%。GPU正在成为一种计算范式,但本质性突破乏善可陈,教主一路回顾过去创下的纪录,而鼎盛之下,衰退的迹象,似乎已经潜藏。
2142 0
相关产品
机器翻译
推荐文章
更多