全球首台百亿亿级超算用AMD的GPU:性能增7倍,能效提升3倍

简介: 全球首台百亿亿级超算用AMD的GPU:性能增7倍,能效提升3倍
E 级超算,每秒钟百亿亿次运算,1 后面跟 18 个零。


2018 年 6 月,美国能源部橡树岭国家实验室的工程师们发布了「Summit」超级计算机,超越神威 · 太湖之光成为了世界第一,它的理论峰值容量接近 200 petaflops——即每秒 20 万万亿次浮点运算,使用 IBM Power9 处理器和英伟达 Tesla V100 加速卡。

不过两年后,Summit 就被使用 Arm 架构的日本「富岳」超过,目前排名第二。

今年 11 月最新版的超算 Top 500 榜单。


顶级超算迭代的速度如此之快,但仍然无法比拟人们的需求。在服役短短的四年时间内,橡树岭实验室对超算服务的需求就已经超过了这台巨大机器的容量。

「Summit 算力会被超额认购四到五倍,」负责 ORNL 领先计算设施的 Justin Whitt, 说道。「这限制了使用它的进行研究项目的数量。」

现在,是时候讨论更快的超级计算机了。橡树岭国家实验室的下一个计划名叫 Frontier,完成后它将具有超过 1.5 exaflops 的峰值理论容量。

Frontier 的非凡之处并不在于它要比 Summit 强七倍以上——这个数字显然是令人惊叹的。更值得注意的是,它做到这一点只用了两倍的功率。这仍然是一个很大的功率——Frontier 预计将消耗 29 兆瓦,足以为加利福尼亚州库比蒂诺(苹果公司所在地)大小的城镇供电。但这是一个可控的数量。

「我们现在可以在很小的空间内塞进更多的计算机硬件,」Whitt 表示。「这些计算机机柜每个都与全尺寸皮卡一样重。」里面装满了 ORNL 的规格表所描述的「由高性能计算和 AI 优化的 AMD EPYC 处理器与 Radeon Instinct GPU 加速器驱动的高密度计算板卡,它们专为满足百亿亿次计算的需求而构建。」


建造一台具有这种能力的超级计算机已经够难了,新冠疫情也让事情更加具有挑战性。「供应链的问题其实很广泛,」Whitt 表示,许多对构建高性能超级计算机来说并不特殊的东西存在短缺。「它可能只是金属板或螺丝。」

供应链问题确实是 Frontier 将于 2022 年在另一台计划中的超级计算机 Aurora 之前投入运行的原因,后者将安装在伊利诺伊州的美国能源部阿贡国家实验室(Argonne National Laboratory, ANL)。Aurora 是在 2018 年先上马的,但它的建设被推迟了,因为英特尔很难提供这台机器所需的处理器和 GPU。

在团队最初的规划中,Frontier 这台巨型机器将在 2021 年底之前交付,并在 2022 年全面投入使用。所以,它可以被称为世界上第一台百亿亿级超级计算机吗?

那要看每个人的定义了:「(日本的富岳超级计算机)实际上是在不同的基准实现了 2 exaflop 的混合精度计算,」田纳西大学的 Jack Dongarra 说,他是 Top500 名单背后的专家成员之一。他解释说,这些排名是基于涉及 64 位浮点计算的基准,此类计算多用于解决许多物理模拟所需的三维偏微分方程。「这是应用超级计算机的底线,」Dongarra 说。但他也指出,超级计算机越来越多地用于训练深度神经网络,在这方面 16 位精度就足够了。

还有一个特殊的例子「Folding@Home」,这是一个旨在模拟蛋白质折叠的分布式计算项目。几十万名玩家捐出了自己的 GPU,通过众源的方式,Folding@Home 超级计算机实现了超过 1 exaflop(每秒 1 百亿亿次浮点计算)的处理能力。

「我会称它为专用计算机,」Dongarra 说,每个人都可以参与完成这项工作,因为涉及到大量并行的计算。也就是说,每一台计算机可以独立执行所需的计算,它们之间几乎不需要进行网络通信。2020 年 3 月,Folding@Home 项目宣布:「我们已经跨越了 exaflop 的障碍!」

但如果坚持使用一般基准的话,也就是用于 Top500 排名的基准,世界上任何一台超级计算机都还没有资格成为百亿亿级计算机。Frontier 可能是第一台,或者说,它有望成为第一台已知的百亿亿级超级计算机。Dongarra 解释说,在 2021 年 6 月的 Top500 排名出炉之前,有传言说中国至少有一台或两台已经在百亿亿级运行的超级计算机。

Top 500 超算榜单半年更新一次,直到 11 月的榜单出炉,前几名没有新超算揭幕。Frontier 会不会被中国的超算截胡呢?

2020 年 1 月 2 日,《科学》杂志刊文展望了 2020 年可能成为头条的十大科学新闻,其中包括中国或建造全球首台 E 级超算。据公开报道,「天河 3 号」E 级超算验证机进展顺利。


今年 7 月,由国防科技大学研制,部署在国家超级计算天津中心的「天河」E 级计算机关键技术验证系统在国际 Graph500 排名中,获得 SSSP Graph500(单源最短路径)榜单世界第一和 BIG Data Green Graph500(大数据图计算能效)榜单世界第一的成绩。图计算在大数据和人工智能领域应用广泛,相比于 Top 500,Graph500 榜单更偏向与应用。

今年 12 月 12 日,天津中心和国防科技大学,联合数十家合作团队共同发布了「面向新一代国产 E 级超级计算系统的十大应用挑战」。

据介绍,新一代百亿亿次(E 级)高性能计算机的研发,是国家在新一代信息技术领域的重要部署,其自主化程度远高于其他超算平台,同时规模与性能也会大幅提升。

或许在明年,悬念就将揭晓。

参考内容:https://spectrum.ieee.org/exascale-supercomputinghttps://www.top500.org/lists/top500/2021/11/https://www.thepaper.cn/newsDetail_forward_13434752

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
25天前
|
存储 并行计算 调度
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
本文旨在梳理作者学习路径,带领读者共同探索 GPU Kernel 性能分析从宏观到微观的技术演进。
373 24
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
|
2月前
|
存储 机器学习/深度学习 人工智能
GPU云存储性能:加速AI与高性能计算的关键
在人工智能(AI)、机器学习(ML)和高性能计算(HPC)飞速发展的今天,数据存储和处理的效率已成为决定项目成败的关键因素。传统的云存储方案往往无法满足GPU密集型工作负载的需求,而GPU云存储性能的优化正成为企业提升计算效率、降低延迟的核心突破口。本文将深入探讨GPU云存储性能的重要性、关键技术及优化策略,助您在数据驱动的竞争中占据先机。
|
5月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
931 61
|
5月前
|
机器学习/深度学习 存储 人工智能
阿里云GPU服务器gn6v、gn7i、gn6i性能特点、区别及选择参考
阿里云GPU云服务器产品线凭借其强大的计算能力和广泛的应用价值,在这些领域中发挥着举足轻重的作用。阿里云GPU云服务器能够为各类复杂的计算任务提供高效、稳定的计算支持,助力企业和开发者在技术创新和业务拓展的道路上加速前行。本文将详细介绍阿里云GPU云服务器中的gn6v、gn7i、gn6i三个实例规格族的性能特点、区别及选择参考,帮助用户根据自身需求选择合适的GPU云服务器实例。
652 60
|
5月前
|
人工智能 并行计算 监控
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
本文详细介绍了在AMD硬件上构建大型语言模型(LLM)推理环境的全流程。以RX 7900XT为例,通过配置ROCm平台、部署Ollama及Open WebUI,实现高效本地化AI推理。尽管面临技术挑战,但凭借高性价比(如700欧元的RX 7900XT性能接近2200欧元的RTX 5090),AMD方案成为经济实用的选择。测试显示,不同规模模型的推理速度从9到74 tokens/秒不等,满足交互需求。随着ROCm不断完善,AMD生态将推动AI硬件多元化发展,为个人与小型组织提供低成本、低依赖的AI实践路径。
1699 1
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
|
6月前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。
|
7月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
494 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
7月前
|
人工智能 负载均衡 调度
COMET:字节跳动开源MoE训练加速神器,单层1.96倍性能提升,节省百万GPU小时
COMET是字节跳动推出的针对Mixture-of-Experts(MoE)模型的优化系统,通过细粒度的计算-通信重叠技术,显著提升分布式训练效率,支持多种并行策略和大规模集群部署。
318 9
|
11月前
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
831 5
|
8月前
|
存储 机器学习/深度学习 人工智能
2025年阿里云GPU服务器租用价格、选型策略与应用场景详解
随着AI与高性能计算需求的增长,阿里云提供了多种GPU实例,如NVIDIA V100、A10、T4等,适配不同场景。2025年重点实例中,V100实例GN6v单月3830元起,适合大规模训练;A10实例GN7i单月3213.99元起,适用于混合负载。计费模式有按量付费和包年包月,后者成本更低。针对AI训练、图形渲染及轻量级推理等场景,推荐不同配置以优化成本和性能。阿里云还提供抢占式实例、ESSD云盘等资源优化策略,支持eRDMA网络加速和倚天ARM架构,助力企业在2025年实现智能计算的效率与成本最优平衡。 (该简介为原文内容的高度概括,符合要求的字符限制。)

热门文章

最新文章