AMD Instinct扩大生态系统 为HPC和AI应用程序提供Exascale级技术

简介: AMD Instinct扩大生态系统 为HPC和AI应用程序提供Exascale级技术

3月22日,AMD宣布正式发布AMD Instinct生态系统,其中包括ASUS、Dell Technologies、HPE、Lenovo以及Supermicro在内更广泛的系统支持合作伙伴、全新AMD Instinct MI210加速器以及具备强大功能的ROCm 5软件。结合以上新特性和产品,AMD Instinct以及ROCm生态系统正在为拥有广泛基础的HPC和AI客户提供Exascale级(百亿亿次级)技术,以满足计算加速的数据中心工作负载日益增长的需求,并缩短洞察和发现的时间。


AMD数据中心GPU与加速处理全球副总裁Brad Mccredie表示:“与前代加速器相比,其适用平台增加了一倍,客户在HPC和AI应用程序中的采用率也越来越高,随着商业ISV合作伙伴在关键工作负载中所提供的新支持,我们进一步推动了AMD Instinct MI200加速器以及ROCm 5软件生态系统的采用。现在,随着MI200系列中AMD Instinct MI210加速器的正式推出,无论是为大规模HPC和AI工作负载提供业界领先的加速处理,亦或是通过商业业态获得Exascale级技术支持,我们的客户均可以为他们的工作负载选择最适合的加速器。”


Lumi超级计算机基础设施主管Pekka Manninen说:“基于AMD EPYC处理器和AMD Instinct MI200加速器的Lumi超级计算机将为大规模模拟和建模以及AI和深度学习工作负载提供跨代际般的性能飞跃,以解决研究中的棘手难题。我们已经通过AMD Instinct MI210加速器切身体验到Instinct MI200系列的强大性能,以帮助我们的科学家在Lumi全面部署后,在应对运行中所面临的诸多挑战与复杂性项目时做好准备。”

为未来HPC和AI提供动力

AMD Instinct MI200系列加速器旨在为Exascale级系统的探索提供动力,以帮助研究人员、科学家和工程师解决那些从气候变化到疫苗研究中的紧迫挑战。AMD Instinct MI210加速器则专为需要PCIe规格下卓越HPC和AI性能的客户提供Exascale级技术。基于AMD CDNA 2架构,AMD Instinct MI210加速器扩大了AMD在PCIe 外形规格卡上双精度(FP64)计算的性能领导力。它们还拥有基于AMD Matrix Core技术的广泛混合精度能力,为加速深度学习训练提供一个强大的解决方案。

推动ROCm的采用

作为一个开放的软件平台,AMD ROCm平台基于众多应用程序和库之上,并可为顶级HPC和AI应用程序提供强大性能,以帮助研究人员、科学家和工程师可以借助AMD Instinct加速器的性能推动科学发现。

通过ROCm 5,AMD进一步扩大了其软件平台,新增了对AMD Instinct MI200系列加速器以及AMD Radeon PRO W6800专业显卡的硬件支持,再加上对Red Hat Enterprise Linux 8.5的支持,不仅提高了开发者对ROCm的可用性,还在各种关键负载中实现了更出色的性能。


此外,通过在AMD GPU上进行移植和优化的开源应用程序资源中心AMD Infinity Hub,终端用户得以轻而易举地找到、下载并安装容器化HPC应用程序和ML框架。AMD Infinity Hub应用容器旨在减少获取和安装软件时的传统难题和困难,同时让用户根据共享的经验和问题解决办法来获得帮助。

不断扩大的合作伙伴和客户生态系统

随着越来越多的专业应用程序通过ROCm和AMD Instinct加速器进行优化,AMD进一步扩大了其软件生态系统,新增了包括Ansys Cascade Technologies以及TempoQuest在内的商业ISV合作伙伴。这些ISV合作伙伴可为包括计算流体力学(CFD)、气象、计算机辅助工程(CAE)在内的加速工作负载提供应用程序。除了以上更新,ROCm现有的应用程序支持还包括HPC、AI和机器学习应用程序,以及AMBER、Chroma、CP2K、GRID、GROMACs、LAAMPS、MILC、Mini-HAAC、NAMD、NAMD 3.0、ONNX-RT、OpenMM、PyTorch、RELION、SPECFEM3D Cartesian、SPECFEM3D Globe和TensorFlow。

 

AMD还与诸如包括ASUS、Dell Technologies、HPE、Lenovo、Supermicro在内的合作伙伴以及Colfax、Exxact、KOI Computers、Nor-Tech、Penguin和Symmetric等系统集成商合作提供差异化解决方案以应对下一代计算挑战。众多超级计算机客户也已经开始充分利用这些新客户成功案例所带来的优势,例如橡树岭国家实验室、KTH/Dardel、CSC/LUMI以及Cines/Adastra。


为客户和合作伙伴提供优质服务

AMD Accelerator Cloud可为客户提供可远程访问并评估AMD Instinct加速器和AMD ROCm软件的环境。无论是移植遗留代码、对应用程序进行基准测试,还是测试多GPU或多节点扩展,AMD Accelerator Cloud都可以让潜在客户和合作伙伴快速、轻而易举地获取最新GPU和软件。AMD Accelerator Cloud还可被用于支持各种活动,例如为现有或潜在的客户提供黑客马拉松和ROCm培训课程,帮助开发者提升他们的技能并学习如何最大程度的利用AMD Instinct加速器。


MI200系列参数

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
2天前
|
存储 人工智能 Serverless
阿里云《AI 剧本生成与动画创作》技术解决方案测评
本问是对《AI 剧本生成与动画创作》的用心体验。结论不是特别理想,在实际使用中仍存在一些问题。
53 22
|
15天前
|
人工智能 自然语言处理 搜索推荐
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
91 24
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
|
9天前
|
机器学习/深度学习 存储 人工智能
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
MNN-LLM App 是阿里巴巴基于 MNN-LLM 框架开发的 Android 应用,支持多模态交互、多种主流模型选择、离线运行及性能优化。
777 14
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
|
6天前
|
人工智能 开发框架 数据可视化
Eino:字节跳动开源基于Golang的AI应用开发框架,组件化设计助力构建AI应用
Eino 是字节跳动开源的大模型应用开发框架,帮助开发者高效构建基于大模型的 AI 应用。支持组件化设计、流式处理和可视化开发工具。
122 27
|
4天前
|
人工智能 前端开发 Serverless
阿里云《AI 剧本生成与动画创作》解决方案技术评测
随着人工智能技术的发展,越来越多的工具和服务被应用于内容创作领域。阿里云推出的《AI 剧本生成与动画创作》解决方案,利用函数计算 FC 构建 Web 服务,结合百炼模型服务和 ComfyUI 工具,实现了从故事剧本撰写、插图设计、声音合成和字幕添加到视频合成的一站式自动化流程。本文将对该方案进行全面的技术评测,包括实现原理及架构介绍、部署文档指引、具体耗时分析以及实际使用体验。
58 16
|
15天前
|
机器学习/深度学习 人工智能 API
Aligner:自动修正AI的生成结果,北大推出残差修正模型对齐技术
介绍北大团队提出的 Aligner 模型对齐技术,通过学习对齐答案与未对齐答案之间的修正残差,提升大语言模型的性能。
77 28
|
5天前
|
存储 人工智能 NoSQL
Airweave:快速集成应用数据打造AI知识库的开源平台,支持多源整合和自动同步数据
Airweave 是一个开源工具,能够将应用程序的数据同步到图数据库和向量数据库中,实现智能代理检索。它支持无代码集成、多租户支持和自动同步等功能。
53 14
|
8天前
|
人工智能 自然语言处理 数据可视化
Cursor 为低代码加速,AI 生成应用新体验!
通过连接 Cursor,打破了传统低代码开发的局限,我们无需编写一行代码,甚至连拖拉拽这种操作都可以抛诸脑后。只需通过与 Cursor 进行自然语言对话,用清晰的文字描述自己的应用需求,就能轻松创建出一个完整的低代码应用。
553 8
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
DeepSeek逆天,核心是 知识蒸馏(Knowledge Distillation, KD),一项 AI 领域的关键技术
尼恩架构团队推出《LLM大模型学习圣经》系列,涵盖从Python开发环境搭建到精通Transformer、LangChain、RAG架构等核心技术,帮助读者掌握大模型应用开发。该系列由资深架构师尼恩指导,曾助力多位学员获得一线互联网企业的高薪offer,如网易的年薪80W大模型架构师职位。配套视频将于2025年5月前发布,助你成为多栖超级架构师。此外,尼恩还提供了NIO、Docker、K8S等多个技术领域的学习圣经PDF,欢迎领取完整版资源。
|
7天前
|
人工智能 关系型数据库 分布式数据库
PolarDB 开源基础教程系列 7.4 应用实践之 AI大模型外脑
PolarDB向量数据库插件通过实现通义大模型AI的外脑,解决了通用大模型无法触达私有知识库和产生幻觉的问题。该插件允许用户将新发现的知识和未训练的私有知识分段并转换为向量,存储在向量数据库中,并创建索引以加速相似搜索。当用户提问时,系统将问题向量化并与数据库中的向量进行匹配,找到最相似的内容发送给大模型,从而提高回答的准确性和相关性。此外,PolarDB支持多种编程语言接口,如Python,使数据库具备内置AI能力,极大提升了数据处理和分析的效率。
30 4