MoE大模型迎来“原生战友”:昇腾超节点重构AI基础设施

简介: 大模型训练中,MoE架构逐渐成为主流,但也面临资源利用率低、系统稳定性差、通信带宽瓶颈三大挑战。传统AI集群难以满足其需求,而“昇腾超节点”通过自研高速互联协议、软硬件协同调度、全局内存统一编址及系统稳定性提升等创新,实现384张卡协同工作,大幅提升训练效率与推理性能。相比传统方案,昇腾超节点将训练效率提升3倍,推理吞吐提升6倍,助力MoE模型在工业、能源等领域的规模化应用。5月19日的鲲鹏昇腾创享周直播将深度解析相关技术细节。

对AI比较关注的话,大概率会听到下面两个“时髦”的概念:

一个是Scaling Law,通常被翻译为“规模定律”,得出了一个通俗易懂的结论——“模型越大,性能越好。”

另一个是MoE架构,中文名称是混合专家模型,相对应的概念是稠密(Dense)模型。如果说稠密模型一个“通才”,由一个“专家”处理多种不同的任务,MoE则是将任务分门别类,分给多个“专家”进行解决。

Scaling Law和MoE的出镜率越来越高,意味着大模型的参数量将越来越大,同时开始提升“能力密度”。直接相关的就是大模型的训练和推理,正在从粗放烧钱到精细调优,从堆算力转向算力利用率最大化。

站在大模型工程化创新的十字路口,恰逢鲲鹏昇腾开发者大会2025前夕,“昇腾超节点”迅速成为技术圈的热门话题。

由此产生的一个问题是:MoE架构大模型的训练都遇到了哪些挑战,昇腾给出了什么新解法?

01 MoE架构成主流,大模型训练遇到“三座大山”
Mixtral、DeepSeek R1、Llama 4、Qwen3……近一年现象级刷屏的大模型,清一色地采用了MoE架构。

原因离不开MoE的架构创新。

每个专家负责任务的一部分,极大地提升了模型的可扩展性;每个专家都能针对整个问题的特定方面进行微调,进一步提升了模型的专业化和准确性;每次请求只激活部分专家,显著减少了每次推理的计算负荷……

当MoE架构演变为大模型的主流范式,由服务器、存储、网络等设备堆叠而成的传统集群,在大模型训练上遇到了“三座大山”。

一是资源利用率低。

MoE架构对负载均衡非常敏感,路由机制如果分布不均,某些专家会频繁被调用,而其他专家几乎闲置。

传统AI集群部署MoE模型时,每台服务器只部署部分专家,缺乏全局调度能力。由于路由机制无法感知底层资源状态,可能导致部分服务器的使用率大于90%,部分服务器几乎不参与计算。结果就是,GPU的利用率远低于理论峰值,直接拉长了模型的训练周期,提升了能耗与成本。

二是系统稳定性差。

MoE架构依赖动态路由+专家选择,对系统的持续稳定性要求远高于传统Dense模型,让工程的复杂度陡升。

在传统AI集群上训练MoE模型,任何一个节点的故障,都可能导致整个训练任务失败。比如某MoE大模型的训练过程,由于集群规模超过1000张加速卡,平均无故障运行时间不足6小时,每24小时需重新调度两次以上,单次训练需要数天乃至数周,运维人员长期处于高强度监控状态。

三是通信带宽瓶颈。

MoE架构的“小专家”,理论上可以节省计算资源,前提是能灵活高效地选择和调度,对通信带宽提出了极高要求。

在传统AI集群中,GPU之间通过PCle或InfiniBand通信,激活路由涉及大量跨卡、跨节点访问,导致在All-to-All通信模式下,MoE架构的通信压力远大于Dense架构,训练速度甚至比Dense更慢。当GPU资源被通信“拖死”,哪怕是业界主流的高带宽GPU,训练效率也难以线性提升。

以上还只是大模型训练时的常见痛点。

倘若推理阶段依然部署在传统AI集群上,在不支持高频动态路由和异构推理请求的环境下,用户请求要触发不同专家组合,再加上请求跳转至跨节点专家时时延大,有些请求的延迟高达200ms以上。

训练系统的可用性,决定着智能化的速度。无法解决资源利用率低、系统稳定性差、通信带宽瓶颈的传统AI集群,已经不符合大模型的创新趋势。

02 更亲和MoE架构,“昇腾超节点”有何不同?
传统AI集群的本质是做加法,即通过硬件堆叠的方式提升算力,在大模型早期确实奏效,短板也很明显。

被技术圈追捧的昇腾超节点,可以看作是算力集群走向“乘法”式增长的标志,不仅仅是计算,进一步结合了存储、通信等能力,计算性能倍增的同时,实现了时延、吞吐、负载均衡等能力的整体跃迁。

用一句话总结的话,昇腾超节点实现了让384张卡像一台计算机一样工作,更亲和MoE架构。

根源是昇腾的四个针对性创新。

第一个是自研高速互联协议,能够将成百上千个NPU以TB级带宽超高速互联,大幅提升了并行计算的通信效率。

相较于传统集群,实现超低延迟、高带宽通信的昇腾超节点,大模型训练的All-to-All通信性能可提升5倍,send/recv集合通信性能可提升7倍,进而大幅降低了整体通信占比,让计算少等待、不等待。打破了通信上存在的瓶颈,整体训练效率提升了3倍、推理吞吐提升了6倍。

第二个是软硬件协同调度,通过异构计算平台CANN的协同,支持专家调度感知训练负载与NPU负载实时状态。

针对MoE模型训练中专家热点分布造成部分计算节点过载的问题,昇腾“超节点架构”能够依据MoE结构中专家分布以及每层的计算需求,精细地将个模型切分至不同节点,更合理分配资源,提高整体资源利用率,同时可运行多种并行策略并动态调整,针对实时的负载情况精准分配计算资源。

第三个是全局内存统一编址,所有的节点共享一套全局内存体系,数据无需频繁搬移,以此来提高训练的效率。

DeepSeek R1已经有288个专家,不排除大模型专家数量越来越多的可能。支持全局内存统一编址的昇腾超节点,具备更高效的内存语义通信能力,通过更低时延指令级内存语义通信,可满足大模型训练/推理中的小包通信需求,提升专家网络小包数据传输及离散随机访存通信效率。

第四个是系统稳定性的提升,保证训练不中断、推理更可靠,大幅降低了MoE大模型的部署和运维门槛。

比如MoE训练过程一旦某专家节点异常,可能导致全局失败的问题。昇腾超节点采用了7平面的链路设计、链路故障秒级切换、算子级重传等可靠性能力,确保大模型训练不中断,平均无故障运行时长从几小时提升到几天。同时支持更敏捷的断点续训,故障恢复时长从小时级降低至15分钟。

可以佐证的是,基于超节点设计的AI集群Atlas 900 A3 SuperCluster,在测试中突破了Scale Up物理节点计算瓶颈,平均无故障运行时长达到数天,训练效率提升了2.7倍;由于所有专家集中部署在一个超节点,在推理过程中实现了15ms超低延迟和高吞吐能力,对推荐系统、搜索排序、智能客服等对延迟极敏感的应用场景更加友好。

03 算力创新蝶变:从“硬件堆叠”到“系统级协同”
除了性能上的提升,MoE架构创新的另一个深远影响,在于降低了推理阶段的综合成本。

过去,大模型的强大性能往往伴随着极高的算力消耗,导致部署门槛极高。MoE通过“按需激活”的专家机制,在保证精度的同时大幅节省了计算资源,为企业级、行业级AI应用的落地打通了路径。

昇腾在算力底层架构上的实干式创新,向外界揭示了一个新的趋势:当大模型走出实验室,走向生产一线,走向规模化应用,为AI提供源动力的基础设施,不再是“硬件堆叠”,而是计算、存储、网络的“系统级协同”。

不单单是亲和MoE模型,搬走了大模型训练的“三座大山”,还预示着AI基础设施的“工程可控性”和“业务适配性”,更好地支持大模型在工业、能源、交通、金融等领域的规模化部署。

如果你也对昇腾超节点感兴趣,想要了解更多技术细节和创新方案,推荐关注5月19日的鲲鹏昇腾创享周直播活动,技术直播的第一场就将深度讲解基于昇腾的超节点架构,如何助力MoE模型的训练和推理,带来15ms超低时延和高吞吐量。

相关文章
|
1月前
|
人工智能 数据可视化 定位技术
不会编程也能体验的 AI 魔法,外滩大会代码原生地等你解锁
不会编程也能体验的 AI 魔法,外滩大会代码原生地等你解锁
332 39
|
5天前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
|
16天前
|
人工智能 缓存 监控
使用LangChain4j构建Java AI智能体:让大模型学会使用工具
AI智能体是大模型技术的重要演进方向,它使模型能够主动使用工具、与环境交互,以完成复杂任务。本文详细介绍如何在Java应用中,借助LangChain4j框架构建一个具备工具使用能力的AI智能体。我们将创建一个能够进行数学计算和实时信息查询的智能体,涵盖工具定义、智能体组装、记忆管理以及Spring Boot集成等关键步骤,并展示如何通过简单的对话界面与智能体交互。
412 1
|
16天前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
616 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
1月前
|
机器学习/深度学习 人工智能 计算机视觉
让AI真正"看懂"世界:多模态表征空间构建秘籍
本文深入解析多模态学习的两大核心难题:多模态对齐与多模态融合,探讨如何让AI理解并关联图像、文字、声音等异构数据,实现类似人类的综合认知能力。
226 6
|
18天前
|
设计模式 机器学习/深度学习 人工智能
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?
|
19天前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
234 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
10天前
|
人工智能 自然语言处理 安全
AI助教系统:基于大模型与智能体架构的新一代教育技术引擎
AI助教系统融合大语言模型、教育知识图谱、多模态交互与智能体架构,实现精准学情诊断、个性化辅导与主动教学。支持图文语音输入,本地化部署保障隐私,重构“教、学、评、辅”全链路,推动因材施教落地,助力教育数字化转型。(238字)
|
27天前
|
机器学习/深度学习 人工智能 机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人

热门文章

最新文章