一、推理基础设施成为战略重心
2025年开始,AI基础设施的重心发生了一个关键的迁移。应用数量的增长和场景复杂度的提升叠加在一起,让Token消耗呈现出双重放大效应:一方面是总请求量暴涨,另一方面是单次请求变得越来越长、越来越复杂。
这意味着,算力瓶颈开始更多出现在推理侧而不是训练侧。这不是短期波动,而是应用进入真实生产环境之后的必然结果。
赛迪顾问预计,到2026年中国算力总规模将突破1200 EFLOPS,稳居全球第二,其中智能算力贡献率接近90%。“云端集中训练、边缘灵活推理”的协同模式将广泛应用,超节点架构将突破传统算力集群瓶颈,成为大型智智算中心的重要选择。
二、算力调度的新范式:从“资源供给”到“价值产出”
IDC预测,到2027年,80%的企业将为应对AI的高算力与高数据需求而升级其云架构,迁移至专为AI负载优化的新一代平台。无论公有云还是私有云,传统架构都难以支撑智能体规模。
算力服务的新趋势包括:
训推一体化:追求训练、推理在流程、团队上共同合作,推理优化的重要性持续提升
全国算力一张网:八大国家算力枢纽节点将承载全国80%以上算力资源
异构计算调度:云端与终端芯片协同工作,跨架构的任务调度能力成为核心竞争力
算力服务业态升级:从资源供给导向升级为价值产出导向,业务价值单元成为重要交易标的
三、模型架构的多元化探索
在大模型研发最核心的架构层,曾长期高度收敛的技术路径,正在出现清晰的分化与重组迹象。自2021年起,围绕非Transformer架构的持续探索不断积累有效成果,从状态空间模型到递归与条件计算,这些方向逐步走出单点验证阶段,并催生出多种混合架构的演进形态。
业内推测,以DeepSeek、Qwen为代表的中国大模型开源力量可能在下一代模型中存在架构上的颠覆性设计。DeepSeek已经通过MODEL1代码展现了创新的KV缓存布局、针对FP8数据格式的优化解码、跨GPU架构的灵活适配等细节。
Gartner提出了AI超级计算平台的概念,指出英伟达的NVQLink和CUDA-Q等技术实现了量子计算与经典超算的联动,形成跨架构的任务调度能力。中国企业推出的“超节点”技术,通过堆叠AI芯片实现算力聚合,成为地缘政治背景下的务实选择。
四、边缘智能与混合计算
IDC预测,到2030年,50%的企业AI推理任务将在终端或边缘节点本地完成,从而减少云端流量与延迟,并增强敏感数据的控制力。
边缘智能加速落地的驱动力包括:
低延迟需求:自动驾驶、工业控制等场景要求毫秒级响应
数据隐私:金融、医疗等敏感数据不宜上传云端
带宽成本:海量IoT数据传输成本高昂
离线可用性:偏远地区或无网络环境下的持续服务能力
这一趋势要求企业重构基础设施与治理模式,充分利用边缘智能实现实时、自主的业务决策。
来源:
https://zlpow.cn/category/hardware-review.html