随着人工智能大模型的快速迭代,百亿、千亿甚至万亿参数的模型成为常态,对算力的需求呈现指数级增长。传统电子芯片受限于功耗、速度等瓶颈,难以满足大模型训练、高能效计算的需求,成为制约科技发展的“算力枷锁”。而AI与芯片技术的深度融合,正打破这一困境——从AI驱动的芯片设计,到全新架构的智能光芯片,人工智能正重构算力格局,解锁高性能计算的全新可能,为科技发展注入强劲动力。
清华大学团队研制的“太极”AI光芯片,便是这一领域的突破性成果。这款芯片摒弃了传统电子深度计算范式,构建了智能光计算的通用传播模型,首创了干涉—衍射分布式广度光计算架构,化传统电子神经网络的深度计算为分布式广度计算,充分发挥光计算“全连接”与“高并行”的独特优势,突破了物理模拟器件多层深度级联的固有计算误差,让光计算摆脱了电子计算架构的束缚,真正释放了光的高性能计算潜力。
与传统电子芯片相比,“太极”光芯片的性能实现了质的飞跃,其计算能效超现有智能芯片2—3个数量级,可实现每秒每焦耳160万亿次运算的通用智能计算,能够为百亿像素大场景光速智能分析、百亿参数大模型训练推理、毫瓦级低功耗自主智能无人系统提供强大的算力支撑。不同于现有智能光计算局限于简单的字符分类、图像处理,“太极”光芯片的自顶向下的编码拆分-解码重构机制,能将复杂智能任务化繁为简,拆分为多通道高并行的子任务,构建的分布式“大感受野”浅层光网络可对子任务分而治之,能够支撑亟须高算力与高能效的复杂大模型智能计算,为高性能计算探索了新路径。
除了光芯片领域的突破,AI还在传统芯片设计中发挥着关键作用,大幅缩短芯片研发周期、提升芯片性能。传统芯片设计是一项复杂且耗时的工作,一款高端芯片的设计周期往往需要1—2年,且容易出现设计缺陷,导致研发成本飙升。而AI通过深度学习算法,能够自主学习芯片设计的规律和经验,自动完成芯片布局、布线、验证等核心环节,不仅将芯片设计周期缩短至数月,还能优化芯片的功耗、性能和面积,降低设计缺陷的概率。例如,谷歌的TPU芯片,便是通过AI辅助设计,针对AI计算场景进行优化,其算力密度和能效比远超传统CPU、GPU,成为支撑谷歌大模型训练的核心算力支撑。
在终端算力领域,AI与芯片的融合也带来了全新突破。高通联合成都阿加犀智能科技推出的阿加犀“通天晓”人形机器人,集成“大语言模型+AI工具”,搭载高通跃龙QCS8550芯片平台,构建了“大小脑”一芯方案——“大脑”内置端侧大语言模型,融合语音、视觉等多模态信息,实现自然交互与场景理解;“小脑”部署于高性能芯片平台,集成视觉、运动控制与人机交互模块,二者协同赋予机器人精准的“手眼协同”能力,可完成识别、抓取与递送等任务,已在交通劝导等场景落地应用,为人形机器人的规模化应用提供了实践样本。
AI正在以全新的方式重构算力格局,无论是突破瓶颈的智能光芯片,还是AI辅助设计的专用芯片,都在推动算力向更高速度、更低功耗、更高效能的方向发展。这种融合不仅解决了当下大模型、高性能计算的算力困境,更将为人工智能、物联网、自动驾驶等前沿科技领域的发展提供核心支撑,推动科技进入一个全新的算力时代。
参考:https://app-ac82rd2vrshv.appmiaoda.com/category/cats.html