随着芯片制造技术难以持续缩进,多核CPU性能的提高难度越来越大。 虽然目前CPU的性能获得了巨大的进步,但主要用于扩展CPU的性能吞吐量,而不是单个CPU内核的个体性能。(我们知道架构增强是有难度的)。但是FPGA和GPU加速器的每瓦性能都有了令人信服的改进。
近两年来,越来越多以FPGA切入AI芯片的玩家涌现出来,包括国内AI芯片创企深鉴科技、百度XPU、微软Project Brainwave、深思考医疗影像专用AI芯片等等。尽管ASIC在性能功耗上往往有更好的表现,不过我们发现,在一片红海的AI芯片市场中,FPGA凭借自己独特的优势占有了一席之地。甚至有媒体报道称,FPGA是AI芯片的终极未来。
那么FPGA为何能在AI数据中心时代杀出重围呢?究其原因,无外乎兼容性、可定制、功耗、性价比。熟悉FPGA的人并不少,其全称为Field-Programmable Gate Arra,即现场可编程门阵列,以硬件描述语言(Verilog或VHDL)完成的电路设计,特点是可以排列组合出各种复杂的逻辑功能,即使在出厂成品后也能根据设计需要改变逻辑模块和连接。并行计算时,FPGA包含的LUTs、register、DSP等经由网络通过编程连接,实现特定功能,并且可以反复重配使用。无论是对比GPU还是ASIC ,FPGA的兼容性和灵活性都更好。
应用方面,FPGA在通信、医疗、工业、军事等领域均有涉足,例如信号基站就需要FPGA进行数据处理,架构的广泛适应性也为FPGA应用于数据中心打下了基础。市场调查机构Gartner预测,从2014年到2023年,全球FPGA市场的年均增长率会达到7%。
功耗方面,根据浪潮为国内某大型互联网公司定制的FPGA实测数据显示,一个FPGA加速卡的功耗约为20W-75W的功耗,对应的1个GPU单元为235W-300W。此外,一块中端GPU的每瓦单精度20Gflops/W,而FPGA为60Gflops/W-80Gflops/W。不过在实现同样功能时,FPGA较GPU和ASIC需要的电路面积更大,这也导致了其总功耗优势下降,尚需进一步优化。
当下AI仍处于早期阶段,AI算法正从训练环节走向推理环节,这个过程需要对训练后的模型进行压缩,在基本不损失模型精度的情况下将模型压缩到原来的几十分之一。在这一阶段,AI是向着有利于FPGA发展的方向进行优化和升级的。
FPGA或许只是小众的芯片,但在AI市场上,它的普适性和灵活性都使其有适合发挥其优势的应用场景。在各类AI芯片之间没有拉开绝对差距之前,每一种技术路线都有其发挥更多价值的空间。