AI时代,FPGA芯片发展潜力巨大?

简介:

随着芯片制造技术难以持续缩进,多核CPU性能的提高难度越来越大。 虽然目前CPU的性能获得了巨大的进步,但主要用于扩展CPU的性能吞吐量,而不是单个CPU内核的个体性能。(我们知道架构增强是有难度的)。但是FPGA和GPU加速器的每瓦性能都有了令人信服的改进。
近两年来,越来越多以FPGA切入AI芯片的玩家涌现出来,包括国内AI芯片创企深鉴科技、百度XPU、微软Project Brainwave、深思考医疗影像专用AI芯片等等。尽管ASIC在性能功耗上往往有更好的表现,不过我们发现,在一片红海的AI芯片市场中,FPGA凭借自己独特的优势占有了一席之地。甚至有媒体报道称,FPGA是AI芯片的终极未来。

1_1

那么FPGA为何能在AI数据中心时代杀出重围呢?究其原因,无外乎兼容性、可定制、功耗、性价比。熟悉FPGA的人并不少,其全称为Field-Programmable Gate Arra,即现场可编程门阵列,以硬件描述语言(Verilog或VHDL)完成的电路设计,特点是可以排列组合出各种复杂的逻辑功能,即使在出厂成品后也能根据设计需要改变逻辑模块和连接。并行计算时,FPGA包含的LUTs、register、DSP等经由网络通过编程连接,实现特定功能,并且可以反复重配使用。无论是对比GPU还是ASIC ,FPGA的兼容性和灵活性都更好。
应用方面,FPGA在通信、医疗、工业、军事等领域均有涉足,例如信号基站就需要FPGA进行数据处理,架构的广泛适应性也为FPGA应用于数据中心打下了基础。市场调查机构Gartner预测,从2014年到2023年,全球FPGA市场的年均增长率会达到7%。

1_2

功耗方面,根据浪潮为国内某大型互联网公司定制的FPGA实测数据显示,一个FPGA加速卡的功耗约为20W-75W的功耗,对应的1个GPU单元为235W-300W。此外,一块中端GPU的每瓦单精度20Gflops/W,而FPGA为60Gflops/W-80Gflops/W。不过在实现同样功能时,FPGA较GPU和ASIC需要的电路面积更大,这也导致了其总功耗优势下降,尚需进一步优化。
当下AI仍处于早期阶段,AI算法正从训练环节走向推理环节,这个过程需要对训练后的模型进行压缩,在基本不损失模型精度的情况下将模型压缩到原来的几十分之一。在这一阶段,AI是向着有利于FPGA发展的方向进行优化和升级的。
FPGA或许只是小众的芯片,但在AI市场上,它的普适性和灵活性都使其有适合发挥其优势的应用场景。在各类AI芯片之间没有拉开绝对差距之前,每一种技术路线都有其发挥更多价值的空间。

相关文章
|
8月前
|
传感器 机器学习/深度学习 算法
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
|
8月前
|
人工智能 芯片 异构计算
英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?
随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。
|
1月前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
93 12
|
1月前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
2月前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
52 0
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
55 0
|
3月前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
3月前
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
3月前
|
数据采集 人工智能 搜索推荐
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。
|
4月前
|
机器学习/深度学习 人工智能 自动驾驶
【通义】AI视界|马斯克:特斯拉计划2025年末批量装备AI训练芯片Dojo2
本文精选了24小时内的重要AI新闻,包括特斯拉计划2025年批量装备Dojo 2芯片、英伟达股价大涨、谷歌联合创始人积极参与AI项目、中科院女工程师开源AI模型保护女性,以及快手旗下可灵AI与蓝色光标达成战略合作。更多内容敬请访问通义官网体验。

热门文章

最新文章