AI设计芯片

简介: 手机SoC芯片,堪称世界上最复杂的芯片之一,有多复杂?老冀给你个数字:iPhone 12搭载的A14处理器,竟然有118亿个晶体管!

手机SoC芯片,堪称世界上最复杂的芯片之一,有多复杂?老冀给你个数字:iPhone 12搭载的A14处理器,竟然有118亿个晶体管!

微信图片_20211224151328.jpg

要设计如此复杂的芯片,必须使用EDA软件,先由工程师完成逻辑设计,然后进行布局走线设计,以确定每个晶体管的位置,以及它们之间的连接。这个工程量非常浩大,尤其是布局走线设计加上测试,通常需要好几个工程师20 到30 周才能完成。

 

还得是有经验的工程师,他们有一种本能的理解,知道不同的设计方案会给芯片带来什么样的后果,能够通过不断地试错,优化设计方案,最终达到性能、功耗、面积三大目标的平衡。


微信图片_20211224151851.jpg


工程师的这种优化模式,跟AI里的强化学习非常类似。由此,全球最大的EDA软件公司——新思发布了DSO.ai,在芯片布局走线的时候,通过强化学习自动搜索设计空间,寻求最佳解决方案。

 

结果非常理想,采用DSO.ai之后,芯片频率提升了18%,功耗降低了21%,6个月的工程时间缩短到了1个月。

 

也正是看到了AI给芯片设计带来的好处,三星已经准备在下一代Exynos处理器的设计中采用AI。


微信图片_20211224151911.jpg


除了三星之外,其他公司也在尝试用AI来进行芯片设计。前不久,Google的两位研究科学家阿扎莉亚·米尔霍塞尼Azalia Mirhoseini和安娜·戈尔迪Anna Goldie在《自然》杂志上发表了一篇论文。该论文披露,他们已经用AI设计自家的TPU芯片。

 

GoogleAI算法被称为芯片版面规划”,从机器学习的角度来看,完全可以像下棋那样解决这个问题。芯片版面规划与下棋类似,只不过用的不是棋盘,而是硅片。棋盘上的棋子变成了CPU和GPU等芯片子系统器件接下来的任务就是让机器学习系统找到获胜条件围棋比赛是围出更大的空,而在芯片设计中是计算效率。


微信图片_20211224151930.jpg


Google工程师利用芯片版面规划数据集,训练了一种强化的机器学习算法,其中有10000个不同质量的芯片版面规划图,一些规划是随机生成的。每个规划图所需电线长度和功耗有所不同。然后,训练后的算法利用这些数据来区分版面规划的好坏,并相应生成新的设计。

 

AI在棋类游戏中挑战人类时,并不一定像人类那样思考,而且经常会对熟悉问题提出意想不到的解决方案。例如,DeepMind的AlphaGo与围棋冠军李世石对弈时就是如此,AI看似不合逻辑的一步棋却最终取得了胜利。

 

Google的芯片设计算法虽然没有像下棋那么戏剧性,最后的结果却也与人工设计大不同:AI设计的芯片版面中,各个子系统并没有整齐排列,看起来几乎是随机分散在硅片上;而人工设计的芯片版面则显得规整得多。


微信图片_20211224151953.jpg


左为人工设计,右为AI设计,经过模糊处理


针对Google的这篇论文,《自然》杂志的评论称,这是一项重要的成就,也许可以抵消“摩尔定律”的终结。大家也都知道,随着芯片制程工艺逼近3纳米乃至1纳米,必然会遭遇物理瓶颈。这个时候,如果通过AI设计,不需要那么先进的制程工艺,仍然能够提升芯片的性能和效率,倒也不失为延长“摩尔定律”的一种新的尝试。

 

此外,另一家芯片巨头NVIDIA 同样不甘落后;要知道,NVIDIA的主力产品GPU,早就已经是目前最主流的用于AI的芯片。在去年9月24日出版的《IEEE Micro》上,NVIDIA的研究人员也发表了一篇文章,详细介绍了如何用机器学习来加速芯片设计,特别是用来设计自家的GPU。


微信图片_20211224152040.jpg


由此可见,未来,AI将在芯片设计中发挥越来越重要的作用。各位朋友,你认为呢?

相关文章
|
8月前
|
传感器 机器学习/深度学习 算法
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
|
8月前
|
人工智能 芯片 异构计算
英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?
随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。
|
1月前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
75 12
|
29天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
2月前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
50 0
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
48 0
|
3月前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
3月前
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
3月前
|
数据采集 人工智能 搜索推荐
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。
|
4月前
|
机器学习/深度学习 人工智能 自动驾驶
【通义】AI视界|马斯克:特斯拉计划2025年末批量装备AI训练芯片Dojo2
本文精选了24小时内的重要AI新闻,包括特斯拉计划2025年批量装备Dojo 2芯片、英伟达股价大涨、谷歌联合创始人积极参与AI项目、中科院女工程师开源AI模型保护女性,以及快手旗下可灵AI与蓝色光标达成战略合作。更多内容敬请访问通义官网体验。