AI设计芯片

简介: 手机SoC芯片,堪称世界上最复杂的芯片之一,有多复杂?老冀给你个数字:iPhone 12搭载的A14处理器,竟然有118亿个晶体管!

手机SoC芯片,堪称世界上最复杂的芯片之一,有多复杂?老冀给你个数字:iPhone 12搭载的A14处理器,竟然有118亿个晶体管!

微信图片_20211224151328.jpg

要设计如此复杂的芯片,必须使用EDA软件,先由工程师完成逻辑设计,然后进行布局走线设计,以确定每个晶体管的位置,以及它们之间的连接。这个工程量非常浩大,尤其是布局走线设计加上测试,通常需要好几个工程师20 到30 周才能完成。

 

还得是有经验的工程师,他们有一种本能的理解,知道不同的设计方案会给芯片带来什么样的后果,能够通过不断地试错,优化设计方案,最终达到性能、功耗、面积三大目标的平衡。


微信图片_20211224151851.jpg


工程师的这种优化模式,跟AI里的强化学习非常类似。由此,全球最大的EDA软件公司——新思发布了DSO.ai,在芯片布局走线的时候,通过强化学习自动搜索设计空间,寻求最佳解决方案。

 

结果非常理想,采用DSO.ai之后,芯片频率提升了18%,功耗降低了21%,6个月的工程时间缩短到了1个月。

 

也正是看到了AI给芯片设计带来的好处,三星已经准备在下一代Exynos处理器的设计中采用AI。


微信图片_20211224151911.jpg


除了三星之外,其他公司也在尝试用AI来进行芯片设计。前不久,Google的两位研究科学家阿扎莉亚·米尔霍塞尼Azalia Mirhoseini和安娜·戈尔迪Anna Goldie在《自然》杂志上发表了一篇论文。该论文披露,他们已经用AI设计自家的TPU芯片。

 

GoogleAI算法被称为芯片版面规划”,从机器学习的角度来看,完全可以像下棋那样解决这个问题。芯片版面规划与下棋类似,只不过用的不是棋盘,而是硅片。棋盘上的棋子变成了CPU和GPU等芯片子系统器件接下来的任务就是让机器学习系统找到获胜条件围棋比赛是围出更大的空,而在芯片设计中是计算效率。


微信图片_20211224151930.jpg


Google工程师利用芯片版面规划数据集,训练了一种强化的机器学习算法,其中有10000个不同质量的芯片版面规划图,一些规划是随机生成的。每个规划图所需电线长度和功耗有所不同。然后,训练后的算法利用这些数据来区分版面规划的好坏,并相应生成新的设计。

 

AI在棋类游戏中挑战人类时,并不一定像人类那样思考,而且经常会对熟悉问题提出意想不到的解决方案。例如,DeepMind的AlphaGo与围棋冠军李世石对弈时就是如此,AI看似不合逻辑的一步棋却最终取得了胜利。

 

Google的芯片设计算法虽然没有像下棋那么戏剧性,最后的结果却也与人工设计大不同:AI设计的芯片版面中,各个子系统并没有整齐排列,看起来几乎是随机分散在硅片上;而人工设计的芯片版面则显得规整得多。


微信图片_20211224151953.jpg


左为人工设计,右为AI设计,经过模糊处理


针对Google的这篇论文,《自然》杂志的评论称,这是一项重要的成就,也许可以抵消“摩尔定律”的终结。大家也都知道,随着芯片制程工艺逼近3纳米乃至1纳米,必然会遭遇物理瓶颈。这个时候,如果通过AI设计,不需要那么先进的制程工艺,仍然能够提升芯片的性能和效率,倒也不失为延长“摩尔定律”的一种新的尝试。

 

此外,另一家芯片巨头NVIDIA 同样不甘落后;要知道,NVIDIA的主力产品GPU,早就已经是目前最主流的用于AI的芯片。在去年9月24日出版的《IEEE Micro》上,NVIDIA的研究人员也发表了一篇文章,详细介绍了如何用机器学习来加速芯片设计,特别是用来设计自家的GPU。


微信图片_20211224152040.jpg


由此可见,未来,AI将在芯片设计中发挥越来越重要的作用。各位朋友,你认为呢?

相关文章
|
5月前
|
传感器 机器学习/深度学习 算法
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
|
5月前
|
人工智能 芯片 异构计算
英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?
随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。
|
2天前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
1月前
|
机器学习/深度学习 人工智能 自动驾驶
【通义】AI视界|马斯克:特斯拉计划2025年末批量装备AI训练芯片Dojo2
本文精选了24小时内的重要AI新闻,包括特斯拉计划2025年批量装备Dojo 2芯片、英伟达股价大涨、谷歌联合创始人积极参与AI项目、中科院女工程师开源AI模型保护女性,以及快手旗下可灵AI与蓝色光标达成战略合作。更多内容敬请访问通义官网体验。
|
5月前
|
存储 人工智能 芯片
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
清华首款AI光芯片登上Science,全球首创架构迈向AGI
【4月更文挑战第16天】清华大学研究团队开发出大规模光子芯片“太极”,在《科学》杂志发表,该芯片基于创新的光子计算架构,实现百万神经元级别的ONN,能效比高达160 TOPS/W。实验中,太极芯片成功执行1000类别分类任务,提升AI内容生成质量,为AGI发展开辟新路径。然而,光子集成电路的制造成本高、技术成熟度不足及软件支持限制了其广泛应用。
159 5
清华首款AI光芯片登上Science,全球首创架构迈向AGI
|
5月前
|
存储 人工智能 新制造
探索AI时代的刻蚀技术:解锁未来芯片的秘密
探索AI时代的刻蚀技术:解锁未来芯片的秘密
174 7
|
5月前
|
人工智能 算法 芯片
全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
【2月更文挑战第24天】全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
105 1
全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
|
5月前
|
人工智能 机器人 芯片
英伟达最强 AI 芯片、人形机器人模型炸场!黄仁勋放言英语将成最强大编程语言
在2024年的GTC大会上,英伟达创始人黄仁勋揭幕了新一代AI芯片Blackwell,号称是史上最强AI芯片,目标是推动AI领域的重大进步。
|
5月前
|
人工智能 自然语言处理 搜索推荐
通义大模型落地手机芯片!离线环境可流畅运行多轮AI对话
通义大模型落地手机芯片!离线环境可流畅运行多轮AI对话
160 0