登上Nature的AI芯片设计屡遭质疑,谷歌发文反击,Jeff Dean:质疑者连预训练都没做

简介: 2020年,谷歌的AlphaChip在Nature上发表并开源,其深度强化学习方法能生成超越人类水平的芯片布局,引发AI在芯片设计领域的研究热潮。然而,ISPD 2023的一篇论文对其性能提出质疑,指出未按Nature论文方法运行、计算资源不足等问题。谷歌DeepMind团队回应,强调AlphaChip已在多代TPU和Alphabet芯片中成功应用,并批驳ISPD论文的主要错误。此外,针对Igor Markov的“元分析”和无根据猜测,谷歌提供了详细的时间线和非机密部署情况,澄清事实并重申AlphaChip的开放性和透明度。

2020年,谷歌的深度强化学习方法AlphaChip在Nature杂志上发表,并开源在GitHub上。这一方法能够生成超越人类水平的芯片布局,引发了AI在芯片设计领域研究的热潮。AlphaChip已被广泛应用于Alphabet公司内部以及外部芯片制造商的最先进芯片中。然而,近期有一篇未经过同行评审的论文在ISPD 2023会议上对AlphaChip的性能提出了质疑。

这篇论文的作者并未按照Nature论文中描述的方法运行AlphaChip,例如他们没有进行预训练(这剥夺了AlphaChip从先前经验中学习的能力),使用了显著更少的计算资源(20倍更少的RL经验收集器和一半的GPU数量),没有进行到收敛的训练(这是机器学习的标准做法),并且在不具代表性的现代芯片测试用例上进行了评估。

针对这些质疑,谷歌DeepMind的Azalia Mirhoseini和Jeff Dean等人发表了一篇名为《That Chip Has Sailed: A Critique of Unfounded Skepticism Around AI for Chip Design》的论文,对这些质疑进行了回应。

首先,他们指出AlphaChip在Nature发表后,已经在三个TPU世代、数据中心CPU(Axion)以及其他Alphabet芯片中生成了超越人类水平的芯片布局。此外,AlphaChip还被外部学术界和芯片制造商扩展到芯片设计的新领域。

然后,他们详细分析了ISPD 2023论文中的主要错误。首先,该论文没有进行预训练,而预训练是AlphaChip能够从先前经验中学习的关键优势。其次,他们使用了显著更少的计算资源,这可能会损害性能或需要更长的时间才能达到相同的(或更差的)性能。第三,他们没有进行到收敛的训练,而训练到收敛是机器学习的标准做法,不这样做会损害性能。最后,他们在不具代表性的现代芯片测试用例上进行了评估,这些测试用例在物理设计方面与Nature论文中使用的测试用例存在显著差异。

除了ISPD 2023论文,Igor Markov还发表了一篇所谓的“元分析”,对三篇论文进行了评论:Nature论文、ISPD论文和他自己的未发表论文(尽管他没有披露自己是这篇论文的合著者)。然而,这篇“元分析”并没有提供任何原始数据,并且存在许多问题,例如它没有描述任何形式的所谓的“樱桃挑选”,也没有提供任何证据。

此外,Markov还提出了一个关于谷歌内部“吹哨人”的担忧,但这个“吹哨人”向谷歌调查人员承认,他没有理由相信存在欺诈行为。Markov在他的“元分析”中还进行了毫无根据的猜测,暗示谷歌可能只是在“自我测试”AlphaChip方法,允许使用性能较差的AlphaChip布局来支持他们的研究论文。然而,这种说法是荒谬的,因为谷歌更关心的是TPU设计的效率,这是一个价值数十亿美元的项目,对谷歌的云和AI计划至关重要,而不是一篇研究论文。

为了澄清事实,谷歌提供了一个事件时间线,包括非机密的部署情况。他们指出,在Nature论文发表之前,AlphaChip布局已经在TPU v5e中进行了流片。此外,在Nature论文发表后,AlphaChip布局在TPU v5p和最新的公共TPU(Trillium)中进行了流片。谷歌还指出,在2022年,一个独立的谷歌委员会拒绝了Markov等人的论文,因为数据不支持其主张和结论。

最后,谷歌强调了AlphaChip的开放性,他们已经开源了一个软件存储库,以完全重现Nature论文中描述的方法。他们还指出,ISPD 2023论文的作者没有必要“逆向工程”他们提供的两个二进制文件(用于性能优化的代理成本函数和力导向标准单元布局器),因为这些文件已经在他们的开源存储库中提供了。

论文地址:https://arxiv.org/pdf/2411.10053

目录
相关文章
|
5月前
|
人工智能 开发框架 决策智能
谷歌开源多智能体开发框架 Agent Development Kit:百行代码构建复杂AI代理,覆盖整个开发周期!
谷歌开源的Agent Development Kit(ADK)是首个代码优先的Python工具包,通过多智能体架构和灵活编排系统,支持开发者在百行代码内构建复杂AI代理,提供预置工具库与动态工作流定义能力。
782 3
谷歌开源多智能体开发框架 Agent Development Kit:百行代码构建复杂AI代理,覆盖整个开发周期!
|
6月前
|
人工智能 自然语言处理
TxGemma:谷歌DeepMind革命药物研发!270亿参数AI药理学家24小时在线
谷歌推出专为药物研发设计的TxGemma大模型,具备药物特性预测、生物文献筛选、多步推理等核心能力,提供20亿至270亿参数版本,显著提升治疗开发效率。
212 7
TxGemma:谷歌DeepMind革命药物研发!270亿参数AI药理学家24小时在线
|
6月前
|
人工智能 vr&ar 图形学
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景
牛津大学与谷歌联合推出的Bolt3D技术,能在单个GPU上仅用6.25秒从单张或多张图像生成高质量3D场景,基于高斯溅射和几何多视角扩散模型,为游戏、VR/AR等领域带来革命性突破。
235 2
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景
|
5月前
|
存储 人工智能 JSON
AI智能体内战终结者!A2A:谷歌开源的首个标准智能体交互协议,让AI用同一种“语言”交流
A2A是谷歌推出的首个标准化智能体交互协议,通过统一通信规范实现不同框架AI智能体的安全协作,支持多模态交互和长时任务管理,已有50多家企业加入生态。
435 0
AI智能体内战终结者!A2A:谷歌开源的首个标准智能体交互协议,让AI用同一种“语言”交流
|
5月前
|
人工智能 自然语言处理 测试技术
谷歌AI 多模态 Gemini 2.5 Pro的国内使用教程
在人工智能(AI)的星辰大海中,谷歌再次投下一枚重磅炸弹 💣!他们倾注心血打造的智慧结晶
2851 0
|
7月前
|
人工智能 算法 API
重磅:谷歌AI Gemini 2.0 Pro/Flash已来,国内用户怎么使用?
当人工智能的浪潮席卷全球,谷歌再次站在了时代的潮头。Gemini 2.0,这个名字如今已成为 AI 领域最耀眼的明星。它不仅仅是一个模型的升级,更代表着一场技术革命的开端。2024 年末,Gemini 2.0 Flash 以其疾风骤雨般的速度震撼登场,紧接着,2025 年初,Gemini 2.0 Pro 系列的发布,则将这场革命推向了高潮。谷歌正式宣告,我们已步入 Gemini 2.0 时代!
619 15
|
7月前
|
人工智能 芯片 内存技术
谷歌Deepmind的CEO称Deepseek的AI模型是中国“最好的作品”,但炒作“夸大其词”
谷歌Deepmind的CEO称Deepseek的AI模型是中国“最好的作品”,但炒作“夸大其词”
|
7月前
|
人工智能 算法 API
谷歌AI Gemini 2.5 pro国内使用教程, 2025最新版!
在 2025 年 2 月初,谷歌又推出了 Gemini 2.0 Pro 系列模型,进一步巩固了其在 AI 领域的领先地位,同时也正式向外界宣告,我们进入了 Gemini 2.0 时代
3337 5
|
7月前
|
人工智能 5G 数据库
D1net阅闻|谷歌被曝正使用Anthropic的Claude模型来改进其Gemini AI
D1net阅闻|谷歌被曝正使用Anthropic的Claude模型来改进其Gemini AI
|
7月前
|
机器学习/深度学习 自然语言处理 算法
生成式 AI 大语言模型(LLMs)核心算法及源码解析:预训练篇
生成式 AI 大语言模型(LLMs)核心算法及源码解析:预训练篇
1214 0

热门文章

最新文章