一年18篇论文 谷歌Quantum AI团队2021年度总结

简介: 一年18篇论文 谷歌Quantum AI团队2021年度总结

大家好,我是对白。


量子计算一直被认为是下一代工业革命的引擎,各个国家、科技公司都在量子计算及相关软件上加足了马力进行研发。


前段时间,谷歌的量子AI团队也对自己的2021进行了总结。


c05655b0e4d0bbd3d8e8099054e98bfc.png


研究人员表示,尽管量子计算仍然是一个有挑战性的课题,但他们在过去的一年中总共发表了18篇论文,取得了丰硕的成果,尤其是在构建完全纠错的量子计算机(fully error-corrected quantum computer)方面取得了重大进展。


并且Quantum AI团队已经开始着手研发下一个硬件里程碑:纠错量子比特原型机(error-corrected quantum bit prototype)。


硬件革新




想要进行量子计算,一台量子计算机是必不可少的,所以硬件的开发也是重中之重。


今年5月,谷歌官宣了位于圣芭芭拉的量子AI园区(Quantum AI Campus),里面有数据中心、芯片制造设施、研究实验室和庞大的办公区域,全都是为了打造和运行量子计算机服务的。


当时Google的量子人工智能团队的首席工程师Erik Lucero就给自己设定了一个小目标:未来十年内构建一台纠错量子计算机。


他们也希望利用在研发硬件过程中获取的知识和经验,来开发具有变革性(transformational)的量子计算机应用程序。


谷歌提出在2029年交付量子计算机,主要因为谷歌在量子硬件开发上还真有点东西,大概可以分为下面三点:


1. 谷歌曾经证明了量子计算机在特定任务中的性能优于当今的经典超级计算机。


2019年10月23日,谷歌声称在他们的量子芯片Sycamore上大约200秒时间运行的任务,当时地表最强的超级计算机Summit需10000年才能完成对应的任务。该成果当时发表在了顶级刊物《自然》杂志上。一时间全球哗然,业界普遍认为这是量子计算发展的开辟式里程碑,甚至比作莱特兄弟在基蒂霍克的首次航空飞行。


2d82dc97833f2a1c52b82f9c662f4e84.png


但量子霸权(Quantum supremacy)一词在却饱受争议,因为谷歌声称的一万年实际上也有水分,后来研究人员将该任务的运行时间逐渐降低到5天,并没有想象中的碾压优势,所以目前业界更多采用量子优越性来表述。


2. 谷歌有能力建立一个纠错量子位(error-corrected qubit)的原型机。. 谷歌有能力建立一个纠错量子位(error-corrected qubit)的原型机。


量子计算机和经典计算机一样,很容易出现由底层物理系统「噪声」引起的错误。如何处理这些错误是一项艰巨的挑战。普通计算机可以通过简单地复制比特,并使用这些副本来验证正确状态进而防止错误。但量子计算机无法做到这一点,因为量子力学禁止将一个量子比特的未知状态复制给其他量子比特。


谷歌物理学家Julian Kelly研究了量子处理器「悬铃木」的量子纠错能力,其中悬铃木包含一个54超导量子比特的二维阵列。


研究人员运行了两种量子纠错码,一种是最多由21个量子比特组成的一维链重复码,用来测试错误抑制能力;另一种是由7个量子比特组成的二维表面码,作为与更大码的设置相容性的原理验证实验。


c7f5137c9f8e73696e5e828fa8eac00d.png


研究表明,将重复码基于的量子比特数量从5个提高到21个,对逻辑错误的抑制实现了最多100倍的指数级增长。这种错误抑制能力在50次纠错实验中均表现稳定。


但Kelly表示,尽管如此,该团队只是在完全纠正错误的途中。他们未能同时解决两种影响量子比特的错误:比特翻转和相位翻转。


目前谷歌的目标是通过在多个物理量子位上冗余编码量子信息来实现量子纠错的原语,证明这种冗余会导致使用单个物理量子位的改进,这也是目前谷歌努力的方向。


3. 谷歌有能力构建一个任意长时间都没有错误的逻辑量子位(logical qubit)。


逻辑量子位跨多个物理量子位对信息进行冗余编码,并且能够减少噪声对整体量子计算的影响。将几千个逻辑量子位放在一起将使谷歌能够实现量子计算机在各种应用中的全部潜力。


f5bec504e55b0edb4971c8be85c073f5.png


纠错量子比特进展





目前来说,各式各样的量子计算机与未来完全纠错的量子计算机之间的差距仍然是巨大的。


2021年,谷歌一直致力于构建一个原型逻辑量子位(prototype logical qubit),并将其误差降低到小于谷歌芯片上物理量子位的误差,为量子计算机的发展向前推进一大步。


想要完成这项工作需要改进整个量子计算堆栈(quantum computing stack),所以谷歌制造了一个具有更佳量子位的芯片,改进了封装芯片的方法,从而更好地将它们与谷歌的控制电子设备连接起来,并开发了同时校准具有几十个量子位的大型芯片的技术。


这些改进最后产生了两个关键性的成果。


首先,谷歌现在能够以高保真度重置谷歌的量子位,允许谷歌在量子计算中重用量子位。


其次,谷歌实现了中间电路测量(mid-circuit measurements),使谷歌能够跟踪量子电路内的计算。


在谷歌最近使用重复代码(repetition codes)和相位翻转错误进行指数抑制( exponential suppression of bit and phase flip errors)的演示中,通过同时使用高保真复位(high-fidelity resets)和中间电路测量,在代码量从 5 量子位增长到 21 量子位的情况下,错误降低了100 倍。


d76af36ef625eb0c4187558431e9ee90.png


重复代码是一种常用的纠错工具,使得量子计算机能够在资源(更多量子比特)和性能(更低错误)之间进行权衡,这也是谷歌研发未来硬件的核心指导思想。


2021,谷歌还研究了随着一维代码(1-dimensional code)包含的量子位数量的增加,错误是如何减少的。谷歌目前正在进行实验,将这些结果扩展到二维表面代码(2-dimensional surface codes),可以更加全面地纠正错误。


3b557c19edb94271420049452b4e870e.png


量子计算的应用



除了构建量子硬件,谷歌的团队还在现实世界中寻找量子计算具有明显优势的应用场景。


谷歌与在学术界和工业界的从业者一起探索量子计算机可以提供显著计算加速的领域,预期实现的效果也很有现实意义:纠错量子计算机应该至少取得二次加速(quadratic speedups)才算有意义的改进。


谷歌与加州理工学院的一项合作研究的结果表明,在某些条件下,量子计算机可以通过比传统要求少得多的实验来了解物理系统(physical systems)。这种新提出的方法使用 40 个量子位和 1300 个量子操作进行了实验验证,即使使用谷歌目前带噪声的量子处理器(noisy quantum operations),也证明了巨大的量子优势,同时为量子机器学习和量子传感方面的工作铺平了道。


谷歌与哥伦比亚大学的研究人员合作,将最强大的化学模拟技术量子蒙特卡罗与量子计算相结合,成功超越了以前的方法,目前已经成为基态多电子计算(ground state many-electron calculations)的一种有前景的量子方法,对于创造新材料和理解材料的化学性质至关重要。


1c03c115a7178580e7c4cf7f40ec5b2f.png


即使在具有多达 16 个量子位的计算设备存在噪声的情况下,谷歌也能够在不牺牲测量精度的情况下将先前计算的大小增加一倍。


谷歌还继续研究了如何使用量子计算机来模拟量子物理现象。去年11月30日,谷歌在《自然》杂志上发表了一篇文章,表示他们已经通过Sycamore量子计算硬件创建了时间晶体(time crystal)。


91ed2b43316b850d78e9a11f2f23e2d3.png


这对理论物理学家来说是一个伟大的时刻,时间晶体存在的可能性,他们已经思考了近一个世纪。


在其他工作中,谷歌还与 NASA 艾姆斯研究中心的合作者共同完成了在谷歌的一台量子计算机上通过实验测量无序相关性来探索量子混沌动力学(measuring out-of-time-ordered correlations)。


94b322eeadf9beb24f6e8ae5a67d8090.png


与慕尼黑技术大学的合作者使用浅量子电路(shallow quantum circuits)创建其本征态(eigenstates),通过实验测量复曲面码哈密顿量基态的纠缠熵(entanglement entropy of the ground state of the Toric code Hamiltonian)。


abbde489185a519ae8170e62ca5602ad.png


谷歌表示,2021年一些最有影响力的研究成果很多都是跟各个研究机构的合作者共同完成的,其中一些也启发了谷歌的下一步研究方向。


2022年,谷歌Quantum AI将继续和其他合作者共同探索和实现有意义的量子应用、量子化学和多体量子物理学。


参考资料:


https://blog.google/technology/research/2021-year-review-google-quantum-ai/


相关文章
|
2天前
|
人工智能 自然语言处理 算法
谷歌DeepMind研究再登Nature封面,隐形水印让AI无所遁形
近日,谷歌DeepMind团队在《自然》期刊上发表了一项名为SynthID-Text的研究成果。该方法通过引入隐形水印,为大型语言模型(LLM)生成的文本添加统计签名,从而实现AI生成文本的准确识别和追踪。SynthID-Text采用独特的Tournament采样算法,在保持文本质量的同时嵌入水印,显著提高了水印检测率。实验结果显示,该方法在多个LLM中表现出色,具有广泛的应用潜力。论文地址:https://www.nature.com/articles/s41586-024-08025-4。
40 26
|
28天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
148 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
1月前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
176 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
14天前
|
传感器 人工智能 安全
杨笛一团队:一个弹窗,就能把AI智能体操控电脑整懵了
杨笛一团队最新研究揭示,简单弹窗可操控AI智能体,使其在执行任务时陷入混乱。实验显示,在OSWorld和VisualWebArena环境中,攻击成功率分别达86%和60%以上。该发现强调了AI安全的重要性,提醒我们在享受AI便利的同时需警惕潜在风险。研究指出,弹窗设计中的四个关键要素(注意力钩子、指令、信息横幅、ALT描述符)对攻击成功至关重要,并建议通过安全训练、人类监督和环境感知提升防御能力。
42 13
|
27天前
|
人工智能 自然语言处理 API
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
谷歌推出的Multimodal Live API是一个支持多模态交互、低延迟实时互动的AI接口,能够处理文本、音频和视频输入,提供自然流畅的对话体验,适用于多种应用场景。
75 3
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
|
1月前
|
人工智能
带上团队一起来做 AI 编程实践丨通义灵码联合TGO鲲鹏会开启 AI 大课
带上团队一起来做 AI 编程实践丨通义灵码联合TGO鲲鹏会开启 AI 大课
|
1月前
|
人工智能 自然语言处理 数据挖掘
田渊栋团队新作祭出Agent-as-a-Judge!AI智能体自我审判,成本暴跌97%
田渊栋团队提出Agent-as-a-Judge框架,利用智能体自身评估其他智能体的性能,不仅关注最终结果,还能提供中间反馈,更全面准确地反映智能体的真实能力。该框架在DevAI基准测试中表现出色,成本效益显著,为智能体的自我改进提供了有力支持。
49 7
|
1月前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
32 5
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
42 2
|
2月前
|
机器学习/深度学习 缓存 芯片
【AI系统】谷歌 TPU v1-脉动阵列
本文详细分析了谷歌TPU v1的架构与设计,重点介绍了其核心组件如DDR3 DRAM、矩阵乘法单元(MXU)、累加器及控制指令单元,特别是MXU中脉动阵列的工作机制。通过对比TPU v1与CPU、GPU在服务器环境中的表现,展示了TPU v1在提升神经网络计算吞吐量方面的显著优势,尤其是在低延迟和高能效方面。
60 3