一年18篇论文 谷歌Quantum AI团队2021年度总结

简介: 一年18篇论文 谷歌Quantum AI团队2021年度总结

大家好,我是对白。


量子计算一直被认为是下一代工业革命的引擎,各个国家、科技公司都在量子计算及相关软件上加足了马力进行研发。


前段时间,谷歌的量子AI团队也对自己的2021进行了总结。


c05655b0e4d0bbd3d8e8099054e98bfc.png


研究人员表示,尽管量子计算仍然是一个有挑战性的课题,但他们在过去的一年中总共发表了18篇论文,取得了丰硕的成果,尤其是在构建完全纠错的量子计算机(fully error-corrected quantum computer)方面取得了重大进展。


并且Quantum AI团队已经开始着手研发下一个硬件里程碑:纠错量子比特原型机(error-corrected quantum bit prototype)。


硬件革新




想要进行量子计算,一台量子计算机是必不可少的,所以硬件的开发也是重中之重。


今年5月,谷歌官宣了位于圣芭芭拉的量子AI园区(Quantum AI Campus),里面有数据中心、芯片制造设施、研究实验室和庞大的办公区域,全都是为了打造和运行量子计算机服务的。


当时Google的量子人工智能团队的首席工程师Erik Lucero就给自己设定了一个小目标:未来十年内构建一台纠错量子计算机。


他们也希望利用在研发硬件过程中获取的知识和经验,来开发具有变革性(transformational)的量子计算机应用程序。


谷歌提出在2029年交付量子计算机,主要因为谷歌在量子硬件开发上还真有点东西,大概可以分为下面三点:


1. 谷歌曾经证明了量子计算机在特定任务中的性能优于当今的经典超级计算机。


2019年10月23日,谷歌声称在他们的量子芯片Sycamore上大约200秒时间运行的任务,当时地表最强的超级计算机Summit需10000年才能完成对应的任务。该成果当时发表在了顶级刊物《自然》杂志上。一时间全球哗然,业界普遍认为这是量子计算发展的开辟式里程碑,甚至比作莱特兄弟在基蒂霍克的首次航空飞行。


2d82dc97833f2a1c52b82f9c662f4e84.png


但量子霸权(Quantum supremacy)一词在却饱受争议,因为谷歌声称的一万年实际上也有水分,后来研究人员将该任务的运行时间逐渐降低到5天,并没有想象中的碾压优势,所以目前业界更多采用量子优越性来表述。


2. 谷歌有能力建立一个纠错量子位(error-corrected qubit)的原型机。. 谷歌有能力建立一个纠错量子位(error-corrected qubit)的原型机。


量子计算机和经典计算机一样,很容易出现由底层物理系统「噪声」引起的错误。如何处理这些错误是一项艰巨的挑战。普通计算机可以通过简单地复制比特,并使用这些副本来验证正确状态进而防止错误。但量子计算机无法做到这一点,因为量子力学禁止将一个量子比特的未知状态复制给其他量子比特。


谷歌物理学家Julian Kelly研究了量子处理器「悬铃木」的量子纠错能力,其中悬铃木包含一个54超导量子比特的二维阵列。


研究人员运行了两种量子纠错码,一种是最多由21个量子比特组成的一维链重复码,用来测试错误抑制能力;另一种是由7个量子比特组成的二维表面码,作为与更大码的设置相容性的原理验证实验。


c7f5137c9f8e73696e5e828fa8eac00d.png


研究表明,将重复码基于的量子比特数量从5个提高到21个,对逻辑错误的抑制实现了最多100倍的指数级增长。这种错误抑制能力在50次纠错实验中均表现稳定。


但Kelly表示,尽管如此,该团队只是在完全纠正错误的途中。他们未能同时解决两种影响量子比特的错误:比特翻转和相位翻转。


目前谷歌的目标是通过在多个物理量子位上冗余编码量子信息来实现量子纠错的原语,证明这种冗余会导致使用单个物理量子位的改进,这也是目前谷歌努力的方向。


3. 谷歌有能力构建一个任意长时间都没有错误的逻辑量子位(logical qubit)。


逻辑量子位跨多个物理量子位对信息进行冗余编码,并且能够减少噪声对整体量子计算的影响。将几千个逻辑量子位放在一起将使谷歌能够实现量子计算机在各种应用中的全部潜力。


f5bec504e55b0edb4971c8be85c073f5.png


纠错量子比特进展





目前来说,各式各样的量子计算机与未来完全纠错的量子计算机之间的差距仍然是巨大的。


2021年,谷歌一直致力于构建一个原型逻辑量子位(prototype logical qubit),并将其误差降低到小于谷歌芯片上物理量子位的误差,为量子计算机的发展向前推进一大步。


想要完成这项工作需要改进整个量子计算堆栈(quantum computing stack),所以谷歌制造了一个具有更佳量子位的芯片,改进了封装芯片的方法,从而更好地将它们与谷歌的控制电子设备连接起来,并开发了同时校准具有几十个量子位的大型芯片的技术。


这些改进最后产生了两个关键性的成果。


首先,谷歌现在能够以高保真度重置谷歌的量子位,允许谷歌在量子计算中重用量子位。


其次,谷歌实现了中间电路测量(mid-circuit measurements),使谷歌能够跟踪量子电路内的计算。


在谷歌最近使用重复代码(repetition codes)和相位翻转错误进行指数抑制( exponential suppression of bit and phase flip errors)的演示中,通过同时使用高保真复位(high-fidelity resets)和中间电路测量,在代码量从 5 量子位增长到 21 量子位的情况下,错误降低了100 倍。


d76af36ef625eb0c4187558431e9ee90.png


重复代码是一种常用的纠错工具,使得量子计算机能够在资源(更多量子比特)和性能(更低错误)之间进行权衡,这也是谷歌研发未来硬件的核心指导思想。


2021,谷歌还研究了随着一维代码(1-dimensional code)包含的量子位数量的增加,错误是如何减少的。谷歌目前正在进行实验,将这些结果扩展到二维表面代码(2-dimensional surface codes),可以更加全面地纠正错误。


3b557c19edb94271420049452b4e870e.png


量子计算的应用



除了构建量子硬件,谷歌的团队还在现实世界中寻找量子计算具有明显优势的应用场景。


谷歌与在学术界和工业界的从业者一起探索量子计算机可以提供显著计算加速的领域,预期实现的效果也很有现实意义:纠错量子计算机应该至少取得二次加速(quadratic speedups)才算有意义的改进。


谷歌与加州理工学院的一项合作研究的结果表明,在某些条件下,量子计算机可以通过比传统要求少得多的实验来了解物理系统(physical systems)。这种新提出的方法使用 40 个量子位和 1300 个量子操作进行了实验验证,即使使用谷歌目前带噪声的量子处理器(noisy quantum operations),也证明了巨大的量子优势,同时为量子机器学习和量子传感方面的工作铺平了道。


谷歌与哥伦比亚大学的研究人员合作,将最强大的化学模拟技术量子蒙特卡罗与量子计算相结合,成功超越了以前的方法,目前已经成为基态多电子计算(ground state many-electron calculations)的一种有前景的量子方法,对于创造新材料和理解材料的化学性质至关重要。


1c03c115a7178580e7c4cf7f40ec5b2f.png


即使在具有多达 16 个量子位的计算设备存在噪声的情况下,谷歌也能够在不牺牲测量精度的情况下将先前计算的大小增加一倍。


谷歌还继续研究了如何使用量子计算机来模拟量子物理现象。去年11月30日,谷歌在《自然》杂志上发表了一篇文章,表示他们已经通过Sycamore量子计算硬件创建了时间晶体(time crystal)。


91ed2b43316b850d78e9a11f2f23e2d3.png


这对理论物理学家来说是一个伟大的时刻,时间晶体存在的可能性,他们已经思考了近一个世纪。


在其他工作中,谷歌还与 NASA 艾姆斯研究中心的合作者共同完成了在谷歌的一台量子计算机上通过实验测量无序相关性来探索量子混沌动力学(measuring out-of-time-ordered correlations)。


94b322eeadf9beb24f6e8ae5a67d8090.png


与慕尼黑技术大学的合作者使用浅量子电路(shallow quantum circuits)创建其本征态(eigenstates),通过实验测量复曲面码哈密顿量基态的纠缠熵(entanglement entropy of the ground state of the Toric code Hamiltonian)。


abbde489185a519ae8170e62ca5602ad.png


谷歌表示,2021年一些最有影响力的研究成果很多都是跟各个研究机构的合作者共同完成的,其中一些也启发了谷歌的下一步研究方向。


2022年,谷歌Quantum AI将继续和其他合作者共同探索和实现有意义的量子应用、量子化学和多体量子物理学。


参考资料:


https://blog.google/technology/research/2021-year-review-google-quantum-ai/


相关文章
|
1月前
|
人工智能 文字识别 监控
|
1月前
|
人工智能 物联网 调度
边缘大型AI模型:协作部署与物联网应用——论文阅读
论文《边缘大型AI模型:协作部署与物联网应用》系统探讨了将大模型(LAM)部署于边缘网络以赋能物联网的前沿框架。针对传统云端部署高延迟、隐私差的问题,提出“边缘LAM”新范式,通过联邦微调、专家混合与思维链推理等技术,实现低延迟、高隐私的分布式智能。
655 6
边缘大型AI模型:协作部署与物联网应用——论文阅读
|
2月前
|
机器学习/深度学习 人工智能 资源调度
智能家居环境中的AI决策解释:实现以人为中心的可解释性——论文阅读
本文探讨智能家居中AI决策的可解释性,提出以人为中心的XAI框架。通过SHAP、DeepLIFT等技术提升模型透明度,结合用户认知与需求,构建三层解释体系,增强信任与交互效能。
235 19
智能家居环境中的AI决策解释:实现以人为中心的可解释性——论文阅读
|
2月前
|
人工智能 IDE 开发工具
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
CodeGPT是一款基于AI的编程辅助插件,支持代码生成、优化、错误分析和单元测试,兼容多种大模型如Gemini 2.0和Qwen2.5 Coder。免费开放,适配PyCharm等IDE,助力开发者提升效率,新手友好,老手提效利器。(238字)
462 1
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
|
2月前
|
机器学习/深度学习 资源调度 算法框架/工具
AI-ANNE: 将神经网络迁移到微控制器的深度探索——论文阅读
AI-ANNE框架探索将深度学习模型迁移至微控制器的可行路径,基于MicroPython在Raspberry Pi Pico上实现神经网络核心组件,支持本地化推理,推动TinyML在边缘设备中的应用。
196 10
|
2月前
|
人工智能 算法 开发者
2025年高教社杯E题——AI 辅助智能体测全国大学生数学建模(思路、代码、论文)
2025年高教社杯E题——AI 辅助智能体测全国大学生数学建模(思路、代码、论文)
436 1
|
机器学习/深度学习 存储 人工智能
一周AI最火论文 | 给你的AI模型一张名片,谷歌发布MCT
一周AI最火论文 | 给你的AI模型一张名片,谷歌发布MCT
426 0
|
1月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
413 29