量子计算机的前世今生

简介:

640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy
D-WAVE量子计算机

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

编译 樟君

我们所使用的计算机正变得越来越小巧,其功能却是越来越强大。这一刻你握在手里看这篇文章的手机,它的计算能力都要远远超出50年前那台著名的、有整间屋子那么大的军用计算机。尽管计算机已经进化得相当惊人了,但仍然有许多复杂的问题,它无法解决。目前计算机的开关和存储器单元是由半导体晶体管构成的,它的大小已经接近单原子水平。计算机正在接近它的技术极限。如果想要得到比现在更小且功能更强大的计算机,那么计算方法必须发生根本性的转变。而这个转变的关键就是采用单个原子或更小的粒子做为媒介,实行量子计算。它的计算能力比目前最强大的计算机还要强上几百万倍。为实现这样的强大的计算能力,我们面对的困难也不小。漫步在量子理论的奇幻世界,你会发现,我们现实世界的一切常识性经验都会被颠覆。这究竟是一个怎样的世界呢?

为了便于区分,我们称呼目前使用的计算机为经典计算机,以原子或更小的粒子做媒介的计算机为量子计算机。有两件事情经典计算机做的非常出色,那就是数字存储和对存储的数字进行简单的数学运算,而且它还可以把一系列简单运算串成复杂的运算,我们称之为算法(algorithm), 比如乘法运算就是通过一系列加法运算实现的。计算机的存储和运算都是由半导体晶体管的开关过程完成的。晶体管只做两件事:开或者关,我们用 “开”,存储数字1,用关,存储数字0。每个0或1代表一个二进制数字(比特)。计算机通过逻辑门电路进行计算。逻辑门由一系列晶管连接起来共同完成一项逻辑任务。逻辑门可以用来比较比特模式,并把他们存在临时存储器,即寄存器中,再按照程序指令转换成新的比特模式。这是不是很像我们的大脑在做的事?数学上所谓的某个算法,在物理上,就是通过一系列逻辑门构成的电子电路实现程序所设定的逻辑运算。

1947年,当晶体管刚刚问世时,一只晶体管大概有拇指大小,而现在,大规模集成电路技术可以在指甲盖大小的硅晶片上集成上千万只晶体管。60年代intel公司合伙人Gordon Moore预言,每过18个月,集成电路上可容纳的晶体管数目就会增加一倍,计算机的性能将增强一倍,这就是著名的摩尔定律。这种趋势已经持续了半个多世纪。如果这个趋势一直持续下去,计算机的性能会越来越强大,任何我们现在面临的“棘手问题”终究都会得到解决。但事实并非如此乐观。国际半导体技术发展路线图的更新已经放缓,目前晶体管数量密度每三年才翻一倍,摩尔定律正在失效。今天在硅晶片上面的加工尺度已经达到了0.1微米的量级,再往细微的方向走,这些微小的器件将不再遵循经典的物理规律,经典物理理论会逐渐失效。计算机将遇到它的“经典瓶颈”。这意味着,我们将不得不开始探讨如何应用主宰微观世界的量子物理原理来设计新型计算机的可能性。


量子计算的诞生


量子理论是描述微观物质世界的一个物理学分支,它探讨原子和亚原子系统的运动状态。在原子水平上,那些我们日常生活中认为的那些理所当然的物理规则都不再适用。20世纪伟大的物理学家费曼曾说过:“在微观世界发生的事情和你所有的现实经验似乎完全不同,但又好像你曾经经历过。”

光所表现出的特性有时候让人觉得它是由大量粒子组成的,像一群源源不断射来的炮弹,有时候又觉得它像波,像海里的荡漾的波纹,这种现象被称为波粒二相性,量子理论的基本定理之一。一个东西它即是粒子又是波,这与我们的日常经验完全不合拍。但在量子世界里,这种事经常发生,最激动人心又让人一头雾水的就是那只著名的“薛定谔的猫”。在量子世界里可以存在一种既死又活,或者不死不活的猫,你不理它,它就那么一直不死不活地呆着,只有你去查看它时,才知道它究竟是死是活,而且你要是再不理它了,它就又回到不死不活中去。

那么所有这些量子行为与计算机有什么关系呢?当我们把晶体管做得小到原子那么大,那时微型晶体管将不再遵循经典物理定律,而成为一个遵循量子定律的“量子晶体管”,那时,按照经典物理定律设计的计算机还能正常工作吗?这个问题已经在科学家们的脑海中回荡了几十年。最先考虑这个问题的是IBM的物理学家Rolf Landauer 和 Charles H. Bennett,Landauer率先指出信息也是一种物理实在,必然遵循物理定律,并可以对其进行操控。这一思想开启了量子计算的大门,它的一个重要结论就是当计算机处理信息的时候会耗费能量。目前的计算机消耗了太多能量,导致整个机体变得很热,散热问题一直是计算机设计必须考虑的问题。但事实上计算机本可以不用消耗这么多能量就能完成所有任务的。在Landauer 的这个思想基础上,上世纪70年代,Bennett提出了解决能耗问题的思路。他指出,如果计算机以一个 “可逆”("reversible")的方式工作,那么就可以进行大量复杂的计算而无需消耗很多能量,这就是量子计算机的雏形。 1981年,美国阿贡国家实验室的Paul Benioff提出了设计一个遵循量子规律即耗能很低但又可以像普通计算机一样工作的机器的设想。接下来的一年,Richard Feynman勾勒出了这种机器的雏形。几年后,量子计算机的主导人物,牛津大学的David Deutsch更详细的总结了量子计算机的理论基础。 那么这些伟大的头脑是如何憧憬他们心中的量子计算机的呢?


量子+计算=量子计算


经典计算机的主要技术术语,如比特,寄存器,逻辑门,算法等等,在量子计算机领域都有其相对应的术语。在量子计算机领域,我们用量子比特来替代比特。与比特相比,量子比特有着非常独特的属性。一个经典比特,只能存储1或者0,而量子比特则能同时存储多个值,可以是1或0或者既是1又是0,甚至可以是1与0中间的任意数。如果你觉得这太不可思议,那就想想那些既是粒子又是波的光子,或者,那只既死又活、不死不活的薛定谔猫。我们可以用态叠加这一物理概念来描述量子比特的多值属性。叠加可以理解为,就像两列独立的波在空间相遇形成一列新的波,两列波的强弱,相交时彼此的位置等可以让他们在空间上形成不同波动,但分开后他们还是原来的自己,没发生什么变化。量子比特使用态叠加来代表同时存在的多个态(多个数值),但这多个态是由几个基本的态(通常两个就够了)构成的。

量子计算机可以让一个量子比特存储多个数,计算机也就可以在多条路径上并行处理多个运算(并行运算)。而当你在某个时刻,希望知道数据运算结果时,通过一定的测量,量子态就坍塌到它可能的一个态,通过经典测量可以得到想要的运算结果。就像你打开那个关“薛定谔的猫”的笼子,查看它究竟是死是活。在你没有检查以前它就那么一直既死又活,或者不死不活的呆着 (做着并行运算),只有你去查看它时(测量),才知道它究竟是死是活 (获得计算结果)。而且你要是不再理它了,它就又回到不死不活中去(继续做并行运算)。如果我们可以制造这样一台计算机,一对基本态,就可以叠加变换出无限种可能,并且可以做并行运算,显然,它会比普通计算机快几百万倍。量子计算机将开辟计算机的崭新未来,那么,如何去建造这样一个量子计算机呢?


量子计算机究竟是什么样的呢?


量子比特可以存储在原子、离子或者更小的电子、光子中。量子计算机像一个小型的桌面核子物理实验室!不是用它来做粒子对撞实验,而是想通过某种方法让原子保持在某种状态(这意味着你可以存储信息),经过某些操作或运算之后,让它变化到另一种状态,当然你要知道它究竟变成了什么,这一过程中就可以进行信息处理。

使用激光、电磁场和微波等,人们已经掌握了很多存储和操控微观粒子的技术。用量子点制造量子比特就是其中之一。量子点是由半导体材料构成的纳米小球,它内部的每个载流子,电子和空穴都可以被操控。“离子阱”是另一个制备量子比特的方法,给原子添加一个电子或从它拿走一个电子,就构成了一个离子,用聚焦激光可以稳稳的把离子固定在聚焦位置上。此时,每个离子就像纳米兔子在灯火辉煌的舞台上跳着舞。激光脉冲可以控制它表现出不同的状态,就像令兔子不停变换动作一样。另外,也可以用光学腔中振荡的光子来制造量子比特。光学腔是由空间上分离的一对小镜子构成,光子可以在两个小镜子之间跳来跳去。总之,你唯一需要知道的就是量子比特可以存储在原子或其他量子尺度的微观粒子里,它可以处于不同的状态,而人们可以通过某种方法让它在不同的状态间转换。


640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy
操控原子的激光器系统

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=


量子计算机可以完成哪些“不可能完成”的任务?


1994年,贝尔实验室数学家Peter Shor提出了大数因数分解的算法(大因数分解指寻找两个质数,它们的乘积等于这个已知的大因数),这个算法显示出量子计算机相比于经典计算机的巨大优越性和独特性。Peter Shor算法大大激发了人们对量子计算机的热情和兴趣。网络的发展使每台计算机都要使用公共平台传输数据,需要公共密匙加密技术对数据进行保密处理。而这项技术的安全性是基于大数因数分解保证的。那些因数要足够大,以致使用现有的经典计算机几乎不可能找到质数完成它因数分解,从而保证密码的安全性。但是根据Peter Shor算法,这些大因数分解,量子计算可以轻易完成。这意味着量子计算机的问世,将对目前的网络安全产生灾难性的打击。

这是否就意味着量子计算机一定优于经典计算机呢? 目前似乎还难下定论。理论上说,除了上文提到的Shor's算法外,几乎所有目前已知的其他算法,量子计算都能以优于经典计算的速度快速完成,但若有足够的时间和好的计算性能,这些任务经典计算机也最终能够完成,只是需要多一些时间罢了。


离真正的量子计算机到底有多远?


从量子计算的概念提出到现在已过去三十多年,但量子计算机还只是一直停留在纸面上。重大突破发生在2000年。当时在IBM 的Almaden研究中心工作的张以撒(Isaac Chuang),利用5个氟原子,完成了一个原始的5-量子比特的量子计算机;同年,洛斯阿拉莫斯国家实验室的研究人员完成了一个7-量子比特的量子计算机。5年后,因斯布鲁克大学的研究人员成功操纵了8-量子比特的量子计算。2011年,加拿大D-Wave系统公司(D-Wave Systems)在《自然》杂志上发表了128-量子比特的量子计算机的实验报告。尽管如此,量子计算机领域仍然处于初期阶段,大多数科学家相信在接下来的十年里,量子计算机从实验室走到我们的日常生活不太现实。考虑到建造量子计算机所面临的巨大挑战,我们仍需进一步论证量子计算机究竟可以完成哪些经典计算机不可能完成的任务,据此来评价我们会有多么迫切需要用量子计算机去代替目前使用的经典计算机。我们无法准确的预测计算机接下来的发展,也许50 年后传统计算机仍然蓬勃发展,量子计算机倒显得无关紧要,甚至有点荒谬,谁知道呢?但对量子计算机的憧憬和追求,催促着我们更深入的了解奇异的微观量子世界。可以肯定的是50年后我们对量子世界的认识会更丰富,对宇宙的探索会更深入。打开宇宙之门的钥匙掌握在上帝手中,但寻找永恒的过程却牵动着每一个人!

640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy
D-WAVE量子计算机


原文发布时间为:2016-03-17
本文作者:樟君
本文来源:量子趣谈,如需转载请联系原作者。

目录
相关文章
|
6月前
|
并行计算 算法 量子技术
什么是量子计算机
什么是量子计算机
64 0
|
9月前
|
机器学习/深度学习 人工智能 并行计算
量子力学的应用:量子计算
量子计算作为量子力学的一个重要应用领域,提供了一种全新的计算模型和计算范式。量子计算通过利用量子纠缠和叠加的特性,能够在一些特定问题上实现指数级的加速效果,远远超越传统计算机的能力。
133 3
|
12月前
|
机器学习/深度学习 人工智能 算法
量子计算实现:量子算法的实现(一)
量子计算实现:量子算法的实现
160 0
|
12月前
|
机器学习/深度学习 人工智能 算法
量子计算实现:量子算法的实现(二)
量子计算实现:量子算法的实现
117 0
|
并行计算 算法 大数据
拿到“量子霸权”,中国量子计算机比前世界第一快一百万亿倍
拿到“量子霸权”,中国量子计算机比前世界第一快一百万亿倍
拿到“量子霸权”,中国量子计算机比前世界第一快一百万亿倍
|
算法 量子技术
|
存储 算法 量子技术
|
算法 量子技术