01、经典计算到量子计算
20世纪60年代至70年代,人们发现能耗会导致计算机中的芯片发热,极大地影响了芯片的集成度,从而限制了计算机的运行速度。研究发现,能耗来源于计算过程中的不可逆操作,这也是由熵增定律决定的,即在一个孤立的系统中,如果没有外力做功,则其总混乱度(熵)会不断增大。
Bennett证明了以下结论:
只要是可逆门构造的网络,能量零损耗就是可能的。量子可逆门具有相同位数的输入/输出,在信息变换过程中不丢失输入信息,因此理论上不存在热耗散,可以有效地解决芯片的热耗问题。
理论上,量子门线路可以解决经典计算机的能耗问题。其一,量子计算机将单个微观粒子作为信息载体,可以构建新体系下的信息存储和计算系统;其二,每个量子门都对应一个酉演算,而酉量子门总是可逆的,因此,基于量子门的量子线路也是可逆的,其能耗在理论上几乎为0。
如果要评选出20世纪最伟大的发明,那么电子计算机毫无疑问会是最有力的竞争者。随着将电子管更换为晶体管以及半导体技术的发展,芯片的集成度越来越高,计算能力越来越强。现在,即使普通手机的芯片也远不是当初的巨型机能比拟的。摩尔定律曾经预言单位芯片上的晶体管数量将会每18到24个月翻一番,且性能增加一倍。摩尔定律提出后的数十年中都准确地预言了半导体工业的发展。
但是近年来,半导体工业的发展明显放缓,一方面是因为高精度光刻机的研发难度很大,另一方面是因为对于如此高密度的晶体管,散热已经成为一个很严重的问题。各大半导体厂商已经逐渐进入低于10nm节点的阶段,晶体管的尺寸已经接近于经典物理极限。这时,量子效应已经逐渐显现,它不仅会导致漏电流的问题,而且可能导致计算错误。
随着现代科技的不断进步,人们对计算能力的需求不断攀升。虽然现代计算机的能力已经很强大,但经典计算机总是在某些领域存在短板,例如模拟量子系统。量子系统的态空间可以随着粒子的数目呈指数增加,而计算机的计算能力只能随着芯片内部的晶体管数量线性增加。因此,即使是现在最先进的超级计算机,也只能模拟有限规模的量子系统。
Feynman曾提出用量子计算机模拟量子系统,这正是量子计算机概念的起源。虽然之后沉寂了数年,直到Shor大数因子分解算法、Grover量子搜索算法等算法被提出,人们才意识到量子计算的巨大优势,开始对其重视起来。量子计算理论也迎来了大发展。
量子比特可以制备到两个计算基态|0〉和|1〉的叠加态。n物理比特的经典存储器只能存储2n个可能数据中的某一个。若是量子存储器,则可以同时存储2n个数据,并且随着n的增加,其存储信息的能力将呈指数上升。理论上,一个250量子比特的存储器可能存储的数据达到2250个,比现有已知宇宙中的全部原子的数目还要多。量子计算机在一次运算中可以同时对2n个输入数据进行数学运算,其效果相当于经典计算机重复实施2n次操作,或者采用2n个不同的处理器实行并行操作。
可见,基于态叠加原理,量子计算机可以节省大量的运算资源(时间、记忆单元等)。理论上,量子计算机会比现在甚至将来的任何经典计算机都强大得多。例如,对于大数的质因子分解,现在还找不到有效的经典算法,然而利用“量子计算并行加速”可以设计出有效的量子算法以解决这个问题。由于大数的质因子分解是目前广泛使用的保密通信的基础,因此这个结果极大地激发了量子计算的理论和实验实现的研究。
量子计算直接利用量子现象(量子叠加态和纠缠态等)操控数据。量子计算机是遵循量子力学规律进行存储、运算及读出量子信息的一类物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它所进行的操作就是量子计算。