这两天有个大新闻,是说中科院宣布造出了全新的量子计算机。一时间主流媒体蜂拥报道,让“中国造出世界第一”的历史上有多了一笔。而国内众多媒体的报道标题,纷纷打出了“中国造出世界第一台量子计算机”之类的说法,甚至引述外媒来论证这一消息的准确性。
但恐怕事实又一次在媒体口中被微小的“断章取义”了一次。按照中科院的标准说法,这次成功研制的,是“世界上第一台超越早期经典计算机的光量子计算机”。注意,这个说法是有很多定语的:首先它是首台超越早期经典计算机计算速度的,其次它还是“光量子”计算机。
当然,以潘建伟教授为首的中国量子计算科学家们居功甚伟。某种程度上可以说打破了欧美在量子计算领域的垄断和封锁,尤其这次宣布实现了目前世界上最大数目的十个超导量子比特的纠缠,让量子计算的应用度迈上了全新的台阶。
但如果非要说这次的事件是量子计算机从0到1的破局,那未免太不尊重科学家们的劳动了。量子计算是一个长期课题,每一小步都意味着更多可能。所以重新理解下量子计算及相应技术应用化的实际境况,看来还蛮有必要的。
量子计算和量子计算机,各是什么鬼?
所谓量子,是一个能量的最小单位,也是人类目前为止认识微观世界的终极抵达点。所有的微观粒子包括分子、原子、电子、光子都是量子的一种表现形态,人类和整个世界也都是由量子构成的。
但区别于经典物理世界之间物体的相互作用形态,微观世界量子之间的互动更加诡异而复杂,甚至还没有真正权威的科学解释能阐明量子间的作用关系。
至少已经可以证明,量子位之间具有相互叠加和相互牵连两种属性,而围绕这两种属性构成的力学理论,就是大名鼎鼎地“革了牛顿的命”的量子力学。
抛开物理学不提,量子间的特性运用到计算领域会呈现出与目前所知的计算完全不同的运算规则。
由于量子具有叠加态,故而量子运算具备天然的并行运算能力。如果说0和1组成的经典计算是一个人在干一件事,那么量子计算就是一个人同时干很多事,并且同时完成给出叠加结果。
以这次完成的10个超导量子比特纠缠计算为例,它在经典计算机完成一次计算的同时,可以完成10个比特,也就是1024次计算。那么如果超导比特纠缠数量持续扩大的话,超越目前人类最快的计算系统也是轻而易举的。
事实上,量子计算机是一个非常宽泛的概念。由于它的概念界定办法仅仅是利用了量子规则完成的计算设备,所以第一台量子计算机的定义也非常模糊,很难得到公认。
发展量子计算机的方式也各有不同,比如中科院发布的量子计算机是以光子理论完成的“光离子计算机”,其他囚禁离子技术、量子位元超导电路技术也都在持续深挖中。如果算上相对小众的量子计算机实现方式的话,恐怕很难统计目前世界上有多少种量子计算机。
当然,某种程度上来说目前世界上依旧没有真正应用意义的量子计算机。我们今天做的,更多是把一个概念从理论一步步拉倒现实中来。
今天AI大火,于是经常伴随着AI出现的“兄弟词汇”也跟着火了起来。很多人一提到AI就会紧接着蹦出来深度学习、量子计算、弹性网络等等名词。但他们之间究竟是啥关系就不知道了,反正最后总结为“不明觉厉”就对了。
总体来看,量子计算可以被看做人工智能技术的基础设施。因为人工智能的本质是机器以函数推导来模拟人类的接受、学习和推导,这就涉及巨大的运算和数据处理。而量子计算恰好可以解决这个问题。\
总体而言,这对“概念基友”有以下几个方面是互补的:
一、解决经典计算的单一维度问题:人工智能要运用到大量的数据接收和处理,但0和1的经典计算却始终只能进行单一向计算。这给人工智能的深度发展带来了巨大不便。而量子计算的法则下,系统能够通过并行计算来不断学习来处理之前从未遇到的新数据。这就给人工智能不断实现自我进化提供了近乎“水和空气”的基础。
二、解决cpu堆砌的天花板:人工智能虽好,但问题是需要的计算量却太大了。比如之前Alpha GO大战李世乭,动用了1920个CPU和280个GPU。虽然效果显著,但设备和能源消耗未免太大了,很难有广泛应用的空间。而如果通过量子计算法则,则可以把硬件体积和能耗大大降低,达成人工智能技术的通用化。
三、大体量计算成为可能:我们一直都在关注大数据,但最大的数据能有多大呢?有数据判断,到2020 年全世界的数据会达到44 ZB,也就是人均5200GB。我们当然相信越大的数据越有可能达成有效的结果推导。但如果数据达到这个程度,恐怕就是经典计算带不动的了。所以全景式计算必须依赖量子计算,这也是人工智能开启全面数据学习的先决条件。
四、移动人工智能设备的必备因素:根据上面的硬件天花板推导,不难发现人工智能需要的运算能力基础是非常庞大的。而手机、汽车、穿戴设备等终端很难加载人工智能需要的运算处理器,而云计算技术又有各种各样的限制。因此通过量子计算,来实现AI设备的集成化和迷你化,可能是人工智能走进普通生活的最佳选择。
五、AI的反向验证:量子计算模拟的是微观世界中量子的叠加与纠缠,那么这种模拟可行运算逻辑的正误其实很成问题。因为一般的运算技术根本无从检验量子计算模型。所以这里人工智能可以回头帮一下量子计算,通过多元推导的方式检视量子计算的过程与结果。
所以说,AI和量子计算近乎于是不得不同时进化的双生子,一个负责辅助,一个专打输出。
量子计算单独的商业化应用,也是个很有意思的话题。总体而言,量子计算的应用可以分为两种,一种是量子通讯层面的,另一种则来自量子计算本身。
量子通讯层面目前的应用性较强,比如去年发射的墨子号量子通讯卫星就是做这个的。这一技术手段,本质是将量子技术作为一种不可逆的比特化数据管理体系。将信息进行近乎不破解的超密编码。一方面这种技术基于量子比特的不可逆转性,没有破除可能,比较符合未来通讯加密的需求。另一方面量子计算的因数分解能力可以轻易解开经典运算领域的所有密码,所以解铃换需系铃人,量子密码技术近乎是个不可逆的商业应用。
同理,量子密码还可以被运用到各种加密手段当中。比如钞票防伪、商品专属溯源、电话加密等等。
而量子计算方面的应用潜力其实更广,但目前都还比较遥远。比如基于量子计算技术实现的量子搜索,可以轻易通过并行计算技术在庞大数据中进行抽取。这就让模糊搜索、大数据辨认等多种技术成为可能,尤其与AI识别结合后,想象空间更加巨大。另一种量子计算的应用场景在于构造模拟,通过量子计算。可以模拟出微观世界的多领域构造,比如化学、材料工程学,甚至生物学的微观模拟,都对这一领域的认知突破有重要意义。
有意思的是,量子通讯的终极目标显然是对大量量子的传输,也就是所谓瞬间移动。而用量子计算模拟生物构造,或许可以找到基因的核心,逆转衰老甚至死亡等生物现象。所以有人说一切科幻都属于量子计算,好像也有点道理。
说了不少好话,最后泼点凉水。与人工智能的应用化进程相比,量子计算的应用化堪称还处在原始社会阶段。比如刚刚中科院发布的光量子计算机,还仅仅是元器件和光学仪器构成的原型机。换言之,其进度还处在实验数据阶段,离投入下一阶段的实践性应用还非常遥远。
事实上,目前无论是学术界、政府还是互联网巨头,都还没有展现出量子计算正式进入商业化阶段的可能性。甚至很多理论都处在实验之外,仅仅有理论上的可能性。
即使能够进入应用阶段,量子计算的场景适应性较比经典计算还有非常遥远的距离。经典计算的逻辑简单,但同时带来的是各种场景都可应用的泛在化能力。而量子计算对运算类型的要求十分严苛,即使投入使用,恐怕也将进入长时间与经典计算拉锯、甚至产生互斥性的共生阶段。
当然,量子密码等关键性应用的商业化进度已经十分可观,而人工智能、量子力学等领域的持续突破,也有可能指数级加快量子计算的实践进程。
原文发布时间为:2017-05-07
本文作者:钛媒体
本文来源:ZOL,如需转载请联系原作者。