量子计算机:决胜21世纪的利器

简介:

近日,在我国宣布超级计算机“天河一号”服务用户超过 300 家、成为部分领域核心生产力之际,俄罗斯加入世界超级计算机俱乐部的计划对外曝光,该国科学院开始制造浮点运算速度每秒 1 万万亿次的本国性能最强的超级计算机。作为超级计算机大国,美国和日本早已在该领域发力,并努力夺取超级计算机头把交椅。

  然而,这只是在传统计算机的竞争。各国和地区在加紧传统计算机领域竞争,你追我赶的同时,都早已把目光转向在量子力学与现代信息科学“双剑合璧”的全新领域,制造运算速度之快和性能强到不可思议的量子计算机,并以此开启本国的“量子时代”。

  划时代的科学革命

  “量子计算机的运算能力到底有多强大?”这是人们常想到的一个问题。

  对此,中科院院士、中科院量子信息重点实验室主任郭光灿在接受本报记者专访时这样回答:“电子计算机出现的时候,人类之前赖以使用的运算工具算盘就显得奇慢无比。与此类似,在量子计算机面前,电子计算机就是一把不折不扣的算盘。”

  当然,以上只是一个形象的类比,如何具体量化描述量子计算机运算能力呢?郭光灿说,1994年,人们采用 1600 台工作站实施经典的运算花了 8 个月将数长为 129 位的大数成功地分解成两个素数相乘。若采用一台量子计算机则 1 秒钟就可以破解。随着数长度的增大,电子计算机所需花的时间将指数上升,例如数长为 1000 位,分解它所需时间比宇宙年龄还长,而量子计算机所花时间是以多项式增长,仍然可以很快破解。

  郭光灿认为,量子计算机将掀起一场划时代的科学革命。他说,由于其强大的计算能力,可以解决电子计算机难以或不能解决的某些问题,为人类提供一种性能强大的新型模式的运算工具,大大增强人类分析解决问题的能力,将全方位大幅推进各领域研究。人类一旦掌握了这种强大的运算工具,人类文明将发展到崭新的时代。

  奇妙的量子态叠加

  量子计算机为什么大大超出传统计算机,具有超强的运算能力呢?郭光灿解释说,这是由量子计算机的并行计算模式和传统电子计算机的串行计算模式决定的。这听起来依然颇为抽象和费解。因为紧接着的问题随之产生:“什么是并行计算模式,什么是串行计算模式?又是什么导致了这两种计算模式呢?”

  郭光灿说,传统电子计算机用比特(用“1”或者“0”表示)作为信息存储单位,进而实现各种运算。而运算过程是经由对存储器所存数据的操作来实施的。电子计算机无论其存储器有多少位只能存储一个数据,因此,对其实施一次操作只能变换一个数据,为运算某个函数,必须连续实施许多次操作,这就是串行计算模式。而量子计算机的信息单元是量子比特,即两个状态是“0”和“1”的相应量子态叠加。量子态叠加原理指出,量子存储器有“0”或“1”两种可能的状态,该存储器一般会处在“0”和“1”两个态的叠加态,因此一位量子存储器可同时存储“0”和“1”两个数据,而传统计算机处理器只能存储其中一个数据。如果有两位存储器的话,量子存储器可同时存储“00”、“01”、“10”、“11”4个数据,而传统存储器依然只能存储其中一个数据。不难想象,n位量子存储器可同时存储 2n 个数据,而传统计算机存储器依然只能存储其中一个数据。由此可知,量子存储器存储数据的能力是传统存储器的 2n 倍。随着存储器的位数n指数增长,当n=250时,该台小型量子计算机可以存储的数据比现在所知的宇宙中原子的数目还要多。正是基于量子态叠加原理,量子计算机具有巨大存储数据能力,因此,对其操作一次,可以同时将其存储的 2n 个数据变换成新的 2n 个数据,这就是效率大幅提高的并行运算模式。

  造成这一切的无疑是量子世界的奇妙的“态叠加原理”。郭光灿指出,在经典世界里,要么是1、要么是0,要么是 yes、要么是 no,要么在楼上、要么在楼下,不可能出现两者的叠加状态,而这在量子世界里就是不确定的、状态是叠加的。

  决战量子芯片

  关于量子计算机的研制工作,郭光灿介绍说,鉴于量子计算机的强大功能和特殊重大的战略意义,近 20 年来,相关领域的科学家纷纷投入研制工作,虽然面临重重技术障碍,但取得一些重要进展,证实了研制出量子计算机不存在无法逾越的困难。作为量子计算机的核心部件,量子芯片的开发与研制成为美国、日本等科技强国角逐的重中之重。

  美国量子芯片研究计划被命名为“微型曼哈顿计划”,可见美国已经把该计划提高到几乎与二战时期研制原子弹的“曼哈顿计划”相当的高度。郭光灿介绍说,鉴于量子芯片在下一代产业和国家安全等方面的重要性,美国防部先进研究项目局负责人泰特在向美国众议院军事委员会做报告时,把半导体量子芯片科技列为未来 9 大战略研究计划的第二位,并投巨资启动微型曼哈顿计划,集中了包括 Intel、IBM 等半导体界巨头以及哈佛大学、普林斯顿大学、桑迪亚国家实验室等著名研究机构,组织各部门跨学科统筹攻关。在此刺激下,日本也紧跟其后启动类似计划,引发了新一轮关于量子计算技术的国际竞争。

  关于我国量子计算研究,郭光灿介绍说,我国“中长期科技发展纲要”将“量子调控”列入重大基础研究计划。近年来,固态量子芯片研究被列为国家重大科学研究计划重大科学目标导向项目(又称“超级 973”)给予重点支持。这些举措有力推动了量子信息技术在我国的发展。但是另一方面,也必须清醒地认识到我国在该领域存在的不足甚至面临的危机,正如郭光灿在《量子计算机的发展现状与趋势》一文中指出的那样,鉴于基础较弱,研究积累较薄,我国在量子计算国际主流方向上做出原创性的成果还很少,总体水平明显落后于美日强国,在量子计算机方面,差距正日益增大。他在文中建议我国启动一个类似美国 “微型”曼哈顿计划的战略攻关项目,组织国内精锐研究队伍,提供足够强大的支撑,加强相关基础建设,寻求技术突破,在下一代量子芯片的国际竞争中抢占战略制高点。

  传统计算机的软肋

  自 1946 年第一台电子计算机诞生至今,共经历了电子管、晶体管、中小规模集成电路和大规模集成电路 4 个时代。计算机科学日新月异,但其性能却始终满足不了人类日益增长的信息处理需求,且存在不可逾越的“两个极限”。

  其一,随着传统硅芯片集成度的提高,芯片内部晶体管数与日俱增,相反其尺寸却越缩越小(如现在的英特尔双核处理器采用最新 45 纳米制造工艺,在 143 平方毫米内集成2.91亿晶体管)。根据摩尔定律估算,20年后制造工艺将达到几个原子级大小,甚至更小,从而导致芯片内部微观粒子性越来越弱,相反其波动性逐渐显著,传统宏观物理学定律因此不再适用,而遵循的是微观世界焕然一新的量子力学定理。也就是说,20年后传统计算机将达到它的“物理极限”。

  其二,集成度的提高所带来耗能与散热的问题反过来制约着芯片集成度的规模,传统硅芯片集成度的停滞不前将导致计算机发展的“性能极限”。研究表明,芯片耗能产生于计算过程中的不可逆过程。如处理器对输入两串数据的异或操作而最终结果却只有一列数据的输出,这过程是不可逆的,根据能量守恒定律,消失的数据信号必然会产生热量。倘若输出时处理器能保留一串无用序列,即把不可逆转换为可逆过程,则能从根本上解决芯片耗能问题。利用量子力学里的相关理论,能把不可逆转为可逆过程,由此引发了对量子计算的研究。

  高速运算的另一个秘密

  量子计算之所以能快速高效地并行运算,除了因为量子态叠加性之外,还因为量子相干性。量子相干性是指量子之间的特殊联系,利用它可从一个或多个量子状态推出其它量子态。譬如两电子发生正向碰撞,若观测到其中一电子是向左自转的,那么根据动量和能量守恒定律,另外一电子必是向右自转。这两电子间所存在的这种联系就是量子相干性。可以把量子相干性应用于存储当中。若某串量子比特是彼此相干的,则可把此串量子比特视为协同运行的同一整体,对其中某一比特的处理就会影响到其它比特的运行状态,正所谓牵一发而动全身。量子计算之所以能快速高效地运算就缘于此。然而令人遗憾的是,量子相干性很难保持,在外部环境影响下很容易丢失相干性从而导致运算错误。虽然采用量子纠错码技术可避免出错,但也只是发现和纠正错误,却不能从根本上杜绝量子相干性的丢失。因此,到达高效量子计算时代还有一段艰难曲折的路。

  (李建明、李锋)

  神秘的“量子”

  什么是“量子”?它和“原子”、“电子”、“中子”这些客观存在的粒子一样也是一种物质实体吗?答案是否定的。“量子”不是一种粒子,而是一种观念或一种概念。“量子”一词来自拉丁语 quantum,意为“多少”,代表“相当数量的某事”。在物理学中提到“量子”时,实际上指的是微观世界的一种倾向:物质或者说粒子的能量和其他一些性质都倾向于不连续地变化。量子物理学告诉我们,电子绕原子核运动时只能处在一些特定的运动模式上,在这些模式上,电子的角动量分别具有特定的数值,介于这些模式之间的运动方式是极不稳定的。即使电子暂时以其他的方式绕核运动,很快就必须回到特定运动模式上来。实际上在量子物理中,所有的物理量的值,都可能必须不连续地、离散地变化。这样的观点和经典物理学的观点是截然不同的,在经典物理学里所有的物理量都是连续变化的。上世纪初,物理学家普朗克最早猜测到微观粒子的能量可能是不连续的。但要坚持这个观点,就意味着背叛经典物理学。保守的普朗克最终放弃了这个观点。然而,大量的实验事实迫使物理学界迅速地接受这样的观点,将其发展起来,并结合其他一些公设如“量子态叠加原理”,建立了如今的量子物理科学。

  (徐丽莉)

  冲击传统密码学

  密码通信源远流长。早在 2500 年前,密码就已广泛应用于战争与外交之中。随着历史的发展,密码和秘密通讯备受关注,密码学也应运而生。防与攻是一个永恒的话题,当科学家们如火如荼地研究各种加密之策时,破译之道也得以迅速发展。传统理论认为,大数的因式分解是数学界的一道难题,至今也无有效的解决方案和算法。这一点在密码学有重要应用,现在广泛应用于互联网,银行和金融系统的 RSA 加密系统就是基于因式难分解而开发出来的。然而,在理论上,包括 RSA 在内的任何加密算法都不是天衣无缝的,利用穷举法可一一破解,只需衡量破解与所耗费的人力物力和时间相比是否合理。但是,精通高速并行运算的量子计算一旦问世,萦绕人类很久的因式分解难题迎刃而解,传统密码学将受到前所未有的巨大冲击。但正所谓有矛必有盾,一套更为安全成熟的量子加密体系正应运而生。


原文发布时间为:2017年01月17日
本文作者:spinsoft
本文来源:博客园,如需转载请联系原作者。

目录
相关文章
|
6月前
|
人工智能 算法 安全
探索未来之光:量子计算的奥秘与挑战
在科技日新月异的今天,量子计算如同一颗冉冉升起的新星,引领着计算领域的革命。本文将深入探讨量子计算的核心原理、技术难题以及它对未来社会的深远影响,为读者揭开量子世界的神秘面纱。
|
7月前
|
算法 安全 程序员
未来之光:量子计算机的突破与挑战
【6月更文挑战第15天】在科技的浩瀚星海中,量子计算机如同一颗璀璨的新星,以其潜在的无限计算能力吸引了全球的目光。本文将探索量子计算机的最新进展,分析其面临的技术挑战,并展望这一领域的未来发展前景。
|
7月前
|
人工智能 并行计算 算法
未来之光:量子计算机的潜能与挑战
【6月更文挑战第11天】本文探讨了量子计算机的原理、优势以及面临的技术障碍,分析了其在未来科技发展中的潜在作用,并展望了量子计算技术可能带来的变革。
|
7月前
|
安全 数据挖掘 数据处理
未来之光:量子计算的潜能与挑战
本文深入探讨了量子计算这一技术领域的前沿话题。通过分析量子计算的基础原理、当前技术进展以及面临的主要挑战,文章旨在为读者提供对量子计算未来可能性的全面了解。不同于常规的技术概述,本文将着重于量子计算如何可能重塑数据处理、加密安全和材料科学的未来。
|
7月前
|
并行计算 算法 量子技术
未来之光:量子计算机的原理与挑战
【6月更文挑战第1天】在科技的浩瀚星河中,量子计算机如同一颗璀璨的新星,以其潜在的无限计算能力吸引着全世界的目光。本文将深入探讨量子计算的奥秘,从其基本原理到面临的技术难题,带领读者一窥量子计算机的未来可能性。
|
7月前
|
存储 量子技术
未来之光:量子计算的探索之路
【6月更文挑战第3天】本文将带领读者穿越神秘的量子世界,探讨量子计算的基本原理、当前技术挑战以及它对未来科技发展的可能影响。我们将不采用传统的摘要形式,而是通过一段引人入胜的故事来概述文章内容,让读者仿佛亲身体验一场关于量子计算的冒险旅程。
|
8月前
|
并行计算 算法 安全
未来编程之光:量子计算入门与应用前瞻
【5月更文挑战第3天】 在探索宇宙的无限奥秘与信息时代的边界时,我们遭遇了经典计算机的局限。量子计算,作为一种全新概念的计算范式,承诺超越这些限制,开启处理速度与计算能力的新纪元。本文将引导读者进入量子计算的世界,解析其原理,并探讨其在各领域的潜在应用和面临的挑战,旨在为未来的技术革新者提供一盏明灯。
Uma
|
存储 关系型数据库 分布式数据库
当学术大家遇到技术大拿,如何攻克数据库应用头号难题?数位产学研大咖这样解读
中国最强数据库学术会议来袭!在NDBC大会期间,达摩院数据库与存储实验室联合中国计算机学会(CCF)数据库专业委员会,举办了首届产业数据库研发论坛。产学研的思想碰撞,见证“阿里力量”
Uma
2430 0
|
机器学习/深度学习 敏捷开发 缓存
图灵奖得主展望新黄金时代,拿什么拯救摩尔定律?
计算机体系结构顶会ISCA-18上周结束,图灵奖得主John Hennessy和David Patterson发表特邀报告,展望体系结构新的黄金时代。本届会议近1/3的论文关于神经网络加速器,专用领域架构和软硬件协同设计是最受关注的议题。
1663 0
|
人工智能 量子技术 数据安全/隐私保护

热门文章

最新文章

下一篇
开通oss服务