量子的飞跃:下一代D-Wave量子芯片计算速度能快1000倍

简介:

联合编译:Blake, 高斐

量子的飞跃:下一代D-Wave量子芯片计算速度能快1000倍

导读:量子计算机(Quantum Computer)是一种使用量子逻辑进行通用计算的设备。不同于电子计算机(或称传统电脑),量子计算机用来存储数据的对象是量子比特,它使用量子算法进行数据操作。

我们也许离真正解锁量子计算的真实力量还很远,但是D-Wave承诺通过其显著升级的量子处理器让我们一尝未来的滋味。

当其明年初发布时,这家加拿大公司新的量子芯片将能处理2000量子比特的数据(qubits),几乎是现有D-Wave 2X系统中处理器可用数量的两倍,同时能够比前代产品的处理速度快1000倍。

D-Wave机器都是价值数百万美元的电脑,其使用“量子晶体管”来处理数据,另外使用液氮来冷却细小的环形铌到绝对零度。只有很少一些地方在使用这个系统,包括谷歌和高校空间研究学会(Universities Space Research Association)、洛克希德马丁(Lockheed Martin)和洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory)。此外,D-Wave也提供云端服务允许用户来访问它的量子计算机系统。

量子计算仍然大部分处于理论研究阶段,其主要研究如何利用的奇怪和违反直觉的方式,在原子水平上开发非常强大的机器。对于某些特定任务,量子计算机有潜力比现有的系统要明显快上许多倍,同时更加节能。但是通用的量子计算机目前还不存在,D-Wave系统利用不同的原子行为特性(比如纠缠和状态叠加等)来解决一系列困难的计算问题。

“我们选择的方向发展十分迅速,几乎每年量子比特的数目都会翻一倍。”D-Wave业务发展和战略合作伙伴Colin Williams说道。

提升D-Wave处理器中的量子比特使得系统更加靠近拥有挑战传统计算机的能力,同时新的处理器也支持添加新的特性(允许进行更有效地运算)。

“从内部测试来看,这是一个非常值得去做的事情。通过利用这种特性我们已经加速了1000倍去解决那些存在的问题。”剑桥CW TEC的William这样说道。

如果按照今日的计算机来类比的话,D-Wave系统不是通用的计算机。

D-Wave能做的远不止你要求的任一计算任务,它被设计来是处理一些特定的任务(像无约束二进制优化及相关取样问题等)。有关这类优化问题可以举一个非常简单的例子,你要制定一个房子的规划,它要尽可能符合你心目中理想的条件、细节,但是又要保持在你的预算范围中。

D-Wave处理器能够执行的特定工作也能应用到一系列领域中,特别是训练机器学习模型

然而,建立通用的量子计算机仍然存在十分巨大的困难,有几个尚未解决的工程难题摆在面前。UCL纳米电子学和光子学教授John Morton通过过去芯片发展趋势推算,预测第一代通用量子计算处理器不会在21世纪30年代之前出现。

John Morton提到仅仅一个计算器的话并不能称为计算机,因此D-Wave系统并不能说是一个通用的量子计算机。“一个计算器能够解决许多特定的问题。很多人都在使用它,并且你也能在不同的工业领域中使用它。因此当D-Wave展示出很多个工业领域中都可以运用它们的机器时,也许确实其可以被应用到该领域中,但是它仍然只是一个特定的设备而已。”

虽然谷歌目前并没有将D-Wave运用到自身的机器学习系统中,但是D-Wave处理器的可信度(一直有学术界人士质疑)在去年谷歌的一个实验中得到验证。

在谷歌的实验中,处理同样大小数据量时D-Wave所需要的退火时间要少几个数量级,下图所示为模拟退火方法(SA),量子蒙特卡洛方法及D-Wave 2X在执行退火操作所用时间的对比结果。

量子的飞跃:下一代D-Wave量子芯片计算速度能快1000倍

该实验发现D-Wave 2X处理器在进行相似的操作中比传统的处理器要快上1亿倍,不过Williams说更重要是,这证明了D-Wave的芯片在未来的可行性。

实验中也为我们展示了D-Wave 2X处理器在处理弱-强集群网络问题方面的几个实例的布局图(见下图)。图中所示为三个不同规模大小的网络295,490,945量子比特。每一个集群由Chimera图的一个8量子比特单元构成。橙色的点所描述的是一个强局部场的量子比特,蓝绿色的点代表弱场的量子比特。蓝色线代表强磁耦合,红色线代表强反磁耦合。注意,由于并不是所有的1152量子比特都具有可操作性,所得到的图像可能呈现无规律性。

量子的飞跃:下一代D-Wave量子芯片计算速度能快1000倍

“该实验的主要结果并不完全是速度的提升,因为在其他经典算法上能够做到更好。这个实验表明量子隧穿真的在D-Wave芯片中发生着。这说明即便隧穿范围是有限的,它仍然是一个有用的计算工具。”

“谷歌同我们一样明白,当我们进一步使得芯片更加紧密连接时,目前运行良好的经典算法将会马上完全失败。”Williams另外提到。

D-Wave已经从许多投资者那边募集了几百万美金,投资者包括高盛投资银行、In-Q-Tel(美国中央情报局投资部)、Bezos Expeditions(亚马逊创始人Jeff Bezos)以及BDC Capital、Harris & Harris Group和DFJ。

一台能够模仿人类说话的机器

D-Wave芯片太过于专业化,反而限制了其实用性,这是关于这种芯片的另一种批判性观点,但是, Willams并不赞同这种观点。

认为D-Wave芯片用途过于单一,我不赞同这种观点。事实上,该种芯片在一个领域的应用能够被扩展到更多不同的领域”,他表示。

Williams未直接提及有哪些公司通过这种方式运用D-Wave芯片,他表示,这类处理器被应用于商业领域来优化交易轨迹,在生物科学中用于研究蛋白质是如何组合的,并构建蛋白质序列过滤器,以便精确检测每一个潜在的蛋白质序列,D-Wave芯片的这种应用有助于改善检测恐怖分子名单的安检服务,同时也有助于研发AI和计算机视觉二元分类器。

但是,D-Wave芯片的理论基础是无监督机器学习,为一个神经网络提供训练数据,机器通过识别模式进行学习。Williams认为,D-Wave处理器将产生巨大的影响,也许能够解释Google在该技术领域的研究兴趣。

“我们认为,机器学习与AI是这种机器最优的应用案例。D-Wave芯片将有可能为机器学习领域,尤其是为无监督生成学习研究,带来一场彻底的革命”,他认为。

“利用这种量子芯片,我们将有能力解决机器学习领域先前出现的极具挑战性的问题——‘如何使无监督生成型机器学习能够有效地投入到实际应用中?’”

如果能够解决上述问题,你将能够运用机器学习实现许多不可思议的突破。通过训练机器,你能够使它生成新的数据,从统计学层面来讲,新生成的数据能够达到与用于训练机器本身的数据高度相似的效果。

Williams预测,未来的D-Wave芯片能够训练机器,例如用绘画大师的作品来训练机器,使机器能够生成具有艺术价值的新作品,或者使机器能够高度逼真地模仿人类的声音。

D-Wave已经在芯片上运用机器学习进行过实验,构建出一种玻尔兹曼机,一种随机递归神经网络,也可以称之为“量子玻尔兹曼机”,Willams表示,“这种量子玻尔兹曼机在本质上有别于先前的机器学习模型”。

Williams认为,D-Wave芯片,或其他类型的量子处理器不会取代一些经典的计算机芯片,反之,将会与这些经典的芯片共同被用户使用。

“我们认为,量子计算不会取代经典的机器,这种计算方法将通过强化经典的系统来改变世界”,Williams表示。

例如,你能够获取一台量子计算机的输出信息,将其作为输入信息运用到一种启发式搜索算法中。核心观点是这种量子算法有助于你接近而不能够找到一种好的解决方案,而一种经典的算法则能够有助于最终找到这种解决方案。

我们也可以从一些预处理技术中选取一个难以解决的问题,运用这种量子芯片将这个问题分解为一系列小问题。

Williams表示,除了能够处理2000量子比特,D-Wave将基于我们学习到的所有经验,运用一种新型拓扑结构,设计出一种“下一代芯片”。

关于新型D-Wave芯片的更多详细信息

针对那些对实质问题感兴趣的专业人士,Williams对2,000量子比特芯片的性能做出了深度解说。

每一个D-Wave处理器的设计宗旨是用于量子退火,即运用量子物理学知识找到一种消耗能量最小的状态,这将有利于解决优化问题和上述提到的相关样本问题。关于这种新型芯片如何更加有效地控制退火过程,Williams也做出了详细解释。

经过参考哈密顿公式(在给出一个系统的状态的条件下,运用该公式能够在该系统中输出能量),他表示,“这种新型芯片不仅仅能够处理更多的量子比特,我们已经运用它改变了许多其他特征。运用先前的D-Wave芯片,我们只能够观察一种退火轨迹。目前,我们只能基本做到闭合初始哈密顿回路,打开最终哈密顿回路”。

现在运用能够处理2,000量子比特的芯片,我们将能够更好地控制参数,控制轨迹。

我们能够运用很多特征中止退火过程,并且能够快速加速这一过程。不再需要以一种恒定的速度执行退火这一过程。

这将是非常有趣的,因为你能够在退火正在进行的过程中,探测量子的状态,这是量子玻尔兹曼机的一个极为重要的特征。

我们先前也拥有一个快速退火生成系统,能够在20微秒内操作完成退火过程。不过,运用我们的新系统,能够实现在5微秒能完成这一操作。

推荐阅读:

What is the Computational Value of Finite Range Tunneling?(quantum computing)

 在量子计算芯片上,这家公司可能领先于Google

本文由雷锋网(公众号:雷锋网)独家编译,未经许可拒绝转载!

via Nick Heath


本文作者:高婓


本文转自雷锋网禁止二次转载,原文链接

相关文章
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
「比人脑中的突触快100万倍」,MIT的新硬件为人工智能提供了更快的计算速度,而且能耗更低
「比人脑中的突触快100万倍」,MIT的新硬件为人工智能提供了更快的计算速度,而且能耗更低
|
11月前
|
机器学习/深度学习 存储 人工智能
Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍
Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍
|
达摩院 算法 量子技术
达摩院新型量子芯片操控精度99.72%创新高
达摩院量子实验室成功设计制造出两比特fluxonium量子芯片,实现了单比特操控精度99.97%,两比特iSWAP门操控精度最高达99.72%,在此类比特达全球最佳水平,是fluxonium优势从理论到实践的重要一步。
541 0
达摩院新型量子芯片操控精度99.72%创新高
|
量子技术 芯片
量子计算机“热”了15倍!科学家将量子计算平台运行温度提至1开尔文以上
世界各地正在开发的大多数量子计算机只能在约0.1开尔文(-273.05℃)的极寒温度下运行,而日前登上Nature的两个研究团队则开发出了可以在1开尔文以上的温度下工作的量子设备,这是量子计算机走向商用的一个重要里程碑。
347 0
量子计算机“热”了15倍!科学家将量子计算平台运行温度提至1开尔文以上
|
量子技术 芯片 SoC
量子计算机实用重要里程碑!英特尔发布首款低温控制芯片Horse Ridge
量子计算机实用重要里程碑!英特尔发布首款低温控制芯片Horse Ridge
126 0
量子计算机实用重要里程碑!英特尔发布首款低温控制芯片Horse Ridge
|
算法 大数据 量子技术
国科大推出可编程硅基光量子计算芯片,实现292个图像的量子漫步模拟,研究登上Science
国科大推出可编程硅基光量子计算芯片,实现292个图像的量子漫步模拟,研究登上Science
216 0