姚期智:量子计算进入最后一里路,“QC+AI”孕育新未来

简介:

在今天下午的腾讯we大会上,中国科学院院士、量子计算专家、图灵奖获得者姚期智院士现场分享了关于量子计算的主题演讲。

  姚期智表示,经过近20多年的努力,科学家已经了解到什么样的材料是最适合做量子计算机,而且知道这个蓝图基本上是有了,这些虽然令人兴奋,但是离实用还差的很远。我们已经进入一个能看到量子计算机将要做出来的时间段,我们可以把它叫做最后的一里路,但这会是一个非常艰难的,也是需要经过一段时间的最后一里路。

  量子计算(quantum computation,缩写:QC) 是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式,在处理问题时速度远远快于传统通用计算机。姚期智介绍说:比如说我们想解开一个RSA的密码系统,它用了400位数的整数做密钥,用现在用最大的、最好的超级计算机,需要60万年才能够做出来,但是如果在将来有了一个量子计算机有相当的储存功能的话,三个小时内就可以做出来。

  如果有了量子计算机就可以解量子方程式,量子方程式它是最重要的一个方程式,如果你能解量子方程式的话,你可以解决很多物理上的问题、化学上的问题、生物上的问题,你能够做很多的事情。在未来,如果能把量子计算机和AI放在一起,我们可能做出连大自然都没有想到会有如此结果的事情。

 

以下是姚期智院士演讲内容,猎云网删减整理:

  大家好,今天非常荣幸能够有机会来参加这个盛典,谢谢主办人邀请我来这里和大家交流。

  今天我想谈的题目是:量子计算时代的来临。量子计算在学术的期刊上,在普通的报纸杂志上,现在是一个相当热门的常常被谈到的题目,那到底量子计算是什么?为什么量子计算比经典的计算机能够快那么多,对大多数人来讲,仍然还很神秘。

  所以我今天的演讲来揭开这个面纱,我先给一个简短的介绍。

  20多年以前,量子计算机被发现有一个非常奇怪的功能,大家知道RSA是一个现在常用的密码系统,大家觉得这是一个高度安全的密码系统,但是这个密码系统如果有了量子计算机以后,科学家证明它就变得不安全了,怎么一回事?

  比如说我们想破解一个RSA的密码系统,用400位数的整数来做一个密钥的话,用现在用最大的、最好的超级计算机,需要60万年才能够算出来。但是如果在将来有一个量子计算机有相当的储存功能的话,三个钟头就可以做出来。这是科学家最保守的估计,一般人都认为它能够比三个钟头更少的时间就可以算出来。光是这样你就可以看到量子计算机能够破解现在没有办法破解的密码,这个震惊了世界学术界。

  在我的演讲里面,我们想要回答两个一般人最想问的问题:

  第一,量子计算为什么是一个革命性的计算原理,它和经典的计算机到底不同在哪里?它为什么会这么快?

  第二,量子计算机什么时候会出现?

  对于第二个问题,我们的了解是量子计算机现在基本上已经是呼之欲出,可以称为one the verge of realization 。

  我们已经进入一个能看到量子计算机将要做出来的时间段,我们可以把它叫做最后的一里路,但这会是一个非常艰难的,也是需要经过一段时间的最后一里路。

  所以说我在演讲里面,我要给大家一个有深度的解答,关于这两个问题。

  第一,它到底是什么原理;

  第二,它为什么是非常长的一里路。我们现在这些一般做量子计算机的科学家,他们现在的研究到底是哪一类的工作?

  最后,量子计算机虽然它能够做很多事情,我们想要把它放到更大的视野来看,量子计算在整个计算的框架,甚至在整个21世纪的科学里面,它有什么样的位置?有没有更高的价值?我们要谈这些事情。

  我们现在先谈量子计算机它为什么和传统计算机完全不一样。我们中国有一个寓言:“杨子见歧路而哭之”,杨朱看到有一只羊走失了,他走到了分叉的地方,他不知道羊在哪一条路上,这个时候他就不能够决定,觉得很悲伤,因为看起来唯一的方法,就是你必须先去走一条路,然后再走另外一条路。这代表着我们在做计算机的一个计算问题的时候,我们想要找一个答案,常常要搜索好几个不同的方向,来看到底哪一个方向才能够给你一个答案。所以说传统计算机就有这样的一个问题。

  在量子世界里面,这个问题能够得到解决。我们可以这样想,在传统的世界里面,杨子看到有歧路,我们脑筋里面出现的一个景象,最好的解决方法是什么呢?如果杨子是孙悟空的话,这个问题就解决了,因为我在头上拔几根毛,变出很多个小孙悟空,每个人都走不同的路。这样的话,大家可以同时搜索,搜索的时间就短了,一个难的问题就变得容易了。

  而在量子世界的时候,这些最微小的粒子本身就具有孙悟空一样的能力,这是一个非常神奇的事情,在这种最微小的量子世界里面,一个小孙悟空可以一下子变成两个孙悟空,有一半的他走一条路,另外一半走另外一条路。

  所以在量子世界里面,在这些最小的分子、原子之下,他们这些小孙悟空,如果我们在一种适合的情况下,他们真的能够有一个非常好的配合,能够让他们所有的分身全部分开,大家一起合作。换句话说,这个就是达到了我们的平行计算,基本上等于有无限多个能够运作的计算器给你用。

  这种能够分身的魔术,并不是在所有的计算问题里面,都能够达到这个效果,不幸的是,量子物理世界在原理上还有其他结果。但是,有时候它可以做到。

  我们现在看看,我们刚刚讲的RSA密码破解的时候,他用的原理是怎么一回事。

  在经典物理里面,它有一个和量子相似的情况,这个就是光。有一个非常经典的光学实验,你如果从一个光源,放出一个光,经过一个屏幕,上面有很多的小洞,你在后面再放第二个屏幕,在第二个屏幕上,你就会看到,如果你看的精细的话,屏幕上的这个光,会有一个周期性的现象,有的时候亮,有时候暗,从亮到暗,可以看出有一个不同的变化。到底长的什么样子,它是跟光学的原理判断的。

  重要的一点是,它这个变化怎么决定的,是由前面的波长、屏幕上的针孔之间的距离、参数所决定的。所以,你如果把这个问题反过来看,你如果看到结果以后,会告诉你原本的光源里面的性质。

  这个波的传播,从计算机的角度来讲,这个并不是太难做,是可以计算的。

  在量子里面,我们怎么样用到刚才这件事情?在量子里面,如果说我们有一个密码,我们想要破解,我们可以把它代表成为量子里面的量子态,那么,这个量子态如果你设计它的光学设计,设计得好的话,它就有一个很有意思的结果,它是说你如果去量一量后面的这个patten的话,它会告诉你这个密码。你如果真的光学实验,唯一不幸的是光学实验中间所需的Situp?非常的大,需要有指数性的大小。这个时候有一个重要的事情,如果我们有了量子计算机,它可以指数性地把这个时间降下来。

  这样的话你在一个不太长的时间,你就能够量出这些有意思的pattern,你把它反过去就可以查出来它本来的密码,到底它里面的秘密是什么。我们刚刚讲的破解RSA,就是用这个原理。

  当然做量子计算机,除了想破解密码还有很多事情,它最重要的一个应用,如果我们有了量子计算机,我们就可以像现在能够模仿古典的物理,用我们的计算机做各种事情。如果有了量子计算机就可以解量子方程式,量子方程式它是最重要的一个方程式,如果你能解量子方程式的话,你可以解决很多物理上的问题、化学上的问题、生物上的问题,你能够做很多的事情。

  同时量子计算机和人工智能也有关系,实际上有很多地方,经过这十几、二十多年的努力,在实践的建设量子计算机过程里面,现在取得了相当大的进步,我现在就把现在世界上做量子计算机所用的科学技术介绍一下。

  我们现在基本上经过这20多年的努力,科学家已经了解到什么样的材料是最适合做量子计算机的,而且知道这个蓝图基本上是有了,但是它还是一个非常难的实践过程。

  现在大家已经可以听到,也许在以后的半年、一年有很多地方都会宣布,能够有50个量子比特、100个量子比特的机器。这些当然令人兴奋,这离实用还差的很远,大家都还没有考虑怎么纠错,因为在量子计算机里面纠错是一个非常难的问题,我们可以看到我们现在进到了最后一里路,但也是非常长的一里路。

  现在有用超导做量子比特,也有用离子来做量子比特,甚至用钻石做量子比特,它们都各有优劣。比如说钻石,我们大家都喜欢钻石,但是它真正的好处是,它是一个固体,同时能够在常温工作,不需要用很多的冰箱来冰它,如果有一天要做一个钻石量子计算机,像钻石量子计算机又赏心悦目又有面子,你就可以放在你的桌子上。

  另外还做一些拓扑的量子计算,对纠错特别好的,我们在6年以前觉得这个时机已经到了,理论都已经成熟了,工作也都知道往哪个方向,所以我们成立一个量子计算机所,在这个中心里面,所有的科技我们都做,我们经过这六年,已经成为世界上相当知名的一个量子计算机中心。

  我随便讲一些我们的工作,譬如说我们做出第一个能够纠错的量子计算机,虽然只是在一个很小的基础上做。

  另外还做一些事情,在量子计算机里面最重要的事情是要做记忆,做记忆两个事情很重要,一是它需要有很多的存储,我们最近的一个工作就是在原子上面能够做出225个记忆体,这个比以前增加了10倍。

  另外,我们还希望量子比特存储得久,不能说0.01秒就消失了,我们最近做的一项工作,用的是离子的量子计算。离子很有意思,它是先把原子用电离的方式变成离子,然后用镭射固定、冷却,同时操纵它。我们有一个新的观念,能够做出一个存储很久的量子存储。不只用一种离子,是用两种不同的离子,就是一个离子来做存储,另外一个离子帮它的忙,给它散热,所以这个时间比以前增加很多倍。

  最后,我讲讲量子计算在科学里面占什么样的地位,我想和大家说,对我来讲最兴奋的将来,就是我们现在两个最热门的题目,量子计算和人工智能可以结合在一起。因为人工智能可以是人类想要了解自然界,怎么样做出这么聪明的人,我们想要达到这个境界。

  如果说,我们能够把量子计算用到这个里面,我们可能比大自然更聪明,所以在量子计算和人工智能中间,我们也在做一些工作。

  站在我们现在的视角,我们看到这个宇宙,宇宙给了我们两个很大的挑战,第一个就是宇宙告诉我们,量子物理能够做出一个很精妙的事情,如果没有量子计算机我们就不能引领它。在软件方面,我们人类能不能到达大自然所做出来的,孕育出来的物种。

  我们如果能够把量子计算机和AI放在一起,就有可能做出连大自然都没有想到会有如此结果的事情,谢谢大家!

  - END -


原文发布时间为:2017年03月06日
本文作者:和讯名家
本文来源:好奇心日报,如需转载请联系原作者。

目录
相关文章
|
1月前
|
存储 人工智能 算法
【AI系统】计算与调度
本文探讨了计算与调度的概念,特别是在神经网络和图像处理中的应用。通过分离算法定义和计算组织,Halide 等工具能够显著提升图像处理程序的性能,同时保持代码的简洁性和可维护性。文章详细介绍了计算与调度的基本概念、调度树的构建与约束,以及如何通过调度变换优化计算性能。此外,还讨论了自动调优方法在大规模调度空间中的应用,展示了如何通过探索和预测找到最优的调度方案。
47 0
|
1月前
|
存储 人工智能 算法
【AI系统】计算图的优化策略
本文深入探讨了计算图的优化策略,包括算子替换、数据类型转换、存储优化等,旨在提升模型性能和资源利用效率。特别介绍了Flash Attention算法,通过分块计算和重算策略优化Transformer模型的注意力机制,显著减少了内存访问次数,提升了计算效率。此外,文章还讨论了内存优化技术,如Inplace operation和Memory sharing,进一步减少内存消耗,提高计算性能。
125 34
【AI系统】计算图的优化策略
|
16天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与情感计算:AI如何理解人类情感
人工智能与情感计算:AI如何理解人类情感
113 20
|
8天前
|
人工智能 运维 Serverless
云端问道8期方案教学-基于Serverless计算快速构建AI应用开发
本文介绍了基于Serverless计算快速构建AI应用开发的技术和实践。内容涵盖四个方面:1) Serverless技术价值,包括其发展趋势和优势;2) Serverless函数计算与AI的结合,探讨AIGC应用场景及企业面临的挑战;3) Serverless函数计算AIGC应用方案,提供一键部署、模型托管等功能;4) 业务初期如何低门槛使用,介绍新用户免费额度和优惠活动。通过这些内容,帮助企业和开发者更高效地利用Serverless架构进行AI应用开发。
|
1月前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
1月前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
20天前
|
存储 人工智能 运维
面向AI的服务器计算软硬件架构实践和创新
阿里云在新一代通用计算服务器设计中,针对处理器核心数迅速增长(2024年超100核)、超多核心带来的业务和硬件挑战、网络IO与CPU性能增速不匹配、服务器物理机型复杂等问题,推出了磐久F系列通用计算服务器。该系列服务器采用单路设计减少爆炸半径,优化散热支持600瓦TDP,并实现CIPU节点比例灵活配比及部件模块化可插拔设计,提升运维效率和客户响应速度。此外,还介绍了面向AI的服务器架构挑战与软硬件结合创新,包括内存墙问题、板级工程能力挑战以及AI Infra 2.0服务器的开放架构特点。最后,探讨了大模型高效推理中的显存优化和量化压缩技术,旨在降低部署成本并提高系统效率。
|
1月前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】计算图原理
本文介绍了AI框架中使用计算图来抽象神经网络计算的必要性和优势,探讨了计算图的基本构成,包括标量、向量、矩阵、张量等数据结构及其操作,并详细解释了计算图如何帮助解决AI工程化中的挑战。此外,文章还通过PyTorch实例展示了动态计算图的特点和实现方法,包括节点(张量或函数)和边(依赖关系)的定义,以及如何通过自定义Function实现正向和反向传播逻辑。
82 7
【AI系统】计算图原理
|
20天前
|
存储 人工智能 芯片
面向AI的服务器计算互连的创新探索
面向AI的服务器计算互连创新探索主要涵盖三个方向:Scale UP互连、AI高性能网卡及CIPU技术。Scale UP互连通过ALink系统实现极致性能,支持大规模模型训练,满足智算集群需求。AI高性能网卡针对大规模GPU通信和存储挑战,自研EIC网卡提供400G带宽和RDMA卸载加速,优化网络传输。CIPU作为云基础设施核心,支持虚拟化、存储与网络资源池化,提升资源利用率和稳定性,未来将扩展至2*800G带宽,全面覆盖阿里云业务需求。这些技术共同推动了AI计算的高效互联与性能突破。
|
1月前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】计算图的控制流实现
计算图作为有向无环图(DAG),能够抽象神经网络模型,但在编程中遇到控制流语句(如if、else、while、for)时,如何表示成为难题。引入控制流后,开发者可构建更复杂的模型结构,但部署含控制流的模型至不支持Python的设备上较为困难。目前,PyTorch仅支持Python控制流,而TensorFlow通过引入控制流原语来解决此问题。计算图的动态与静态实现各有优劣,动态图易于调试,静态图利于优化。
49 5
【AI系统】计算图的控制流实现

热门文章

最新文章