IBM推出新的16位量子处理器

简介:

IBM一年前在公有云里向研究人员开放了5位量子处理器。IBM日前推出一个更先进的新量子处理器,其功能也更强大。

IBM为公众提供新的16位量子处理器

新的量子处理器将为科学社区提供16位量子计算,可用于探索量子计算技术的潜在应用。据IBM称,量子计算机的处理能力十分强大,一些行业的研究人员可望利用量子计算在研究上取得重大突破,特别是在机器学习和科学建模等领域里。量子计算之所以强大是因为量子位比常规机器中的比特(二元)位能储存更多的信息,因此在执行某些操作时速度要快很多。

据Ars Technica估算, IBM新推出的16位量子处理器的性能与之前的5位量子处理器比提高了40%。比较是基于所谓的“量子容量”差异,量子容量是Ars Technica开发出来的一种新的测量单位,用于评估量子系统的性能。旧的评估方法存在不足,在比较不同类型的实现时基本没有用,现在用的评估方法是量子容量。

IBM的目标是提供更客观的、考虑了广泛因素的比较基准,包括系统里量子位的保真度、数量和电路连接性。假如IBM能达到目标,对科学界来说无疑是一大福音。同时,IBM的商业化活动也将获益。

IBM目前正在努力开发推动化学模型建模、人工智能项目和其他前沿研究的生产线档次的量子计算机。 IBM在对抗竞争时需要一个可靠的手段向潜在客户推销自己的产品,新的评估方法大可成为此类可靠的手段。

IBM开始在用于对抗竞争的评估方法这样的细节上下功夫,这反映出量子计算在快速成熟。按照目前的发展速度,量子计算技术可望在不久的将来进入黄金时段。

IBM在推出16位量子系统的同时还公布,更高级的17位量子系统的原型(如上图所示)已经研制完毕,17位量子系统的性能预计为16位量子系统的“至少两倍”。IBM科学与解决方案部门负责人Dario Gil告诉记者,计划是向用户销售硬件方面的时间,类似于IBM提供的云基础架构模式。 IBM期望在几年后生产旗下首个50位量子计算机。

本文转自d1net(转载)

相关文章
|
架构师 量子技术 芯片
433个量子比特!IBM发布最大超导量子计算机,比特数量超谷歌7倍
433个量子比特!IBM发布最大超导量子计算机,比特数量超谷歌7倍
345 0
|
人工智能 算法 量子技术
2023年超过1000量子比特!IBM公布量子计算开发路线图
为了在5年内实现量子计算商业应用,IBM称,它有具体方案来提升其量子硬件的功率和可靠性。IBM的Qiskit的开源量子编程框架将帮助应用程序实现「100倍」加速,这样,目前需要花费几个月时间处理的工作可以在几小时内完成。
203 0
2023年超过1000量子比特!IBM公布量子计算开发路线图
|
搜索推荐 编译器 测试技术
官宣!IBM计划2023年打造超1000量子比特计算机
IBM 首次公布了其量子计算硬件的未来路线图。到2023年底,IBM将建立一个超过1000个量子比特的量子计算机,其中逻辑量子比特在10到50个之间 。「2020创新之源大会将于9月22日在中关村软件园召开,详细信息见文末海报,欢迎报名!」
237 0
官宣!IBM计划2023年打造超1000量子比特计算机
|
存储 量子技术 云计算
IBM:我有18台量子计算机,年底突破100万量子比特,无惧霍尼韦尔离子阱机打擂台
IBM研究部主管Gil认为,计算在未来将是经典程序、量子计算电路库、受人脑神经元启发的计算机的三者融合,年底将抛出杀手锏,同时运行超100万个量子比特,欢迎霍尼韦尔离子阱机竞争。
345 0
IBM:我有18台量子计算机,年底突破100万量子比特,无惧霍尼韦尔离子阱机打擂台
|
存储 算法 量子技术
IBM直怼谷歌「实现量子霸权」:1万年太久,经典计算机只需2天半
上个月,谷歌「实现量子霸权」的消息占据各大媒体的头版头条。《财富》、《金融时报》等多家外媒报道称,谷歌用一台 53 量子比特的量子计算机实现了传统架构计算机无法完成的任务,在世界第一超算需要计算 1 万年的实验中,谷歌的量子计算机只需 3 分 20 秒。但近日,IBM 站出来反驳了这一说法,称谷歌的实验存在缺陷,「实现量子霸权」的说法也有待商榷。他们认为,在经典计算机上模拟谷歌量子计算机的结果其实只需要2.5天,而且保真度要高得多。
141 0
IBM直怼谷歌「实现量子霸权」:1万年太久,经典计算机只需2天半
|
前端开发 算法 测试技术
中科院、阿里云联合发布11量子比特云接入超导量子服务,郭光灿团队64比特量子仿真打破IBM Q记录
2 月 22 日下午,在安徽合肥中科大举办的「中国科学院量子信息与量子科技创新研究院 2018 年度工作会议」上,中科院/中科大团队发布量子计算云平台最新成果。
681 0
中科院、阿里云联合发布11量子比特云接入超导量子服务,郭光灿团队64比特量子仿真打破IBM Q记录
|
机器学习/深度学习 人工智能 算法