提升人工智能效率 量子计算比经典算法节省时间

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

量子计算机有望提供更强的计算能力。量子计算机提供了另一条增强计算能力的思路。它并行计算的特性,使得它可以一次同时处理多个任务,有望实现计算能力上的超越。

量子计算的算力呈指数级增长

量子计算的核心优势是可以实现高速并行计算。在计算机科学中,无论经典计算还是量子计算,他们的计算功能的实现都可以分解为简单的逻辑门的运算,包括:“与”门, “或”门,“非”门,“异或”门等。简单来讲,每一次逻辑门的运算(简称操作)都是要消耗一个单位时间来完成。

经典计算机的运算模式通常是一步一步进行的。它的每一个数字都是单独存储的,而且是逐个运算。所以对于 4 个数字进行同一个操作时,要消耗 4 单位时间。而量子计算中,一个 2 个量子比特的存储器可以同时存储 4 个数字,这里一个量子态可以代表所有存储的数字。


科学家通过特定设计对量子态进行一次变换,即可对 4 个数字同时操作,而且只消耗 1 单位时间。这种变换相当于经典计算的逻辑门,实现了对存储器中的数字并行运算,这被称为量子并行计算。可以看到,当量子比特数量越大时,这种运算速度的优势将越明显。它可以达到经典计算机不可比拟的运算速度和信息处理功能。

量子计算机的量子比特数量以指数形式增长,算力将以指数的指数增长。对于量子计算机,在半导体材料和超导材料等领域,科学家也已经积累了数十年的理论与经验。


现有最有希望的量子计算机方案之一就是低温超导系统,它涉及了半导体材料与超导材料的应用,主要是基于硅晶体,掺杂一定量的超导材料,实现量子计算。而现有的技术积累将极大促进该方案的发展与快速突破,用更短的时间(相比与经典计算机)实现大规模的商业化应用。

可以看到,量子计算机的量子比特数量以指数增长的形式快速上升,从 2003 年起的 1 位量子比特,到 2013 年 512 位量子比特的计算机,再到 2015 年实现 1000 位量子比特。目前,非通用型量子计算机的已经实现了 1000 位量子比特,在特定算法上(比如模拟退火,一种优化方法),计算效率比经典计算机要快一亿倍。


量子计算机的全球商业化进程加速

量子计算机经过近 40 年的时间的理论研究阶段,在 2007 年首次实现硬件方面商业化。目前发展迅速的是非通用型量子计算机,而通用型量子计算机还处于起步阶段。我们认为,通用型量子计算机和非通用型量子计算机最终将在市场上共存,并最终共同向经典计算机的市场份额发起挑战。


2007 年,D-wave Systems 实现了历史上第一台商用量子计算机。宣布研制成功16量子比特的量子计算机——“猎户座”(Orion)。D-wave 公司的量子计算机是用超导量子器件做成的。所使用量子计算机方式是绝热量子计算,是将量子计算体系放置在体系的基态,而最终的计算结果就是最后的量子体系的基态。

2011 年 5 月 11 日,该公司正式发布了全球第一款商用型量子计算机“D-Wave One”,实现了 128 位量子比特。它不是通用量子计算机,并不能运行所有的量子算法。D-wave 实际上是一台量子退火机 (quantum annealing machine),在图像搜索方面确实具有优势。

Google 和 NASA 花1000 万美金买一台 D-wave,共同建立了 Quantum AI Lab。2013 年它研制出的产品D-wave Two,实现了 512 位量子比特,并将其销售给了 Google,用于 Google 内部的量子计算的相关研发。截止到 2014 年,该公司的累计融资总额达到 1.6 亿美元。

 

量子人工智能算法相比经典算法节省大量时间

与经典计算机不同,量子计算机使用经典算法,将无法实现并行计算。经典计算机的计算核心使用的是中央处理器,是一种基于半导体理论设计的电子芯片,用于串行运算。而量子计算机中,它的计算核心是量子芯片,通过量子的叠加性带来了并行运算的能力,替代传统的电子芯片。

可以看到,量子计算机与经典计算机的物理实现的完全不同,如果在量子计算机中使用经典算法的话,那么量子芯片将和普通电子芯片发挥基本相同的功能,只能实现串行计算。这是由于设计经典算法时,其设计思想是基于串行运算而得到的,这是经典算法自身的局限性。


需要设计相应的量子人工智能算法,才能实现量子计算的超强算力。这种专门面向量子计算设计的人工智能算法被称为量子人工智能算法。近些年,在量子人工智能算法研究放面,谷歌开始建立量子人工智实验室,包括微软等在做一些人工智能方面的东西。

这几年开始,甚至在 AlphaGo 出来之前,在学界就已经有一些研究成果。人工智能里面的分类问题,是大数据中常见的任务,根据已有的数据体现规律,判断新数据是属于哪一类。MIT 的研究小组在这方面已经取得了理论进展,实现了相应的量子人工智能算法。相比于经典算法,该量子算法实现了指数级的加速效果。


量子计算提升人工智能效率,拓展应用场景

在很多应用领域,人工智能需要拥有快速处理数据、快速响应的能力。比如智能驾驶等应用场景,对于人工智能的反应速度要求很高。再比如手机上的人工智能系统,对于数据的处理能力要求非常高,没法做到这么大量的数据快速传输到服务器端。这些应用场景中,亟需人工智能的硬件系统实现可移动化和快速响应能力。


服务器、云计算、量子计算是人工智能算力发展的必经阶段

随着人工智能对硬件计算能力的需求不断提升,人工智能从单机或者小型服务器模式,逐步转型为云计算模式。目前,随着人工智能应用的发展,单机或者小型服务器模式的两个劣势逐渐显现。

一方面,这种模式可提供的算力达到了一个瓶颈阶段,已无法满足人工智能对算力的需求;

另一方面,这种模式是一次性采购的,对于用户的资金压力较大,并且后期维护成本不低,需要自己搭建相应的软件环境。现阶段一种主要的解决方案思路是将人工智能应用或者服务放在云端,运用云计算平台提供更加优质廉价的人工智能服务。主要的优点是可以按照实际需求来购买计算能力,随时满足现阶段的应用需求。另一方面是付费模式相对弹性,按照使用状况来逐次结算费用,减轻资金压力。


随着数据量的急剧增长,量子计算的革命性算力才能满足人工智能的需求。数据量的增长速度是呈指数级变化的。在摩尔定律近乎失效的情况下,基于现有的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得无比漫长,甚至完全无法实现最基本的功能。

 

而量子计算机的量子比特数量以指数形式增长,也就是每两年翻一番。又因为量子计算的特点,其计算能力是量子比特数量的指数级,所以最终随着不断发展,其算力将以指数的指数增长。这个增长速度将远远大于数据量的增长,为数据爆发时代的人工智能带来了强大的硬件基础。


实际应用:量子计算可用于大数据搜索

在大数据中进行快速搜索,这是一项适用于量子计算的计算任务。经典算法只能是一个 接一个地搜寻,直到找到所要的目标为止。比如从 N 个未分类的客户中寻找出某个特定的客户,这种算法平均地讲要寻找 N/2 次,才能以 1/2 的概率找到。然而这样的搜索效率十分低下,对于各种大数据的应用场景基本不存在应用价值。


量子计算时代将拓展人工智能应用场景

从服务器到云计算,人工智能的应用场景得到了极大的拓展,我们认为量子计算也将拓展人工智能的应用场景。我们认为,人工智能的发展存在三个阶段:服务器时代、云计 算时代、量子计算时代。其中量子计算时代为人工智能带来的颠覆,除了计算能力方面,更重要的是极大地增加了应用场景。


原文发布时间为:2017-05-22
本文作者:OFweek中国高科技门户
本文来源:cnBeta,如需转载请联系原作者。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
19天前
|
机器学习/深度学习 人工智能 算法
量子计算与人工智能的融合:智能计算的新篇章
【9月更文挑战第22天】量子计算与人工智能的融合正开启智能计算的新篇章。通过利用量子计算的独特优势,人工智能领域将迎来前所未有的性能提升和全新可能性。随着技术的不断进步和应用场景的不断拓展,我们有理由相信,量子计算与人工智能的融合将引领一场科技革命,为人类社会的发展和进步做出更大贡献。
|
1月前
|
人工智能 算法 网络安全
探索未来:量子计算与人工智能的融合之路
本文将探讨量子计算和人工智能的结合可能性,以及这一结合如何改变我们的未来。我们将深入了解这两个领域的基础知识,分析它们如何相互影响,以及面临的挑战和未来的发展趋势。最后,我们将讨论这一技术革命对个人和社会可能产生的影响。
42 9
|
29天前
|
人工智能 供应链 算法
揭秘未来科技:量子计算与人工智能的融合之路
在探索未知的道路上,科技总是以令人惊叹的速度前进。本文将带你穿越至技术的前沿,解锁量子计算和人工智能这两大科技巨人的秘密联盟。我们将一窥它们如何共同塑造未来,以及这一结合将如何影响我们的生活和工作。准备好了吗?让我们开始这场思想的旅程!
54 3
|
14天前
|
算法 C++
如何精确计算出一个算法的CPU运行时间?
如何精确计算出一个算法的CPU运行时间?
|
1月前
|
算法 数据可视化 数据安全/隐私保护
基于LK光流提取算法的图像序列晃动程度计算matlab仿真
该算法基于Lucas-Kanade光流方法,用于计算图像序列的晃动程度。通过计算相邻帧间的光流场并定义晃动程度指标(如RMS),可量化图像晃动。此版本适用于Matlab 2022a,提供详细中文注释与操作视频。完整代码无水印。
|
2月前
|
机器学习/深度学习 人工智能 算法
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
眼疾识别系统,使用Python作为主要编程语言进行开发,基于深度学习等技术使用TensorFlow搭建ResNet50卷积神经网络算法,通过对眼疾图片4种数据集进行训练('白内障', '糖尿病性视网膜病变', '青光眼', '正常'),最终得到一个识别精确度较高的模型。然后使用Django框架开发Web网页端可视化操作界面,实现用户上传一张眼疾图片识别其名称。
73 9
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
|
2月前
|
人工智能 自然语言处理 算法
【人工智能】TF-IDF算法概述
TF-IDF算法,全称Term Frequency-Inverse Document Frequency(词频-逆文档频率),是一种在信息检索和文本挖掘领域广泛应用的加权技术。它通过评估一个词语在文档中的重要程度,来挖掘文章中的关键词,进而用于文本分析、搜索引擎优化等场景。其核心思想是:如果某个词或短语在一篇文章中出现的频率高(TF高),且在其他文章中很少出现(IDF也高),则认为这个词或短语具有很好的类别区分能力,适合用来代表这篇文章的内容。 具体而言,TF-IDF由两部分组成,即词频(TF)和逆文档频率(IDF)。词频(TF)指的是某一个给定的词在该文件中出现的频率。这个数值通常会被归一化
32 3
|
2月前
|
机器学习/深度学习 人工智能 算法
【人工智能】线性回归模型:数据结构、算法详解与人工智能应用,附代码实现
线性回归是一种预测性建模技术,它研究的是因变量(目标)和自变量(特征)之间的关系。这种关系可以表示为一个线性方程,其中因变量是自变量的线性组合。
55 2
|
2月前
|
机器学习/深度学习 人工智能 算法
【人工智能】传统语音识别算法概述,应用场景,项目实践及案例分析,附带代码示例
传统语音识别算法是将语音信号转化为文本形式的技术,它主要基于模式识别理论和数学统计学方法。以下是传统语音识别算法的基本概述
61 2
|
1月前
|
机器学习/深度学习 人工智能 算法
探索未来:量子计算与人工智能的交汇点
在科技的浩瀚星海中,量子计算与人工智能犹如两颗最亮的星,各自闪耀着耀眼的光芒。本文将带领读者一同穿梭在这两者之间的神秘通道,揭示它们如何相互促进、共同进化。我们将从量子计算的基本概念出发,探讨其对人工智能领域的深远影响,以及二者结合可能带来的技术变革和未来展望。这不仅是一场科技的盛宴,更是对人类智慧极限的一次挑战和突破。