IBM :实现机器学习的「量子优势」还任重道远,但在特征映射方面的努力将见成效

简介: 「我们开拓了一条前景光明的道路。」

雷锋网(公众号:雷锋网) AI 科技评论按:「量子优势」这个概念是科技公司大多公开表达或半公开支持一种说法,即量子计算机的计算性能超越史上最强的经典计算机。在通往「量子优势」这条道路上,IBM 可谓是一位超级积极分子。日前,IBM 发布博文介绍了其在《自然》上发表的一篇名为《使用量子强化特征空间的监督学习》的论文所提出的一种量子算法,称该算法有望在不远的将来让量子计算机实现机器学习。雷锋网 AI 科技评论编译如下。

我们对于未来量子计算强大的处理能力寄予厚望,希望它有朝一日推动人工智能实现指数级发展。当用于训练 AI 系统的机器学习算法获得了大量数据来摄取、分类和分析时,AI 系统也随之迎来了繁荣发展。根据特定特性或特征进行的数据分类越精确,AI 的性能就越高。量子计算有望在机器学习中发挥关键的作用,包括访问更多计算复杂的特征空间等至关重要的部分——数据的细粒度方面的提高或许能够为该领域带来新思路。

在刊登于《自然》的一篇名为《使用量子强化特征空间的监督学习》(「Supervised learning with quantum enhanced feature spaces」,论文阅读地址:https://www.nature.com/articles/s41586-019-0980-2)的新研究论文中,IBM 提出并测试了一种量子算法,该算法有望在不远的将来让量子计算机实现机器学习。同时,他们也展示了,随着量子计算机的性能在未来几年日益增强以及其「量子体积」(Quantum Volume)日益增大,它们能够在高度复杂的数据结构上,以即便是最强大的经典计算机也望尘莫及的规模执行特征映射这一机器学习的关键操作。

同时,IBM 提出的这一方法还能够使用短型系统电路(short-depth circuits)对数据进行分类,从而为处理退相干(decoherence)开辟出一条道路。同样重要的是,该方法实现的特征映射与所预期的一样:即使 IBM Q 系统的处理器出现了退相干问题,它的工程数据也不会出现分类错误。

更大、更好的图像

特征映射是一种分解数据以访问该数据的细粒度部分的方法。经典和量子机器学习算法都可以对图像进行分解,例如,通过分解像素并根据每个像素的颜色值将这些像素放置在一个网格中的方式来分解图像。同样地,算法将单个数据点非线性地映射到高维空间,再根据其最基本的特征进行数据分解。在更大多的量子状态空间中,IBM 实现的这种特征映射,在分离该数据的各部分和特征上的表现要比经典机器学习算法创建的特征映射更好。最终,根据特定特点或特征进行的数据分类越精确,AI 的性能也就越好。

该方法的目标是使用量子计算机创建能够生成更复杂的数据映射的新分类器。这样的话,研究人员将能够开发出更有效的 AI,例如,可以识别经典计算机无法识别的数据模式的 AI。

IBM 为新的量子数据分类算法和特征映射制定了蓝图。这对于 AI 来说非常重要,因为数据集越大、越多样化,将数据分成有意义的类以训练机器学习算法就越困难。机器学习处理的分类结果如果不佳,就可能会造成最终结果也不理想:就比如说,会降低医疗设备根据乳腺 X 线摄影数据识别癌细胞的能力。

噪音问题

IBM 还表示,他们发现测试过程中即便存在噪音,他们也可以继续对其工程数据进行分类。而现在的量子计算机即使在高度受控的实验室环境中,将比特维持在量子状态也很难超过几百微秒。对于量子比特来说,这很重要,因为它要想执行计算,保持在量子状态的时长就要足够长。

IBM 的算法展示了量子纠缠(entanglement)如何提高 AI 分类的准确性,同时,该算法将作为 IBM Qiskit Aqua 的 一部分对外开放。Qiskit Aqua 是一个量子算法开源库,开发者、研究人员以及行业专家都可以利用它,通过经典应用程序和常见的编码语言(如 Python)访问量子计算机。

Qiskit Aqua开源地址:

https://github.com/Qiskit/qiskit-tutorials/blob/master/qiskit/aqua/artificial_intelligence/qsvm_kernel_classification.ipynb

IBM 表示,现在他们距离实现机器学习的「量子优势」(Quantum Advantage)项目还很远,不过一旦该项目最终实现,量子计算机在执行 AI 算法上的性能将远超经典计算机。同时,他们的研究还尚未对「量子优势」实现论证,因为他们受限于当前的硬件能力将计算问题的范围最小化了,同时也仅使用 2 个比特的量子计算容量——这样才可以在经典计算机上进行模拟。不过,他们正在推进的特征映射方法,不久后就能够对比经典计算机能够处理的更复杂得多的数据集进行分类。「我们开拓了一条前景光明的道路。」雷锋网

via:https://www.ibm.com/blogs/research/2019/03/machine-learning-quantum-advantage/

目录
相关文章
|
3月前
|
机器学习/深度学习 算法 数据可视化
机器学习模型中特征贡献度分析:预测贡献与错误贡献
本文将探讨特征重要性与特征有效性之间的关系,并引入两个关键概念:预测贡献度和错误贡献度。
392 3
|
4月前
|
Rust 安全 开发者
惊爆!Xamarin 携手机器学习,开启智能应用新纪元,个性化体验与跨平台优势完美融合大揭秘!
【8月更文挑战第31天】随着互联网的发展,Web应用对性能和安全性要求不断提高。Rust凭借卓越的性能、内存安全及丰富生态,成为构建高性能Web服务器的理想选择。本文通过一个简单示例,展示如何使用Rust和Actix-web框架搭建基本Web服务器,从创建项目到运行服务器全程指导,帮助读者领略Rust在Web后端开发中的强大能力。通过实践,读者可以体验到Rust在性能和安全性方面的优势,以及其在Web开发领域的巨大潜力。
46 0
|
6月前
|
机器学习/深度学习 人工智能 JSON
人工智能平台PAI产品使用合集之创建特征视图时遇到报错,该如何排查
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
6月前
|
机器学习/深度学习 存储 人工智能
人工智能平台PAI产品使用合集之选择使用Hologres作为在线特征存储,响应延时大概在多久
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
6月前
|
机器学习/深度学习 数据采集 存储
人工智能平台PAI产品使用合集之FeatureStore是否支持推荐场景下的session特征
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
6月前
|
机器学习/深度学习 人工智能 前端开发
人工智能平台PAI产品使用合集之创建了实时特征视图,里面的数据是通过什么传入的
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
5月前
|
存储 机器学习/深度学习 人工智能
人工智能平台PAI使用问题之特征平台是否可以与Java进行对接
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
6月前
|
机器学习/深度学习 算法 C++
机器学习归一化特征编码(二)
这篇文档讨论了机器学习中的特征编码,特别是独热编码(OneHotEncoder)在处理离散变量时的作用。它指出,对于多分类变量,独热编码是常用方法,但对二分类变量通常不需要。在Python的`sklearn`库中,`OneHotEncoder`可以用来实现这一过程,并可以通过设置`drop='if_binary'`来忽略二分类变量。文档还提到了逻辑回归,解释了正则化参数`C`和`penalty`,并列举了不同的优化算法,如`liblinear`、`lbfgs`等。
|
6月前
|
机器学习/深度学习 API Python
机器学习特征降维
这篇内容概述了特征降维在机器学习中的重要性,包括三个主要方法:低方差过滤法、PCA(主成分分析)和相关系数法。低方差过滤法通过删除方差低于阈值的特征来减少无关信息;PCA通过正交变换降低数据的维数,保留大部分信息;相关系数法(如皮尔逊和斯皮尔曼相关系数)用于评估特征间的相关性,去除高度相关的特征以简化模型。这些技术有助于提高模型效率和泛化能力。
|
6月前
|
机器学习/深度学习 算法 数据处理
机器学习归一化特征编码(一)
特征缩放是机器学习预处理的关键步骤,它包括归一化和标准化。归一化通过最大最小值缩放,将数据转换到[0,1]区间,有助于梯度下降算法更快收敛,减少数值较大特征的影响。标准化则通过减去均值并除以标准差,确保数据具有零均值和单位方差,适用于关注数据分布情况的算法。例如,欧氏距离计算时,未归一化的特征可能导致模型偏向数值较大的特征。归一化能提升模型精度,尤其是当距离度量如欧式距离时。常见的实现方法有`MinMaxScaler`,它将每个特征值缩放到用户指定的范围,如[0,1]。而`StandardScaler`执行Z-Score标准化,数据分布符合标准正态分布。