雷锋网(公众号:雷锋网) AI 科技评论按:「量子优势」这个概念是科技公司大多公开表达或半公开支持一种说法,即量子计算机的计算性能超越史上最强的经典计算机。在通往「量子优势」这条道路上,IBM 可谓是一位超级积极分子。日前,IBM 发布博文介绍了其在《自然》上发表的一篇名为《使用量子强化特征空间的监督学习》的论文所提出的一种量子算法,称该算法有望在不远的将来让量子计算机实现机器学习。雷锋网 AI 科技评论编译如下。
我们对于未来量子计算强大的处理能力寄予厚望,希望它有朝一日推动人工智能实现指数级发展。当用于训练 AI 系统的机器学习算法获得了大量数据来摄取、分类和分析时,AI 系统也随之迎来了繁荣发展。根据特定特性或特征进行的数据分类越精确,AI 的性能就越高。量子计算有望在机器学习中发挥关键的作用,包括访问更多计算复杂的特征空间等至关重要的部分——数据的细粒度方面的提高或许能够为该领域带来新思路。
在刊登于《自然》的一篇名为《使用量子强化特征空间的监督学习》(「Supervised learning with quantum enhanced feature spaces」,论文阅读地址:https://www.nature.com/articles/s41586-019-0980-2)的新研究论文中,IBM 提出并测试了一种量子算法,该算法有望在不远的将来让量子计算机实现机器学习。同时,他们也展示了,随着量子计算机的性能在未来几年日益增强以及其「量子体积」(Quantum Volume)日益增大,它们能够在高度复杂的数据结构上,以即便是最强大的经典计算机也望尘莫及的规模执行特征映射这一机器学习的关键操作。
同时,IBM 提出的这一方法还能够使用短型系统电路(short-depth circuits)对数据进行分类,从而为处理退相干(decoherence)开辟出一条道路。同样重要的是,该方法实现的特征映射与所预期的一样:即使 IBM Q 系统的处理器出现了退相干问题,它的工程数据也不会出现分类错误。
更大、更好的图像
特征映射是一种分解数据以访问该数据的细粒度部分的方法。经典和量子机器学习算法都可以对图像进行分解,例如,通过分解像素并根据每个像素的颜色值将这些像素放置在一个网格中的方式来分解图像。同样地,算法将单个数据点非线性地映射到高维空间,再根据其最基本的特征进行数据分解。在更大多的量子状态空间中,IBM 实现的这种特征映射,在分离该数据的各部分和特征上的表现要比经典机器学习算法创建的特征映射更好。最终,根据特定特点或特征进行的数据分类越精确,AI 的性能也就越好。
该方法的目标是使用量子计算机创建能够生成更复杂的数据映射的新分类器。这样的话,研究人员将能够开发出更有效的 AI,例如,可以识别经典计算机无法识别的数据模式的 AI。
IBM 为新的量子数据分类算法和特征映射制定了蓝图。这对于 AI 来说非常重要,因为数据集越大、越多样化,将数据分成有意义的类以训练机器学习算法就越困难。机器学习处理的分类结果如果不佳,就可能会造成最终结果也不理想:就比如说,会降低医疗设备根据乳腺 X 线摄影数据识别癌细胞的能力。
噪音问题
IBM 还表示,他们发现测试过程中即便存在噪音,他们也可以继续对其工程数据进行分类。而现在的量子计算机即使在高度受控的实验室环境中,将比特维持在量子状态也很难超过几百微秒。对于量子比特来说,这很重要,因为它要想执行计算,保持在量子状态的时长就要足够长。
IBM 的算法展示了量子纠缠(entanglement)如何提高 AI 分类的准确性,同时,该算法将作为 IBM Qiskit Aqua 的 一部分对外开放。Qiskit Aqua 是一个量子算法开源库,开发者、研究人员以及行业专家都可以利用它,通过经典应用程序和常见的编码语言(如 Python)访问量子计算机。
Qiskit Aqua开源地址:
https://github.com/Qiskit/qiskit-tutorials/blob/master/qiskit/aqua/artificial_intelligence/qsvm_kernel_classification.ipynb
IBM 表示,现在他们距离实现机器学习的「量子优势」(Quantum Advantage)项目还很远,不过一旦该项目最终实现,量子计算机在执行 AI 算法上的性能将远超经典计算机。同时,他们的研究还尚未对「量子优势」实现论证,因为他们受限于当前的硬件能力将计算问题的范围最小化了,同时也仅使用 2 个比特的量子计算容量——这样才可以在经典计算机上进行模拟。不过,他们正在推进的特征映射方法,不久后就能够对比经典计算机能够处理的更复杂得多的数据集进行分类。「我们开拓了一条前景光明的道路。」雷锋网
via:https://www.ibm.com/blogs/research/2019/03/machine-learning-quantum-advantage/