重磅 | DeepMind新神经网络学会关系推理,还击败了人类

简介:

重磅 | DeepMind新神经网络学会关系推理,还击败了人类

雷锋网消息 Google旗下的DeepMind最近开发出了一种用于关系推理的人工神经网络,缩小了人工智能与人类在关系推理方面的差距。

你正考虑入手的房子附近有多少个公园?某家餐厅最好的晚餐和红酒搭配是什么?这些日常问题都需要用到关系推理。关系推理是高级思维的重要组成部分,而AI目前还难以掌握。不过, DeepMind的研究人员已经开发出了一种简单算法来进行关系推理,而且该算法已经在复杂图像的理解测试中击败了人类。

关系推理是一种运用逻辑,联系和比较位置、顺序以及其他实体的思维过程。人类通常十分擅长关系推理,但人工智能的两种主要模式——基于统计和基于符号计算的算法,在开发类似能力时进展十分缓慢。基于统计的AI算法——或者说机器学习——在图像识别领域表现十分出色,但它并没有运用到逻辑能力。基于符号计算的AI算法可以使用预定的规则进行关系推理,但在学习能力方面表现不佳。

神经网络的结构与神经元在大脑中的连接方式相似。它将简单的程序组合在一起,彼此协同,分析数据间的关系和规律。针对处理图像、分析语言和学习游戏等不同用途,神经网络具有不同的专门架构。DeepMind开发出了全新的关系网络,以分析比较某一特定场景中的每一组对象。DeepMind在伦敦的计算机科学家Timothy Lillicrap表示:“我们的目的很明确,就是推动该网络发现物体间存在的关系”。

Timothy和他的团队让该网络挑战了几项任务,以测试其效力。第一项任务是分析某张图片中几个物体——比如立方体、球和圆柱体间的关系。测试人员会向该网络提问,比如:蓝色的物体前面的物体,和灰色金属球右边的微小青色物体形状是否相同。据雷锋网了解,为完成这一任务,关系网络结合了其他两种神经网络的能力:一种用于识别图片中的物体,另一种用于理解测试人员的提问。根据研究人员上周发表的一篇报告(论文下载):在一系列测试中,其他机器学习算法的正确率只有42%-77%,人类的正确率可达到92%,而该关系网络的正确率高达96%,已经超越了人类。

DeepMind团队还用该网络挑战了基于语言的任务。测试中,该网络首先会接收到一些语句,比如“Sandra捡起足球”“ Sandra去办公室”。然后测试人员向其提问“足球在哪里”。在回答大多数问题时,该算法与其竞争算法表现相当,不过它在处理“Lily是一只天鹅,Lily是白色的,Greg也是一只天鹅,那么Greg是什么颜色”之类的推理问题时表现更加出色。面对类似问题时,该算法的正确率高达98%,而其他算法的正确率只有45%。最后,研究团队还让该算法分析了一段动画,动画中有十个球弹来弹去,其中一些球通过不可见的弹簧或杠杆连接在一起。仅仅通过运动轨迹,该算法就能准确判断90%的连接。研究人员还通过这种方式训练该算法识别用移动的点代替的人群。

波士顿大学计算机科学家凯特·桑科(Kate Saenko)并没有参与这该算法的开发,但他联合开发了另一个能够回答关于图像的复杂问题的算法。桑科表示,该算法的优势之一就是它在概念上非常简单。该算法取得的进步主要归功于一个方程式,后者允许该算法与其他网络相结合,正如它在完成比较物体的任务中所做的那样。研究人员发表的报告中称该算法为“一个简单的即插即用模块”,它可以让系统中的其他部分专注于它们各自擅长的领域。

加利福尼亚州斯坦福大学的计算机科学家贾斯汀·约翰逊(Justin Johnson)共同参与了第一项测试任务的设计,同时他也联合开发了一种在该任务中表现出色的算法。他说道:“测试结果令我影响深刻。” 桑科则补充道:“未来关系网络可以帮助学习社交网络,分析监控画面,或者控制自动驾驶汽车。”

约翰逊表示,要像人类一样灵活,该算法还必须学会回答更具挑战性的问题。要实现这一点,该算法不仅要学会比较两个物体,还要能比较三个物体,甚至多对物体,或者大集合中的某几组物体。他说道,“我正致力于开发能拥有自己的策略的模型”。 DeepMind正在开发的是一种特定类型,而非普适性型的关系推理网络,不过它仍然是人类在前进道路上迈出的重要一步。

via   science         雷锋网(公众号:雷锋网)编译

本文作者:刘伟

本文转自雷锋网禁止二次转载,原文链接

相关文章
|
11月前
|
机器学习/深度学习 人工智能 文字识别
LabVIEW开放神经网络交互工具包【ONNX】,大幅降低人工智能开发门槛,实现飞速推理
图形化编程,无需掌握文本编程基础即可完成机器视觉项目;支持Caffe2, PyTorch, MXNet,ML.NET,TensorRT 和 Microsoft CNTK等多种框架模型的调用并实现推理;支持Nvidia GPU、Intel等多种加速;集成了onnxRuntime加速推理引擎,实现CUDA,TensorRT加速
119 0
|
机器学习/深度学习 存储 人工智能
神经网络推理加速入门
神经网络推理加速入门
|
机器学习/深度学习 算法 芯片
|
机器学习/深度学习 算法 编译器
神经网络推理加速入门——超简单的卷积和加法融合
卷积和加法的算法融合,会在神经网络推理的性能加速上,展现出不一样的效果。
神经网络推理加速入门——超简单的卷积和加法融合
|
机器学习/深度学习 存储 人工智能
神经网络推理加速入门——转换提前
一个很简单的转换提前,就能让整个神经网络的性能提升一倍,甚至跟高!
神经网络推理加速入门——转换提前
|
机器学习/深度学习 自然语言处理 网络性能优化
|
机器学习/深度学习 人工智能 缓存
神经网络推理加速入门——循环展开
循环展开——一个很简单的性能优化方法。
神经网络推理加速入门——循环展开
|
存储 机器学习/深度学习 人工智能
神经网络推理加速入门——存储和计算的高效结合
如果把存储过程和计算过程结合起来,那么整个推理加速就能快很多。
神经网络推理加速入门——存储和计算的高效结合
|
机器学习/深度学习 人工智能 并行计算
神经网络推理加速入门——异构编程
异构编程,就像是性能提升的外挂,一个芯片不够,那就两个,两个不够,那就四个。
神经网络推理加速入门——异构编程
|
机器学习/深度学习 人工智能 算法

热门文章

最新文章