马库斯再批深度学习:20年毫无进展,无法处理语言复杂性

简介:

Gary Marcus是纽约大学心理学与神经科学教授,但在AI领域,他更知名的是一直高调参与人工智能辩论。

Marcus称自己是“AI contrarian”。什么是“contrarian”?就是专门反对或批评流行观点的人。在AI领域,流行观点就是“深度学习”。

今年初,Marcus撰文批判深度学习,与Yann Lecun、AAAI前主席Thomas Dietterich等一众AI研究者展开激辩。

在批判深度学习的文章中,Marcus概括了深度学习的十大挑战,直言深度学习本身虽然有用,但它不可能实现通用人工智能。他建议把深度学习视为“一种非普遍的解决方法,而只是一种工具。”

他说:“相比纯粹的深度学习,我呼吁混合模型,不仅包括深度学习的监督形式,还包括其他技术,例如符号处理(symbol-manipulation),以及无监督学习(它本身也可能被重新概念化)。我也敦促社区考虑将更多的内在结构纳入AI系统。”

近日,Marcus在medium上发表文章《Bengio vs Marcus,以及神经网络语言模型的过去、现在和未来》 ,在这篇文章里,Marcus回应了Bengio实验室最近关于“当前的深度学习技术不足以应对自然语言的复杂性”的研究,认为该研究与他的观点不谋而合。

新智元对该文章编译如下:

过去

长期以来,很多研究人员担心神经网络是否能够有效地泛化(generalize),以捕捉语言的丰富性。这一直是我的工作的一个主题,从20世纪90年代以来就是如此。在我之前,认知科学领域的Fodor,Pylyshyn,Pinker以及Prince等人1988年就提出了非常类似的观点。Brenden Lake和他的合著者在今年早些时候也提出了类似的观点。

我在今年一月写了一篇关于这个话题的文章:

当可用的训练数据量有限时,或者当测试集与训练集的区别很大时,或者当示例空间非常大且充满新示例时,深度学习系统的表现就不那么好了。鉴于现实世界的局限性,有些问题根本不能被视为分类问题。比如说,开放式的自然语言理解就不应被认为是两个大型有限句子集间的映射,而是一个潜在的无限的输入句子范围和一个同样大的含义范围的映射,而且这里面很多是以前从来没有遇到过的。

现在

最近,Yoshua Bengio和他实验室的研究人员就写了一篇论文,从神经网络社区内部认同了认知科学界的一群外人(包括我自己)长期以来的观点:当前的深入学习技术实际上无法处理语言的复杂性。

这篇论文题为“BabyAI: First Steps Towards Grounded Language Learning With a Human In the Loop”,论文摘要里写道:

我们提出了强有力的证据,表明当前的深度学习方法在学习一门具有构式特征(compositional properties)的语言时,缺乏足够的样本效率。

0eb6b2b3f3aa11674f5f1fbab8827e65e3c95da7

这是一个非常普遍的问题,然而之前的文献完全没有讨论过。

无论如何,我很高兴Bengio的实验室跟我一直以来的观点是一致的,如我在Twitter上说:

关于深度学习及其局限性的大新闻:Yoshua Bengio的实验室证实了Marcus在2001年和2018年得出的一个关键结论:深度学习在数据处理方面不够有效,无法应对语言的构式本质。

论文地址如下:arxiv.org/abs/1810.08272

我的言论经常引起深度学习界许多人的反感。但Bengio回复的一条Facebook帖子引起了我的注意,他说:

这里的结论似乎有些迷惑性。根据我们的实验,我们是说目前的DL+RL在学习理解构式语言所需的样本复杂性方面还不能令人满意。但这与Gary的结论大不相同,因为我们相信我们可以继续取得进步,并在现有的深度学习和强化学习的科学基础上进行扩展。Gary明确地认为“深度学习的数据效率不足以处理语言的构式本质”,而我们认为当前的DL技术还可以增强,可以更好地应付的构式,这是系统泛化所必须的。这正是我们正在进行的研究,可以参考我的论文“The Consciousness Prior”。(https://arxiv.org/abs/1709.08568)

实际上,Bengio的意思是:我们还没有到达那个技术水平。

也许是这个意思。话又说回来,也许不是这个意思。也许深度学习就是永远无法让我们达成目标。我们至少需要考虑这种可能性。

20年前,我首次提出了这个观点——从反向传播工作的方式出发提的。在那时,出现了很多关于未知机制和未来成功的承诺。

这些承诺至今仍未兑现——20年过去了。投入进这些研究的资金达数十亿美元,而深度学习在语义合成性(compositionality)方面没有取得任何显著的进展。

在过去20年里唯一真正改变的是,神经网络社区终于开始注意到这个问题了。

未来

Bengio和我在很多方面都有共识。我们都认为现有的模型不会取得成功。我们都同意深度学习必须增强(augmented)。

然而问题是,增强是什么呢。

Bengio可以自由地阐述他的观点。

我的观点与我过去20年来的预测毫无二致:深度学习必须增强,借鉴经典符号系统的一些操作,也就是说我们需要混合模,充分利用最好的经典AI(允许显式地表示阶级性结构和抽象的规则),并将其与深度学习的优势相结合。

许多(不是所有)神经网络的拥护者都试图避免在他们的网络中添加这样的东西。这并不是不可能的;这是普遍观念的问题。当然,仅靠深度学习目前还无法解决这个问题。也许是时候尝试别的方法了。

我不认为深度学习无法在自然理解方面发挥作用,只是我认为深度学习本身无法成功。

我的预测不变:如果没有固有的组合性工具来表示规则和结构化表示,语言理解的神经网络模型仍然几乎无法取得进展。


原文发布时间为:2018-10-31

本文作者:Gary Marcus  编辑:肖琴

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。

原文链接:马库斯再批深度学习:20年毫无进展,无法处理语言复杂性

相关文章
|
1月前
|
机器学习/深度学习 边缘计算 算法
探索深度学习在图像识别中的应用进展
随着人工智能技术的飞速发展,深度学习已成为推动计算机视觉领域革新的核心力量。本文旨在综述深度学习在图像识别任务中的最新应用进展,分析其关键技术突破及面临的挑战,并对未来发展趋势进行展望。通过深入探讨卷积神经网络(CNN)的优化策略、数据增强技术以及迁移学习的实践案例,揭示深度学习如何有效提升图像识别的准确度与效率。此外,文中还将讨论计算资源限制、模型泛化能力不足等现实问题,并提出可能的解决方案。本研究不仅为图像识别领域的研究者和实践者提供了宝贵的参考,同时也为深度学习技术的未来创新指明了方向。
|
1月前
|
机器学习/深度学习 传感器 人工智能
基于深度学习的图像识别技术进展
【2月更文挑战第30天】 随着人工智能领域的飞速发展,图像识别技术已经取得了显著的进步。本文将深入探讨基于深度学习的图像识别技术的最新发展,包括卷积神经网络(CNN)的优化、数据增强方法、迁移学习、以及对抗性网络的应用。我们将分析这些技术如何提高图像识别的准确性和效率,并讨论它们在不同应用场景中的潜在影响。通过综合当前研究趋势和实验成果,本文旨在为未来图像识别技术的发展提供参考和启示。
|
1月前
|
机器学习/深度学习 边缘计算 人工智能
深度学习在图像识别中的应用进展
【2月更文挑战第30天】 随着人工智能技术的飞速发展,深度学习作为其核心动力之一,在图像识别领域取得了显著成就。本文聚焦于深度学习在图像识别任务中的最新应用进展,首先回顾了深度学习技术的基本概念及关键技术,接着分析了卷积神经网络(CNN)在图像分类、目标检测和语义分割等任务中的应用实例,并探讨了模型优化、数据增强以及迁移学习等提升识别性能的策略。最后,文章总结了当前面临的挑战和未来的发展趋势,为后续研究提供参考。
|
1月前
|
机器学习/深度学习 边缘计算 计算机视觉
深度学习在图像识别中的应用进展
【2月更文挑战第29天】本文综述了深度学习技术在图像识别领域的最新进展。首先介绍了深度学习的基本原理及其在图像处理中的关键作用,然后深入分析了卷积神经网络(CNN)在图像分类、目标检测和语义分割等方面的应用实例。通过比较不同模型架构和训练策略,揭示了深度学习在提高识别准确率、处理速度及模型泛化能力方面的创新点。最后,讨论了目前面临的挑战以及未来发展趋势,旨在为相关领域的研究者提供参考和启示。
|
9天前
|
机器学习/深度学习 人工智能 监控
基于深度学习的图像识别技术进展
【4月更文挑战第17天】 随着人工智能领域的飞速发展,图像识别技术作为其重要分支之一,在多个领域内取得了显著的成就。本文旨在综述近年来基于深度学习的图像识别技术的关键进展,并探讨其在实际应用中的表现与挑战。文中首先概述了深度学习在图像处理中的基本概念和关键技术,随后详细分析了卷积神经网络(CNN)在图像分类、目标检测以及语义分割等方面的应用实例。此外,文章还着重讨论了数据增强、迁移学习、对抗性网络等先进技术对提升模型性能的影响。最后,本文提出了目前技术面临的主要问题和未来可能的研究方向。
|
14天前
|
机器学习/深度学习 监控 算法
深度学习在图像识别中的应用进展
【4月更文挑战第12天】随着人工智能技术的飞速发展,深度学习已经成为推动计算机视觉领域尤其是图像识别技术革新的核心力量。本文将深入探讨深度学习技术在图像识别任务中的最新应用进展,包括卷积神经网络(CNN)的优化变体、图像处理的新算法、以及迁移学习等策略。通过分析不同网络结构和训练技巧的优势及其在实际问题中的应用效果,旨在为读者提供对当前图像识别领域技术趋势的全面了解。
|
23天前
|
机器学习/深度学习 边缘计算 人工智能
深度学习在图像识别领域的应用进展
【4月更文挑战第4天】 随着人工智能技术的迅猛发展,深度学习已成为推动计算机视觉特别是图像识别技术革新的核心力量。本文聚焦于深度学习在图像识别领域的应用进展,从基础理论到实践应用,系统地梳理了卷积神经网络(CNN)的演进、优化策略以及面临的挑战和解决方案。通过对最新研究成果的综述,本文旨在为读者提供一个清晰的技术蓝图,揭示深度学习如何不断突破限制,提升图像识别的准确性与效率。
|
28天前
|
机器学习/深度学习 人工智能 监控
深度学习在图像识别中的应用进展
随着人工智能领域的飞速发展,深度学习技术在图像识别任务中取得了革命性的进步。本文将探讨深度学习模型特别是卷积神经网络(CNN)在图像识别中的应用,并分析其优势与面临的挑战。通过回顾最新的研究进展和案例研究,我们将展示深度学习如何推动图像识别技术的边界,以及它在不同领域中的应用前景。
|
1月前
|
机器学习/深度学习 人工智能 算法
探索深度学习在图像识别中的应用进展
【2月更文挑战第29天】 随着人工智能领域的迅猛发展,深度学习技术已成为推动计算机视觉进步的核心动力。本文聚焦于深度学习在图像识别任务中的最新应用进展,探讨了卷积神经网络(CNN)的优化策略、数据增强技巧以及迁移学习的实践案例。通过分析当前的研究动态和面临的挑战,本文旨在为读者提供一个关于深度学习在图像识别领域应用的全面视角,同时对未来发展趋势进行预测。
15 0
|
1月前
|
机器学习/深度学习 算法 计算机视觉
深度学习在图像识别中的应用进展
【2月更文挑战第27天】 随着人工智能技术的迅速发展,深度学习已经成为推动计算机视觉领域进步的核心动力。本文综述了深度学习技术在图像识别任务中的新近应用与突破,重点分析了卷积神经网络(CNN)的演进、数据增强策略、损失函数的创新以及优化算法的发展。此外,文中探讨了迁移学习、自监督学习等前沿技术对提升模型泛化能力的作用,并对未来研究方向和技术挑战进行了展望。通过梳理这些关键技术点,旨在为图像识别领域的研究者和实践者提供一份参考和启示。
26 3