要不要先验?怎么看混合模型?Marcus和Bengio激辩AI未来

简介: Gary Marcus 对于当今人工智能研究的批判终于让深度学习先驱们坐不住了。圣诞节前夕,Marcus 与图灵奖获得者 Yoshua Bengio 进行了一次有关 AI 技术发展方向的现场辩论。

两个人想要讨论的焦点是:「符号处理和因果关系与目前 AI 发展方向之间的关系。


微信图片_20211202195628.jpg


最近在「风口浪尖上」的 Gary Marcus 是一名成功的科学家、畅销书作家、企业家,以及 Geometric Intelligence (被优步收购的机器学习初创公司) 的首席执行官和创始人。作为一名作家,他经常为《纽约客》和《纽约时报》撰稿,并且是四本书的作者。作为纽约大学心理学和神经科学教授,他在人类和动物行为、神经科学、遗传学和人工智能等领域发表了大量文章,并经常刊登在 Science 和 Nature 等期刊上。


而在另一边,Yoshua Bengio 则是最近一次计算机科学最高奖项图灵奖的获得者,以及 2020 年的 AAAI 当选 fellow。他目前任蒙特利尔大学教授、魁北克人工智能机构 Mila 的科学主管。Bengio 和 Geoffrey Hinton、Yann LeCun 一直被认为是深度学习先驱。正是他们在三十年以前发展了深度学习概念基础,从而引领了最近一次 AI 技术的爆发。12 月 21 日,Bengio 和 LeCun 又双双入选 2020 AAAI Fellow,这是对他们长期以来坚持深度学习研究和应用的一种肯定。


总体观察来看,两方争论的焦点在于符号处理(symbol manipulation)和因果关系与目前 AI 发展方向的联系。Gary Marcus 认为,符号处理对于因果关系至关重要。在人类等高级生物中,人们发现了很多分工不同的大脑区域。期望复制完整的体系结构是非常不现实的。


Yoshua Bengio 等人认为,我们可以在保持深度学习框架的同时加入因果推理,新的人工智能系统或许可以利用注意力机制,或者通过新的模块和训练框架来实现(例如元学习和基于智能体的方式)。


将因果关系引入深度学习会对通用人工智能带来切实和持久的贡献,但是利用单一架构来获取所有的认知是否现实?


Bengio 和 Marcus 都认为,双方共识和分歧的表达或许会为人工智能领域带来益处。


辩论首先由双方介绍各自的观点,然后开始根据提出的问题进行自由辩论,最后还有回答现场和网上提问的环节。


Gary Marcus:我没说深度学习没用,但是需要结合符号构建混合系统


由于长期以来对深度学习的批判,Gary Marcus 一直饱受争议。在论点陈述阶段,为了让大家更好地了解自己的真实立场,Marcus 首先回顾了自己近二十多年对于深度学习的观点和态度。这些观点包括:

  1. 承认混合模型(符号处理和模式识别都包含在内)的价值;
  2. 认识到外推(extrapolation)的重要性及纯深度学习系统的弱点;
  3. 认识到组合性(compositionality)的重要性;
  4. 认识到捕获和表征关系的重要性;
  5. 认识到因果的重要性;
  6. 认识到记忆的重要性。


微信图片_20211202195632.jpg


接下来,Gary Marcus 澄清了 Bengio 及其他人关于自己一些观点的误读,如「深度学习无用论」。


我从未说过「深度学习无用」


Gary Marcus 澄清的「深度学习无用论」主要是指最近 Bengio 在接受 IEEE 采访时所提到的内容。Bengio 在采访中曾经说道,「一些人(如 Gary Marcus)表示「看啊,深度学习没用。」但事实上,像我这样的研究者正在做的是扩展深度学习的边界。」


微信图片_20211202195634.jpg


Gary Marcus 在辩论中澄清,「我从未说过深度学习无用,只是说深度学习不是唯一的选择」。


他还表示,自己与 Bengio 的观点分歧其实主要集中在后者早期的(如 2014-2015)的一些观点,比如:1)过度信任黑箱深度网络;2)过度依赖大型数据集;3)过度看中浅层的深度学习系统,对其他方法缺乏兴趣。

微信图片_20211202195637.jpg


其实,随着深度学习缺点的逐渐暴露,Bengio 也已经意识到,单纯依赖深度学习不可能解决所有问题。


Bengio 在今年的 NeurIPS 大会上做了题为《FROM SYSTEM 1 DEEP LEARNING TO SYSTEM 2 DEEP LEARNING》的报告,指出人的认知系统包含两个子系统,一个是直觉系统(System1),主要负责快速、无意识、非语言的认知,这是目前深度学习主要做的事情;另一个是逻辑分析系统(System2),是有意识的、带逻辑、规划、推理以及可以语言表达的系统,这是未来深度学习需要着重考虑的。


所以,现在双方争论的焦点其实已经不是深度学习有没有用,而是往里面添加什么东西来构建一个更智能的混合系统。


深度学习需要加入符号处理


在构建混合系统方面,Gary Marcus 认为,深度学习应该结合符号处理。


符号主义和联结主义的争论由来已久。在深度学习的潜力被挖掘之前,符号主义一直占上风。但随着深度学习的火热,人们对联结主义的追捧似乎也已经过了头。Gary Marcus 认为,深度学习火了那么久,缺陷也暴露无遗,是时候把符号处理加进来了。


但让 Marcus 疑惑的是,Bengio 似乎对符号主义的东西不太感兴趣。他甚至在给学生的一封信中写道:「你提出的是神经符号混合系统,这个系统行不通,几代研究者都做过尝试,而且都失败了。」


对于这种悲观的态度,Marcus 反驳道,「如果要反对符号处理,那你就需要证明你的系统没有用到符号」。在他看来,Bengio 并没有做到这一点。

微信图片_20211202195643.jpg


Marcus 还反驳了 Bengio「人类大脑就是一个神经网络」的观点(下文中会提到)。他认为,现在的人工神经网络过于简单,如每个神经元只有一个自由度,而且同质化严重。


Gary Marcus 认为,「人类大脑就是一个神经网络」这一观点淡化了一个假设,即大脑有可能在算法层面是符号的,在实现层面是神经的。对于「符号在生物层面是不可行的」,Marcus 认为这种观点非常荒谬。他表示,这个问题的焦点不应该在于大脑有没有用到符号,而是在多大程度上利用了符号。


对于这个假设,Gary Marcus 表示,退一步说,即使大脑本质上是一个神经系统,AI 也不应该将符号排除在外。首先,目前还没有正式的证据表明符号无用;其次,符号已经在一些领域发挥了作用,比如谷歌的搜索引擎。谷歌使用的是深度学习+知识图谱的方式进行搜索,而且已经证明比单独使用二者的任何一个效果都要好。


Yoshua Bengio:我比较关心怎么做出 System 2


Bengio 在观点陈述阶段并未花费很多时间正面评价符号主义或 Marcus 的论点,而是具体介绍了深度学习发展中遇到的问题,以及他所认为的一些解决方法。


具体来说,Bengio 更关心的是如何升级深度学习,即 System 2 需要添加哪些东西

微信图片_20211202195646.jpg


System 2 需要重点关注 OOD,关键是注意力和意识


Bengio 认为:


  1. 传统的机器学习都是基于 IID(独立同分布),但 OOD(out of distribution)才是下一步的重要挑战;
  2. 注意力机制和意识先验都是 System 2 的关键要素。


微信图片_20211202195649.jpg


Bengio 在 NeurIPS 的报告中也表达了类似的观点,唐杰老师对报告进行了解读。


Bengio 在报告中指出,现实世界中我们感兴趣的数据往往不是 IID 的,而是 OOD(即出现次数非常少),所以我们在处理时应该更加关注 OOD,也就需要在机器学习算法中建立新的数据假设。我们需要考虑哪些因素会影响数据分布的变化,以及不同分布的可组合性等方法如何对现在的 IID 和 OOD 进行泛化。而元学习则是可能实现机器学习到 OOD 和模型快速迁移的一个办法。


而对于构建 System 2 来说,基本的要素包括:注意力和意识。


注意力(Attention)实际在目前的深度学习模型中已经有大量的实现和探讨,比如 GAT(图注意力机制)等;

微信图片_20211202195652.jpg


意识最关键的是定义到怎样的边界。Bengio 提到意识先验可以使用稀疏因子图模型来实现。稀疏因子图可以用来学习变量之间的因果关系,从而构造变量之间的因果关系。


基于规则的传统符号处理有很多问题


对于 Gary Marcus 提到的在下一代深度学习系统中加入符号主义,Bengio 表示,传统的基于规则的符号处理 AI 存在很多问题,包括:


  1. 需要高效、协调的大规模学习;
  2. 和 System 1 一样需要语义落地(semantic grounding),还需要感知动作循环(perception-action loop);
  3. 需要用于泛化的分布式表征;
  4. 像 System 1 一样需要高效搜索;
  5. 需要处理不确定性


微信图片_20211202195655.jpg


同时,Bengio 指出,他们要创建的下一代深度学习系统绝不是简单地将好的老式人工智能(Good Old-Fashioned Artificial Intelligence)与深度网络相结合。原因在于:


  1. System2 和 System1 一样需要学习;
  2. 高度抽象的概念需要「落地」,通过概率分布表示来实现泛化性;
  3. 系统需要表示出不确定性;
  4. 暴力搜索算法并不能扩展,而人类似乎是使用潜意识(System 1)处理并引导搜索,包括推理。因此 System1 和 System2 应当是紧密结合的;
  5. 我们的大脑都是神经网络;


微信图片_20211202195658.jpg


这些论点无疑反驳了 Marcus 对于在人工智能系统中引入符号计算的观点。之后,双方根据现场观众和在线留言提出的问题进行了解答。包括如何在深度神经网络中引入先验,应当引入什么样的先验知识。所谓的「人工智能的潜意识」指的是什么。最终,辩论以友好但谁也没说服谁的的方式结束。


舆论评价


对于这次辩论,舆论普遍认为:双方普遍软化了彼此的立场,从而淡化了争论中的火药味。然而,关于未来人工智能发展的路线和理论趋势,谁也没有说服谁,更遑论得出一个令人信服的结果了。


Reddit 网友:立场软化、难以信服


Reddit 上的网友对本次辩论的评价说:


微信图片_20211202200110.jpg


「双方并没有真正在辩论,甚至没有冲突。他们都没有站在一个坚定的立场上。在谈到细节上时,双方都以一个安全的立场结束,去同意对方的一些观点。」


另一位「Bengio」评论说:

微信图片_20211202200114.jpg


「本次辩论没有赢家,因为双方都有令人信服的论点。一方面,Bengio 对于人类大脑从生物学处理的噪声顶端意识到符号推理的观点是正确的。而另一方面,Marcus 认为在可学习的智能体中部署硬编码的符号算法可以提升泛化性和样本复杂度。这是到达人类级别人工智能的正确路径。


时间会给我们答案。」


ZDNet:对术语有分歧,似乎在各说各话


科技媒体 ZDNet 也对本次辩论进行了报道,ZDNet 认为双方在术语上有一些理解的分歧。各方从自己的表述中出发提出论点,而某些表述在对方看来有着不同的理解。


以符号为例,Marcus 在辩论中认为,AlphaZero 等类似的 AI 使用的就是符号系统。因为其采用的是蒙特卡洛树搜索,「对于树的追踪和搜索难道不是符号吗?」而 Bengio 则认为这不是符号,「符号必须能够区分概念。」


同样在先验问题上出现了用词的分歧问题。Marcus 批判了 Bengio 想要让神经网络抛弃先验的想法,而 Bengio 则辩护说,自己只是想让先验更少一点,最好是元先验(meta-prior),对此 Marcus 认为这和自己希望给 AI 加入先验没什么不同,只是多少的区别。


当然,Marcus 也改变了一些观点。例如,他谈到说不能将神经网络和人脑的神经系统类比,因为大脑神经元之间有很多可以被塑造的「软连接」。Bengio 很快驳斥说,神经网络中的门「Gate」控制就是这样一种软性的连接。Marcus 随即表示同意,终结了这个问题的讨论。


ZDNet 文章总结说,本次辩论的双方都是从各自的立场出发,介绍了自己的一些想法。Marcus 谈到的是人工智能应当是什么样子的,并以人类的认知方式为例,认为人工智能应当效仿人类的认知方式达到真正的智能。而 Bengio 则更多从实际出发,介绍现有的实验和工作,讲明以我们现在的技术,如何才能让当前的 AI 系统克服缺点。


总而言之,本次辩论无疑对符号主义和联结主义之间的争论进行了一次系统性的梳理和总结,更像是一次意见的交换。尽管大佬们的争论并没有达成最终的共识,但是我们可以了解到:人工智能并非只有深度学习一家,对于达成类人人工智能的路径也可能极为不同。深度学习并非最终道路,而先驱们已然孜孜探索。


以下是完整版视频:

1638446273(1).png

点击查看视频

辩论从1小时40分钟左右开始,请拖行进度条观看。


官方视频链接:https://www.facebook.com/MontrealAI/videos/498403850881660/


参考链接:https://www.jiqizhixin.com/articles/2019-12-16-4?from=synced&keyword=oodhttps://www.zdnet.com/article/devils-in-the-details-in-bengio-marcus-ai-debate/



机器之心「SOTA模型」22大领域、127个任务,机器学习 SOTA 研究一网打尽。

相关文章
|
1天前
|
人工智能 Python
ImBD:复旦联合华南理工推出 AI 内容检测模型,快速辨别文本内容是否为 AI 生成
ImBD是一款由复旦大学、华南理工大学等机构联合推出的AI内容检测器,能够快速识别机器修订文本,适用于多种场景,显著提升检测性能。
21 8
ImBD:复旦联合华南理工推出 AI 内容检测模型,快速辨别文本内容是否为 AI 生成
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
CogAgent-9B 是智谱AI基于 GLM-4V-9B 训练的专用Agent任务模型,支持高分辨率图像处理和双语交互,能够预测并执行GUI操作,广泛应用于自动化任务。
43 12
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
|
16天前
|
人工智能
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
AniDoc 是一款基于视频扩散模型的 2D 动画上色 AI 模型,能够自动将草图序列转换为彩色动画。该模型通过对应匹配技术和背景增强策略,实现了色彩和风格的准确传递,适用于动画制作、游戏开发和数字艺术创作等多个领域。
84 16
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
|
25天前
|
人工智能 安全 测试技术
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
EXAONE 3.5 是 LG AI 研究院推出的开源 AI 模型,擅长长文本处理,能够有效降低模型幻觉问题。该模型提供 24 亿、78 亿和 320 亿参数的三个版本,支持多步推理和检索增强生成技术,适用于多种应用场景。
76 9
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
|
27天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
66 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
27天前
|
人工智能 搜索推荐 开发者
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
Aurora是xAI为Grok AI助手推出的新图像生成模型,专注于生成高逼真度的图像,特别是在人物和风景图像方面。该模型支持文本到图像的生成,并能处理包括公共人物和版权形象在内的多种图像生成请求。Aurora的可用性因用户等级而异,免费用户每天能生成三张图像,而Premium用户则可享受无限制访问。
65 11
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
|
29天前
|
存储 人工智能 PyTorch
【AI系统】模型转换流程
本文详细介绍了AI模型在不同框架间的转换方法,包括直接转换和规范式转换两种方式。直接转换涉及从源框架直接生成目标框架的模型文件,而规范式转换则通过一个中间标准格式(如ONNX)作为桥梁,实现模型的跨框架迁移。文中还提供了具体的转换流程和技术细节,以及模型转换工具的概览,帮助用户解决训练环境与部署环境不匹配的问题。
45 5
【AI系统】模型转换流程
|
29天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型转换基本介绍
模型转换技术旨在解决深度学习模型在不同框架间的兼容性问题,通过格式转换和图优化,将训练框架生成的模型适配到推理框架中,实现高效部署。这一过程涉及模型格式转换、计算图优化、算子统一及输入输出支持等多个环节,确保模型能在特定硬件上快速、准确地运行。推理引擎作为核心组件,通过优化阶段和运行阶段,实现模型的加载、优化和高效执行。面对不同框架的模型文件格式和网络结构,推理引擎需具备高度的灵活性和兼容性,以支持多样化的应用场景。
59 4
【AI系统】模型转换基本介绍
|
29天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型剪枝
本文概述了模型剪枝的概念、方法及流程,旨在通过移除神经网络中冗余或不重要的参数,实现模型规模的减小和效率的提升。剪枝不仅有助于降低模型的存储和计算需求,还能增强模型的泛化能力。文章详细介绍了剪枝的定义、分类、不同阶段的剪枝流程,以及多种剪枝算法,如基于参数重要性的方法、结构化剪枝、动态剪枝和基于优化算法的全局剪枝策略。通过这些方法,可以在保持模型性能的同时,显著提高模型的计算速度和部署灵活性。
36 2
【AI系统】模型剪枝
|
21天前
|
人工智能 自然语言处理 物联网
AI Safeguard联合 CMU,斯坦福提出端侧多模态小模型
随着人工智能的快速发展,多模态大模型(MLLMs)在计算机视觉、自然语言处理和多模态任务中扮演着重要角色。