视频出炉 | LeCun、Marcus激辩AI是否需要类似人类的认知能力

简介:
本文来自AI新媒体量子位(QbitAI)


一辆AI驱动的无人车可能在模拟环境中撞树5万次才知道这是错误行为,对比之下,悬崖上攀爬的野山羊可没有多少试错机会,孩童无需数百万次练习就学会在椅子上爬上爬下……

无法否认,人工智能几乎可以从头学习任何东西,但人与动物具备天生的认知能力,可以直观地理解许多概念。随着AI技术的发展,人工智能是否需要拥有人类类似的认知能力呢?

本月5日,在纽约大学心智、大脑和意识研究中心举办的一场活动上,纽约大学计算机科学家、Facebook人工智能研究总监Yann LeCun与纽约大学心理学家教授、创业公司Geometric Intelligence创始人Gary Marcus对此问题展开了激烈讨论。

 左:Yann LeCun,右:Gary Marcus

Marcus表示,他和LeCun的这场辩论建立在以下7点共识之上:

  1. AI仍出于起步阶段;
  2. 要实现强AI,机器学习从根本上来说是必要的;
  3. 深度学习是机器学习中一项强大的技术;
  4. 要实现认知,单靠深度学习是不够的;
  5. (无模型)强化学习也不行;
  6. AI系统仍需要更好的内在正向模型;
  7. 常识推理从根本上来说依然没有解决。

LeCun认为用大脑重构世界的本领是人类独有,AI无法通过设计和学习得到,因此不需要类似人类的认知能力。

Marcus持反对意见,表示只有通过“比像素更丰富的基本元素和表达方法”来理解世界,AI技术才能取得成功。

两人的论战到底是如何进行的,来看看量子位搬运的刚出炉的辩论视频——


提示1. 前10分钟为主持人开场白
提示2. 视频无中文字幕,可转战YouTube查看自动生成的英文字幕/或不那么通顺的汉语字幕

YouTube辩论视频地址如下,请注意科学前往~

https://www.youtube.com/watch?v=aCCotxqxFsk&t=92s

本文作者:夏乙 安妮 
原文发布时间:2017-10-23 
相关文章
|
3天前
|
机器学习/深度学习 人工智能 编解码
VideoVAE+:AI 生成视频高保真重建和跨模态重建工具,基于文本信息指导视频重建,提升视频细节质量
VideoVAE+ 是香港科技大学推出的先进跨模态视频变分自编码器,通过时空分离压缩机制和文本指导,实现了高效视频压缩与精准重建。
30 7
VideoVAE+:AI 生成视频高保真重建和跨模态重建工具,基于文本信息指导视频重建,提升视频细节质量
|
5天前
|
机器学习/深度学习 人工智能 算法
Enhance-A-Video:上海 AI Lab 推出视频生成质量增强算法,显著提升 AI 视频生成的真实度和细节表现
Enhance-A-Video 是由上海人工智能实验室、新加坡国立大学和德克萨斯大学奥斯汀分校联合推出的视频生成质量增强算法,能够显著提升视频的对比度、清晰度和细节真实性。
27 8
Enhance-A-Video:上海 AI Lab 推出视频生成质量增强算法,显著提升 AI 视频生成的真实度和细节表现
|
15天前
|
人工智能
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
AniDoc 是一款基于视频扩散模型的 2D 动画上色 AI 模型,能够自动将草图序列转换为彩色动画。该模型通过对应匹配技术和背景增强策略,实现了色彩和风格的准确传递,适用于动画制作、游戏开发和数字艺术创作等多个领域。
83 16
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
|
24天前
|
人工智能 自然语言处理 前端开发
Director:构建视频智能体的 AI 框架,用自然语言执行搜索、编辑、合成和生成等复杂视频任务
Director 是一个构建视频智能体的 AI 框架,用户可以通过自然语言命令执行复杂的视频任务,如搜索、编辑、合成和生成视频内容。该框架基于 VideoDB 的“视频即数据”基础设施,集成了多个预构建的视频代理和 AI API,支持高度定制化,适用于开发者和创作者。
84 9
Director:构建视频智能体的 AI 框架,用自然语言执行搜索、编辑、合成和生成等复杂视频任务
|
23天前
|
机器学习/深度学习 人工智能 自然语言处理
MMAudio:开源 AI 音频合成项目,根据视频或文本生成同步的音频
MMAudio 是一个基于多模态联合训练的高质量 AI 音频合成项目,能够根据视频内容或文本描述生成同步的音频。该项目适用于影视制作、游戏开发、虚拟现实等多种场景,提升用户体验。
84 7
MMAudio:开源 AI 音频合成项目,根据视频或文本生成同步的音频
|
1月前
|
机器学习/深度学习 存储 人工智能
EfficientTAM:Meta AI推出的视频对象分割和跟踪模型
EfficientTAM是Meta AI推出的轻量级视频对象分割和跟踪模型,旨在解决SAM 2模型在移动设备上部署时的高计算复杂度问题。该模型采用非层次化Vision Transformer(ViT)作为图像编码器,并引入高效记忆模块,以降低计算复杂度,同时保持高质量的分割结果。EfficientTAM在多个视频分割基准测试中表现出与SAM 2相当的性能,具有更快的处理速度和更少的参数,特别适用于移动设备上的视频对象分割应用。
50 9
EfficientTAM:Meta AI推出的视频对象分割和跟踪模型
|
19天前
|
人工智能 小程序 API
【一步步开发AI运动小程序】十七、如何识别用户上传视频中的人体、运动、动作、姿态?
【云智AI运动识别小程序插件】提供人体、运动、姿态检测的AI能力,支持本地原生识别,无需后台服务,具有速度快、体验好、易集成等优点。本文介绍如何使用该插件实现用户上传视频的运动识别,包括视频解码抽帧和人体识别的实现方法。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
LTX Video:Lightricks推出的开源AI视频生成模型
LTX Video是由Lightricks推出的开源AI视频生成模型,能够在4秒内生成5秒的高质量视频。该模型基于2亿参数的DiT架构,确保帧间平滑运动和结构一致性,支持长视频制作,适用于多种场景,如游戏图形升级和电子商务广告变体制作。
124 1
LTX Video:Lightricks推出的开源AI视频生成模型
存储 人工智能 自然语言处理
68 6
|
2月前
|
机器学习/深度学习 人工智能 机器人
何恺明新作出炉!异构预训练Transformer颠覆本体视觉学习范式,AI性能暴涨超20%
【10月更文挑战第29天】在机器人学习领域,训练通用模型面临数据异构性的挑战。近期研究“Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers”提出异构预训练Transformer(HPT),通过大规模预训练学习跨不同本体和任务的共享表示,显著提升了性能。实验结果显示,HPT在未见过的任务上表现优异,性能提升超过20%。
88 6