Hinton号召AI革命:重头再来;李飞飞等赞成:深度学习不是唯一

简介:
本文来自AI新媒体量子位(QbitAI)

236a205016180600b28b705b5e0e077bfce2898d

 Hinton等合写的反向传播论文

1986年,39岁的Geoffrey Hinton与人合写了一篇论文。40年后,这篇论文已经成为推动人工智能爆炸式发展的核心。

如今Hinton已经70岁,兼具多伦多大学荣誉教授、Google Fellow等身份。几天前在多伦多举行的AI大会期间,Hinton说他现在对反向传播“深感怀疑”。他发出号召:

“我的观点是把它全部抛掉,重头再来。”

762df44f1240d828b8d0763dc10885d9e9163284

与会的其他科学家表示,反向传播仍然会在未来的AI发展中发挥核心作用。但Hinton并不满足,他想要奋力向前,找到一个全新的道路。

普朗克曾说过一句关于科学真理的真理:“科学进步源自葬礼”。Hinton说,AI的未来取决于那些对我所说的一切都深感怀疑的研究生们。

在反向传播中,标签或者权重用于在神经网络内表示照片或者声音。通过逐层调整权重,最终让神经网络能以最少的错误执行AI任务。

怎么才能让神经网络能够自己变聪明,换句话说,怎么才能更好地发展“无监督学习”?Hinton的想法是:“我怀疑这意味着摆脱反向传播”。

“我不认为这是大脑的工作方式”,Hinton说“我们显然不需要所有的数据都打上标签”。

对于Hinton的上述言论,很多学者也纷纷响应。

c0aefe50548f05eb1c9782bf1b5955bed8b287ad

谷歌云首席科学家李飞飞表示,反向传播的重要性,就像劳斯莱斯发动机之于飞机,非常重要,但还不足以让我们像鸟儿一样自由翱翔。

“赞成Hinton的说法,没有工具是永恒的,即便是反向传播或深度学习”,李飞飞说最重要的事情就是:继续进行基础研究。此前李飞飞也一直提醒业界不要抱所有注意力和资源都放在产品化方面,基础研究跟不上的话AI发展很快会枯竭。

知名学者Gary Marcus表示,深度学习是不够的,我们需要重头开始,Hinton的这番话也是我多年以来一直坚持的观点。

不少人想起图灵奖得主,贝叶斯之父Judea Pearl说过的那句话:“大部分人类知识是围绕因果关系组织的,而不是概率关系”

capsule

对反向传播产生怀疑之前的几年,Hinton的大量精力都投入到了对capsule的研究之上。

实际上,做capsule和想要推翻反向传播,几乎是出于同一个原因:不像大脑。

Hinton近3年前在MIT的一次讲座上说,它相信是这些不像大脑的东西,导致人工神经网络的效果不够好。

capsule的提出,正是为了应对神经网络与大脑的一个不相似之处,也是Hinton这3年来一直在讲的“神经网络的一个问题”:结构中层次太少。

Hinton提出,应该在现有神经网络结构的基础上,加一个capsule的层级,每一层网络的神经元组成capsule,在内部做计算,然后输出一个压缩的结果。

11eb3f92c750f98c352eb240766114b876e12f3e

今年,Hinton和Google Brain同事Sara Sabour、Nicholas Frosst合作的论文Dynamic Routing Between Capsules即将发表于NIPS,Frosst这周还代表他们团队,在Google Brain全面答网友问的活动上,公布了capsule研究的一些进展:

capsule进行得很顺利!

我们组有5个人:Sara Sabour、Nicholas Frosst、Geoffrey Hinton、Eric Langois和Robert Gens,在多伦多办公室,取得了稳步进展。

capsule是一组神经元,它的活动向量表示特定类型实体(比如对象或对象部分)的实例化参数。

我们的一篇论文最近中了NIPS spotlight,其中将capsule之间的动态路由作为一种衡量低级特征之间一致性的方式。

这一架构在MNIST上实现了最好的性能,而且在识别高度重叠的数字时,明显比卷积神经网络好得多。

我们还在研究新的路由方法,在NORB数据集上取得了不错的结果,同时也在研究新的capsule架构,可以在输入空间中保持与给定组的等价性。

希望这些研究结果也能很快发表。

即将发表于NIPS的论文摘要对capsule做了个大致介绍:

capsule是一组神经元,其活动向量表示特定类型实体(例如对象或对象部分)的实例化参数。我们使用活动向量的长度来表示实体存在的概率及其表示实例化参数的方向。活动capsule在一个层面上通过变换矩阵对更高层capsule的实例化参数进行预测。当多个预测相符时,较高层的capsule就开始活动。

本文显示,经过区别训练的多层capsule系统在MNIST上实现了最先进的性能,在识别高度重叠的数字时,效果明显好于卷积神经网络。

为了达到这样的结果,我们用了一个迭代的路由协议机制:一个低层的capsule希望将其输出发送到一个活动向量具有大标量积、预测来自低层capsule的高层capsule。

OMT

想要看看40年前Hinton那篇论文么?在量子位微信公众号(QbitAI)对话界面,回复“bptr”四个字母,即可获得这份珍贵资料。

本文作者:李林 允中 
原文发布时间:2017-09-16
相关文章
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI的无限可能:从机器学习到深度学习
【5月更文挑战第31天】本文旨在深入探讨人工智能(AI)的核心技术,包括机器学习和深度学习。我们将通过实例和案例研究,揭示这些技术如何改变我们的生活和工作方式。此外,我们还将讨论AI的未来发展趋势,以及它可能带来的挑战和机遇。
|
7天前
|
机器学习/深度学习 存储 人工智能
构建高效AI系统:深度学习模型压缩技术
【5月更文挑战第26天】 在资源受限的应用场景中,深度学习模型往往面临存储空间和计算能力的双重挑战。本文针对这一问题,深入探讨了深度学习模型压缩技术,旨在通过降低模型复杂度来优化其性能。文中首先分析了模型压缩的必要性,随后详细介绍了知识蒸馏、网络剪枝、量化等主流压缩方法,并通过实验验证了所提技术的有效性。最后,文章展望了模型压缩领域的未来发展方向,为相关研究提供了新的视角和思路。
|
7天前
|
机器学习/深度学习 数据采集 人工智能
构建高效AI模型:深度学习优化策略和实践
【5月更文挑战第26天】 在人工智能的浪潮中,深度学习作为一项核心技术,其模型构建与优化一直是研究的热点。本文旨在探讨如何通过一系列创新性的优化策略提升深度学习模型的性能及效率。我们将从理论与实践两个维度出发,详细阐述包括数据预处理、网络结构设计、损失函数选择、正则化技巧以及超参数调整等方面的优化措施。通过这些策略的综合运用,可以显著提高模型的准确性,降低过拟合风险,并缩短训练时间,为AI领域的研究者和工程师提供有价值的参考。
|
16天前
|
机器学习/深度学习 人工智能 算法
【AI】从零构建深度学习框架实践
【5月更文挑战第16天】 本文介绍了从零构建一个轻量级的深度学习框架tinynn,旨在帮助读者理解深度学习的基本组件和框架设计。构建过程包括设计框架架构、实现基本功能、模型定义、反向传播算法、训练和推理过程以及性能优化。文章详细阐述了网络层、张量、损失函数、优化器等组件的抽象和实现,并给出了一个基于MNIST数据集的分类示例,与TensorFlow进行了简单对比。tinynn的源代码可在GitHub上找到,目前支持多种层、损失函数和优化器,适用于学习和实验新算法。
81 2
|
17天前
|
机器学习/深度学习 人工智能 算法
AI大咖说-关于深度学习的一点思考
周志华教授探讨深度学习的成效,指出其关键在于大量数据、强大算力和训练技巧。深度学习依赖于函数可导性、梯度下降及反向传播算法,尽管硬件和数据集有显著进步,但核心原理保持不变。深度意味着增加模型复杂度,相较于拓宽,加深网络更能增强泛函表达能力,促进表示学习,通过逐层加工处理和内置特征变换实现抽象语义理解。周志华教授还提到了非神经网络的深度学习方法——深度森林。5月更文挑战第12天
43 5
|
18天前
|
机器学习/深度学习 人工智能 算法
构建高效AI系统:深度学习优化技术解析
【5月更文挑战第12天】 随着人工智能技术的飞速发展,深度学习已成为推动创新的核心动力。本文将深入探讨在构建高效AI系统中,如何通过优化算法、调整网络结构及使用新型硬件资源等手段显著提升模型性能。我们将剖析先进的优化策略,如自适应学习率调整、梯度累积技巧以及正则化方法,并讨论其对模型训练稳定性和效率的影响。文中不仅提供理论分析,还结合实例说明如何在实际项目中应用这些优化技术。
|
18天前
|
机器学习/深度学习 人工智能 算法
【AI 初识】讨论深度学习和机器学习之间的区别
【5月更文挑战第3天】【AI 初识】讨论深度学习和机器学习之间的区别
|
18天前
|
机器学习/深度学习 自然语言处理 PyTorch
fast.ai 深度学习笔记(三)(4)
fast.ai 深度学习笔记(三)(4)
27 0
|
18天前
|
机器学习/深度学习 算法 PyTorch
fast.ai 深度学习笔记(三)(3)
fast.ai 深度学习笔记(三)(3)
34 0
|
18天前
|
机器学习/深度学习 编解码 自然语言处理
fast.ai 深度学习笔记(三)(2)
fast.ai 深度学习笔记(三)(2)
39 0