放弃反向传播后,Geoffrey Hinton参与的前向梯度学习重磅研究来了

简介: 放弃反向传播后,Geoffrey Hinton参与的前向梯度学习重磅研究来了


图灵奖得主 Geoffrey Hinton 等研究者让前向梯度学习变得实用了。


我们知道,在人工智能领域里,反向传播是个最基本的概念。


反向传播(Backpropagation,BP)是一种与最优化方法(如梯度下降)结合使用的,用来训练人工神经网络的常见方法。该方法计算对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。



简而言之,BP 的核心思路其实就是负反馈,我们试图用这种方式实现神经网络系统面对给定目标的自动迭代、校准。随着算力、数据和更多技术改进的提升,在 AI 领域人们使用反向传播训练的多层神经网络在部分任务上已经足以与人类竞争。


很多人把这项技术的发现归功于深度学习先驱、2019 年图灵奖得主 Geoffrey Hinton,但 Hinton 本人表示,自己的贡献在于明确提出了反向传播可以学习有趣的内部表征,并让这一想法推广开来:「我通过让神经网络学习词向量表征,使之基于之前词的向量表征预测序列中的下一个词实现了这一点。」


其例证在于 Nature 1986 年发表的论文《Learning representations by back-propagating errors》上。



无论如何,反向传播技术推动了现代深度学习的发展。但曾被冠以「反向传播之父」的 Geoffrey Hinton,近年来却经常表示自己在构思下一代神经网络,他对于反向传播「非常怀疑」,并提出「应该抛弃它并重新开始」。


可以说自 2017 年起,Hinton 就已开始寻找新的方向。机器之心先前曾介绍 Hinton 在前向 - 前向网络方面的思考(近万人围观 Hinton 最新演讲:前向 - 前向神经网络训练算法,论文已公开)。


最近,我们又看到了重要的进展。近日,由 Mengye Ren、Simon Kornblith、Renjie Liao、Geoffrey Hinton 完成的论文被工智能顶会 ICLR 2023 接收。



前向梯度学习通常用于计算含有噪声的方向梯度,是一种符合生物学机制、可替代反向传播的深度神经网络学习方法。然而,当要学习的参数量很大时,标准的前向梯度算法会出现较大的方差。


基于此,图灵奖得主 Geoffrey Hinton 等研究者提出了一系列新架构和算法改进,使得前向梯度学习对标准深度学习基准测试任务具有实用性。



论文链接:https://arxiv.org/abs/2210.03310

GitHub 链接:https://github.com/google-research/google-research/tree/master/local_forward_gradient


该研究表明,通过将扰动(perturbation)应用于激活而不是权重,可以显著减少前向梯度估计器的方差。研究团队通过引入大量局部贪心损失函数(每个损失函数只涉及少量可学习参数)和更适合局部学习的新架构 LocalMixer(受 MLPMixer 启发),进一步提高了前向梯度的可扩展性。该研究提出的方法在 MNIST 和 CIFAR-10 上与反向传播性能相当,并且明显优于之前 ImageNet 上的无反向传播算法。



当前,大多数深度神经网络都使用反向传播算法(Werbos, 1974; LeCun, 1985; Rumelhart et al., 1986)进行训练,该算法通过从损失函数向每一层反向传播误差信号来有效地计算权重参数的梯度。尽管人工神经网络最初受到生物神经元的启发,但反向传播一直被认为不符合生物学机理,因为大脑不会形成对称的反向连接或执行同步计算。从工程的角度讲,反向传播与大规模模型的并行性不兼容,并且限制了潜在的硬件设计。这些问题表明我们需要一种截然不同的深度网络学习算法。


Hinton 等研究者重新审视了权重扰动的替代方法 —— 活动扰动(activity perturbation,Le Cun et al., 1988; Widrow & Lehr, 1990; Fiete & Seung, 2006),探索了该方法对视觉任务训练的普遍适用性。


该研究表明:活动扰动能比权重扰动产生方差更低的梯度估计,并且能够为该研究提出的算法提供基于连续时间速率(continuous-time rate-based)的解释。


研究团队通过设计具有大量局部贪心损失函数的架构,解决了前向梯度学习的可扩展性问题,其中将网络隔离为局部模块,从而减少了每个损失函数的可学习参数量。与仅沿深度维度添加局部损失的先前工作不同,该研究发现 patch-wise 和 channel-group-wise 损失函数也非常关键。最后,受 MLPMixer (Tolstikhin et al., 2021) 的启发,该研究设计了一个名为 LocalMixer 的网络。LocalMixer 具有线性 token 混合层和分组通道(channel),以更好地与局部学习兼容。


该研究在监督和自监督图像分类问题上评估了其局部贪婪前向梯度算法。在 MNIST 和 CIFAR-10 上,该研究提出的学习算法性与反向传播性能相当,而在 ImageNet 上,其性能明显优于其他使用不对称前向和后向权重的方案。虽然该研究提出的算法在更大规模的问题上还达不到反向传播算法的性能,但局部损失函数设计可能是生物学上合理的学习算法,也将成为下一代模型并行计算的关键因素。


该研究分析了前向梯度估计器的期望和方差的特性,并将分析重点放在了权重矩阵的梯度上,具体的理论分析结果如下表 1 所示,批大小为 N 时,独立扰动(independent perturbation)可以将方差减少为 1/N,而共享扰动(shared perturbation)具有由平方梯度范数支配的常数方差项。然而,当执行独立的权重扰动时,矩阵乘法不能进行批处理,因为每个样本的激活向量都要与不同的权重矩阵相乘。相比之下,独立的活动扰动算法允许批量矩阵乘法。



与权重扰动相比,活动扰动的方差更小,因为扰动元素的数量是输出单元的数量,而不是整个权重矩阵的大小。活动扰动的唯一缺点是存储中间激活需要一定量的内存。


此外,该研究发现在具有 ReLU 激活的网络中,可以利用 ReLU 稀疏性来进一步减少方差,因为未激活的单元梯度为零,因此不应该扰动这些单元。


用局部损失函数进行扩展



相关文章
|
12月前
|
机器学习/深度学习 算法 网络架构
放弃反向传播后,Geoffrey Hinton参与的前向梯度学习重磅研究来了(2)
放弃反向传播后,Geoffrey Hinton参与的前向梯度学习重磅研究来了
|
12月前
|
机器学习/深度学习 人工智能 算法
ICLR 2023 | PromptPG:当强化学习遇见大规模语言模型(1)
ICLR 2023 | PromptPG:当强化学习遇见大规模语言模型
|
12月前
|
机器学习/深度学习 SQL 计算机视觉
ICLR 2023 | PromptPG:当强化学习遇见大规模语言模型(2)
ICLR 2023 | PromptPG:当强化学习遇见大规模语言模型
|
12月前
|
人工智能 搜索推荐 算法
AAAI 2023杰出论文一作分享:新算法加持的大批量学习加速推荐系统训练
AAAI 2023杰出论文一作分享:新算法加持的大批量学习加速推荐系统训练
226 0
|
12月前
|
机器学习/深度学习 数据采集 人工智能
从BERT到ChatGPT,北航等9大顶尖研究机构全面综述:那些年一起追过的「预训练基础模型」
从BERT到ChatGPT,北航等9大顶尖研究机构全面综述:那些年一起追过的「预训练基础模型」
155 0
|
12月前
|
机器学习/深度学习 人工智能 自然语言处理
稀疏模型最新进展!马毅+LeCun强强联手:「白盒」非监督式学习|ICLR 2023
稀疏模型最新进展!马毅+LeCun强强联手:「白盒」非监督式学习|ICLR 2023
284 0
|
机器学习/深度学习 算法 C++
学界 | Yoshua Bengio最新修改版论文:迈向生物学上可信的深度学习
深度学习和人工神经网络已经从大脑获得灵感,但大部分是在计算表现形式上的灵感(大多是生物学的,比如 spike 的存在留待考虑)。然而,如今缺少的是对生物神经元中存在的学习规则的一个可信的机器学习说明,从而能够解释一个深度神经网络有效的联合训练,也就是通过一个神经连接长链说明信任分配(credit assignment)。因此,解决信任分配难题也意味着确认神经元与权重,这二者与得到想要的输出和改变参数有关。反向传播提供了一个机器学习答案,然而就像下一段讨论的那样,它并非生物学上可信的。寻找一个生物学上可信的机器学习方法进行深度网络中的信任分配是一个主要的长期问题,也是此论文贡献的方向。
学界 | Yoshua Bengio最新修改版论文:迈向生物学上可信的深度学习
|
机器学习/深度学习 数据挖掘 计算机视觉
Alexnet论文泛读:深度学习CV领域划时代论文具有里程碑意义NeurIPS2012
Alexnet论文泛读:深度学习CV领域划时代论文具有里程碑意义NeurIPS2012
Alexnet论文泛读:深度学习CV领域划时代论文具有里程碑意义NeurIPS2012
|
机器学习/深度学习 人工智能 算法
英伟达工程师解读NeurIPS 2019最热趋势:贝叶斯深度学习、图神经网络、凸优化
2019年人工智能研究什么最热?从今年最大型的AI顶会NeurIPS可以发现几大趋势:科学家们开始探索深度学习背后的理论和原理,贝叶斯深度学习、图神经网络和凸优化等深度学习新方法成为最热趋势。
261 0
英伟达工程师解读NeurIPS 2019最热趋势:贝叶斯深度学习、图神经网络、凸优化
|
机器学习/深度学习 算法 数据挖掘
NeurIPS 2019杰出论文深度解读:窥视机器学习的核心问题
在NeurIPS 2019一千多篇入选论文中,有那么1篇杰出论文值得长时间、深入、反复学习。
109 0
NeurIPS 2019杰出论文深度解读:窥视机器学习的核心问题