ICLR 2022 | 提高子网络「中奖」准确率,美国东北大学、Meta等提出对偶彩票假说

简介: ICLR 2022 | 提高子网络「中奖」准确率,美国东北大学、Meta等提出对偶彩票假说
来自美国东北大学、圣克拉拉大学和 Meta 的研究者提出对偶彩票假说(Dual Lottery Ticket Hypothesis,DLTH),随机的子网络都可以被转换成中奖彩票。


稀疏网络训练一直是深度学习中训练神经网络的难点。随着网络规模和数据量的不断增加,训练成本也不断提升。如何有效的训练稀疏网络来维持合理的训练开销变得十分重要。另一方面,找到有效的稀疏网络训练方法对理解神经网络的工作原理同样很有帮助。

近日,来自美国东北大学,圣克拉拉大学和 Meta 的研究者提出对偶彩票假说(Dual Lottery Ticket Hypothesis,DLTH)。不同于彩票假说(Lottery Ticket Hypothesis,LTH)验证了随机网络中存在好的子网络(中奖彩票),DLTH 验证了在给定的随机网络中,随机的子网络都可以被转换成中奖彩票。

文章已被 ICLR 2022 接收。代码已开源。



相关研究
2019 年,来自 MIT 的研究人员提出彩票假说(Lottery Ticket Hypothesis):给定一个初始化网络,其中存在一个彩票子网络(winning ticket)在被单独训练的情况下达到很好的效果。这个子网络可以用传统的预训练加剪枝的方法得到。LTH 还是用了 iterative magnitude pruning 的策略来找到更好的彩票子网络。LTH 揭示了神经网络与其稀疏子网络之间的关系,开启了一个研究稀疏网络训练的新方向。

给定随机初始化的神经网络,随机的子网络并不能达到理想的训练效果。而 LTH 中的彩票子网络是通过剪枝预训练网络得到的。但是 LTH 只验证了彩票子网络的存在性,并没有探索彩票网络的普遍性。相对应的,通过预训练加剪枝的方法找到的彩票子网络的结构是无法控制的。这同样限制了彩票网络在实际应用中的潜力。

对偶彩票假说

研究者受 LTH 启发,探索了其对偶问题并提出对偶彩票假说 DLTH:给定随机初始化的网络,其随机挑选的子网络可以被转换成彩票子网络,并得到与 LTH 找到的彩票子网络相当甚至更好的准确率。


DLTH 与 LTH 的关系与比较如下图所示:


同时,DLTH 提出了随机子网络变换(Random Sparse Network Transformation,RST)来验证提出的 DLTH。

随机子网络变换(RST)
给定随机初始化网络并确定随机子网络结构,RST 借助网络中其余的权重(masked weights)来帮助被选中的子网络(randomly selected sparse network)进行变换。具体而言,RST 通过借助彩票池中所有的信息把一张随机彩票转换成了中奖彩票。RST 通过训练完整的网络来完成。在训练过程中,RST 通过在未被选中的权重上添加一个逐渐增加的正则项,从而这部分权重的幅值逐渐变小,这部分权重的作用也逐渐被抑制,并在变换结束之后完全去掉这部分权重。而被选中的子网络则进行正常训练。最终得到被转换好的稀疏子网络。这一过程可以理解为 RST 把信息从网络的其他部分挤到目标子网络中(information extrusion),如下图所示:


实验

RST 方法在 cifar10,cifar100 以及 Imagenet 数据集上进行了测试,模型选择 ResNet56 和 ResNet18。对比方法包括 LTH 及其变体,预训练加剪枝,以及随机子网络 scratch training。实验结果如下图所示:



作者发现 RST 方法相比较于 LTH,普遍可以得到更好至少相当的结果,无论使用 one-shot 策略还是 iterative 策略。因此,所使用的 RST 很好的验证了文章提出的 DLTH。直观比较如下图所示:

对比 Pruning at Initialization(PI)

PI 同样在随机网络中选择子网络进行训练。因此,PI 相关的研究同样也是重要的对比方法。文章中,作者选择了 Gradient Signal Preservation (GraSP)作为 PI 方法的代表,与提出的 RST 进行比较。具体结果如下图所示:


实验结果表明相比较于 GraSP,RST 方法普遍取得了更好的效果。

结论
本文从彩票假说(LTH)的研究视角出发,提出其对偶形式:对偶彩票假说(DLTH),从更广泛的角度探究了神经网络与其稀疏子网络之间的关系。相应的,文章提出了随机子网络变换(RST)的方法来验证 DLTH。在 benchmark 数据集与网络上和众多对比方法的比较表明 RST 方法有效的验证了文章所提出的对偶彩票假说(DLTH)。

相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
ICLR 2024 Spotlight:训练一个图神经网络即可解决图领域所有分类问题!
【2月更文挑战第17天】ICLR 2024 Spotlight:训练一个图神经网络即可解决图领域所有分类问题!
98 2
ICLR 2024 Spotlight:训练一个图神经网络即可解决图领域所有分类问题!
|
1月前
|
机器学习/深度学习 算法
ICLR 2024 Oral:用巧妙的传送技巧,让神经网络的训练更加高效
【5月更文挑战第21天】ICLR 2024 Oral 提出了一种名为“传送”的新方法,利用参数对称性提升神经网络训练效率。该方法通过参数变换加速收敛,改善泛化能力,减少了训练所需的计算资源和时间。研究显示,传送能将模型移到不同曲率的极小值点,可能有助于泛化。论文还探讨了将传送应用于元学习等优化算法的潜力,但对传送加速优化的确切机制理解尚不深入,且实际应用效果有待更多验证。[论文链接](https://openreview.net/forum?id=L0r0GphlIL)
35 2
|
1月前
|
机器学习/深度学习 存储 设计模式
架构设计新范式!RevCol:可逆的多 column 网络式,已被ICLR 2023接收
架构设计新范式!RevCol:可逆的多 column 网络式,已被ICLR 2023接收
36 0
|
10月前
|
机器学习/深度学习
2022玻尔兹曼奖公布:两位获奖者,Hopfield网络提出者在列
2022玻尔兹曼奖公布:两位获奖者,Hopfield网络提出者在列
447 0
|
机器学习/深度学习 计算机视觉 索引
Backbone | 谷歌提出LambdaNetworks:无需注意力让网络更快更强(文末获取论文源码)(一)
Backbone | 谷歌提出LambdaNetworks:无需注意力让网络更快更强(文末获取论文源码)(一)
93 1
|
机器学习/深度学习 自然语言处理 算法
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(一)
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(一)
230 0
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(一)
|
机器学习/深度学习 图形学 网络架构
ICLR 2022 | 纯MLP的点云网络:新架构PointMLP大幅提高点云分类准确率和推理速度
ICLR 2022 | 纯MLP的点云网络:新架构PointMLP大幅提高点云分类准确率和推理速度
655 0
ICLR 2022 | 纯MLP的点云网络:新架构PointMLP大幅提高点云分类准确率和推理速度
|
机器学习/深度学习 存储 计算机视觉
CVPR 2023 | 神经网络超体?新国立LV lab提出全新网络克隆技术
CVPR 2023 | 神经网络超体?新国立LV lab提出全新网络克隆技术
167 0
|
机器学习/深度学习 自然语言处理 算法
ICLR 2023 Spotlight | Yoshua Bengio团队新作,生成拓展流网络
ICLR 2023 Spotlight | Yoshua Bengio团队新作,生成拓展流网络
112 0
|
机器学习/深度学习 编解码 数据可视化
Backbone | 谷歌提出LambdaNetworks:无需注意力让网络更快更强(文末获取论文源码)(二)
Backbone | 谷歌提出LambdaNetworks:无需注意力让网络更快更强(文末获取论文源码)(二)
71 0

热门文章

最新文章