涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(一)

简介: 涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(一)

1 简介


通常卷积神经网络(CNNs)都会使用池化pool操作来减少Feature Map的尺寸。这个过程对于实现局部空间不变和增加后续卷积的感受野是至关重要的。因此池化pool操作应该尽量减少Feature Map映射中信息的丢失。同时,应该限制计算和内存开销。

为了满足这些需求,本文提出了一种快速、高效的池化方法SoftPool,softpool可以以指数加权方式累加激活。与一系列其他池化方法相比,SoftPool在下采样激活映射中保留了更多的信息。更精细的下采样导致更好的分类精度。在ImageNet上,对于一系列流行的CNN架构,用SoftPool替换原来的池化操作可以带来1-2%的一致性精度提升。SoftPool在视频数据集上的动作识别。同样,在计算负载和内存仍然有限的情况下,仅替换池化层依然可以提高精度。


2 前人工作


2.1 Hand-crafted Pooling特征

下采样已被广泛应用于手工编码的特征提取方法之中,如Bag-of-Words和Bag-of-Features,在这些方法中图像被视为局部斑块的集合,通过pooling和encode为向量。该方法还与空间金字塔匹配相结合进行了研究,以保持空间信息。

后来的工作考虑了空间区域中最大SIFT特征的选择。脑池化主要与max-pooling的使用有关,因为生物学上类似max的皮层信号具有鲁棒性。Boureau等人研究了最大池化(Max Pooling)和平均池化(Avg Pooling)。Max-pooling已经被有效地应用并由不错的效果和性能。

2.2 Pooling in CNNs

传统上,池化的主要好处是创建了比原始版本小得多的表征,从而减少了计算需求,并支持创建更大、更深层次的网络架构。

下采样的池化方法

  • Average Pooling:区域平均值。
  • Max Pooling:区域最大值。
  • Stochastic Pooling:它使用一个核区域内激活的概率加权抽样。
  • Mix Pooling:基于最大池化和平均池化的混合池化。
  • Power average Pooling:基于平均和最大化的结合,幂平均(Lp)池化利用一个学习参数p来确定这两种方法的相对重要性;当p=1时,使用局部求和,而p为无穷大时,对应max-pooling。

image.png

网格采样的池化方法

  • S3 Pooling:对原始Feature Map网格中的行和列进行随机采样。
  • Preserving Pooling:使用平均池化,同时用高于平均值的值增强激活。
  • Local Importance Pooling:进一步评估了如何将学习到的权值作为一种基于子网络注意的机制来使用,该机制可用于汇集信息特征,同时丢弃无信息特征。

image.png

与前面描述的操作相比,一些池化方法有严格的架构或基于任务的标准,这些标准将它们的应用限制在特定的CNN架构和任务上:

  • Spatial Pyramid Pooling
  • ROI-Pool
  • ROI-align

上述大多数方法都是依赖于最大池化和平均池化的不同组合。而SoftPool的工作不是结合现有的方法,而是基于softmax加权方法来保留输入的基本属性,同时放大更大强度的特征激活。与max-pooling不同softpool是可微的。

image.png

因此,在反向传播过程中为每个输入获得一个梯度,这可能会提高训练效果。我们在上图中演示了SoftPool的效果。

其他以前的方法使用可训练的参数导致计算成本增加,直接影响较大网络的可用性。相比之下,SoftPool可以替代任何池化操作,包括最大池化和平均池化,而且计算和内存效率都很高。

相关文章
|
2月前
|
机器学习/深度学习 人工智能 编解码
Backbone往事 | AlexNet~EfficientNet,10多个网络演变铺满了炼丹师们的青葱岁月
Backbone往事 | AlexNet~EfficientNet,10多个网络演变铺满了炼丹师们的青葱岁月
39 0
|
3月前
|
固态存储 算法 计算机视觉
CV目标检测 Task04:不讲武德-炼丹与品尝 终于,神功初成,可以开始施展拳脚了 打卡笔记
CV目标检测 Task04:不讲武德-炼丹与品尝 终于,神功初成,可以开始施展拳脚了 打卡笔记
39 0
|
10月前
|
机器学习/深度学习 语音技术 C++
self-attention - 李宏毅笔记
self-attention - 李宏毅笔记
|
10月前
|
机器学习/深度学习 自然语言处理 机器人
Transformer - 李宏毅笔记
Transformer - 李宏毅笔记
188 0
|
11月前
|
机器学习/深度学习 编解码 PyTorch
涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(二)
涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(二)
181 0
|
11月前
|
机器学习/深度学习 计算机视觉
涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(一)
涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(一)
71 0
|
11月前
|
存储 计算机视觉
涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(二)
涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(二)
124 0
|
11月前
|
机器学习/深度学习 SQL 编解码
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(一)
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(一)
135 0
|
11月前
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(二)
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(二)
59 0
|
机器学习/深度学习 计算机视觉
CycleGAN 论文泛读
CycleGAN 论文泛读
76 0
CycleGAN 论文泛读