1背景
Vision Transformer
成功的原因被认为是由于Self-Attention
建模远程依赖的能力。然而,Self-Attention
对于Transformer
执行视觉任务的有效性有多重要还不清楚。事实上,只基于多层感知器(MLPs)的MLP-Mixer
被提议作为ViTs
的一个有吸引力的替代方案。
此外,一些研究表明,精心设计的CNN
在计算机视觉方面仍有足够的竞争力。因此,确定哪些架构设计对计算机视觉任务具有内在的有效性是当前研究的一大热点。本文通过提出一种新颖的、具有竞争力的替代方案,为这一问题提供了一个新的视角。
本文提出了Sequencer
体系结构,使用LSTM
(而不是Self-Attention
)进行序列建模。Sequencer
的宏观架构设计遵循ViTs
,迭代地应用Token Mixing
和Channel Mixing
,但Self-Attention
被基于LSTMs
的Self-Attention
层取代。特别是,Sequencer
使用BiLSTM
作为一个构建块。简单的BiLSTM
表现出一定的性能水平,而Sequencer
可以通过使用类似Vision Permutator
(ViP)的思想进一步提高。ViP
的关键思想是平行处理垂直轴和水平轴。
作者还引入了2个BiLSTM
,用于并行处理上/下和左/右方向。这种修改提高了Sequencer
的效率和准确性,因为这种结构减少了序列的长度,并产生一个有空间意义的感受野。
在ImageNet-1K数据集上进行预训练时,新的Sequencer
架构的性能优于类似规模的Swin
和ConvNeXt
等高级架构。它还优于其他无注意力和无CNN的架构,如MLP-Mixer
和GFNet
,使Sequencer
在视觉任务中的Self-Attention
具有吸引力的新替代方案。
值得注意的是,Sequencer
还具有很好的领域稳健性以及尺度稳定性,即使在推理过程中输入的分辨率增加了一倍,也能强烈防止精度退化。此外,对高分辨率数据进行微调的Sequencer
可以达到比Swin-B
更高的精度。在峰值内存上,在某些情况下,Sequencer
往往比ViTs
和cnn
更经济。虽然由于递归,Sequencer
需要比其他模型更多的FLOPs
,但更高的分辨率提高了峰值内存的相对效率,提高了在高分辨率环境下的精度/成本权衡。因此,Sequencer
作为一种实用的图像识别模型也具有吸引人的特性。
2全新范式
2.1 LSTM的原理
LSTM
是一种特殊的递归神经网络
(RNN),用于建模序列的长期依赖关系。Plain LSTM
有一个输入门,它控制存储输入,一个控制前单元状态的遗忘的遗忘门,以及一个输出门,它控制当前单元状态的单元输出。普通LSTM
的公式如下:
其中σ是logistic sigmoid function
,是Hadamard product
。
BiLSTM
对于预期相互依赖的序列是有利的。一个BiLSTM
由2个普通的LSTM
组成。设为输入,为反向重排。和分别是用相应的LSTM
处理和得到的输出。设为按原顺序重新排列的输出,BiLSTM
的输出如下:
假设和具有相同的隐藏维数D,这是BiLSTM
的超参数。因此,向量h
的维数为二维。
2.2 Sequencer架构
1、架构总览
本文用LSTM
取代Self-Attention
层:提出了一种新的架构,旨在节省内存和参数,同时具有学习远程建模的能力。
图2a显示了Sequencer
体系结构的整体结构。Sequencer
架构以不重叠的Patches
作为输入,并将它们投影到特征图上。Sequencer Block
是Sequencer
的核心组件,由以下子组件组成:
BiLSTM
层可以经济、全局地Mixing空间信息MLP
用于Channel Mixing
当使用普通BiLSTM
层时,Sequencer Block
称为Vanilla Sequencer block
;当使用BiLSTM2D
层作为Sequencer Block
时,Sequencer Block
称为Sequencer2D block
。最后一个块的输出通过全局平均池化层送到线性分类器。
2、BiLSTM2D layer
作者提出了BiLSTM2D
层作为一种有效Mixing二维空间信息的技术。它有2个普通的BiLSTM
,一个垂直的BiLSTM和一个水平的BiLSTM。
对于输入被视为一组序列,其中是垂直方向上的Token
数量,W是水平方向上的序列
数量,C是通道维度。所有序列都输入到垂直BiLSTM
中,共享权重和隐藏维度D:
用与上述相似的方式,被视为一组序列,所有序列被输入到水平BiLSTM
中,共享权重和隐藏维度D:
然后将合并到中,同时将合并到。最后送入FC层。这些流程制定如下:
伪代码如下:
3、架构变体
为了比较由Sequencer 2D
组成的不同深度的模型,本文准备了3种不同深度的模型:18、24和36。模型的名称分别为Sequencer2D-S
、Sequencer2D-M
和Sequencer2D-L
。隐藏维度设置为D=C/4。
3实验
3.1 ImageNet-1K
3.2 迁移学习
3.3 稳健性实验
3.4 可视化分析
一般来说,CNN
具有局部化的、逐层扩展的感受野,而没有移动窗口的ViT
捕获的是全局依赖。相比之下,作者Sequencer
不清楚信息是如何处理的。因此作者计算了ResNet-50
、DeiT-S
和Sequencer2D-S
的ERF,如图5所示。
Sequencer2D-S
的ERFs在所有层中形成十字形。这一趋势使其不同于DeiT-S
和ResNet-50
等著名模型。更值得注意的是,在浅层中,Sequencer2D-S
比ResNet-50
的ERF更宽,尽管没有DeiT
那么宽。这一观察结果证实了Sequencer
中的lstm
可以像预期的那样建模长期依赖关系,并且Sequencer
可以识别足够长的垂直或水平区域。因此,可以认为,Sequencer
识别图像的方式与CNN
或ViT
非常不同。
4参考
[1].Sequencer: Deep LSTM for Image Classification
5推荐阅读
GPUNet | 英伟达打造最强轻量化模型,让你享受高精度、高速度的同时简单部署