What?UFO! | UFO-ViT用X-Norm让你的Transformer模型回归线性复杂度(一)

简介: What?UFO! | UFO-ViT用X-Norm让你的Transformer模型回归线性复杂度(一)

1简介


Vision transformers已成为计算机视觉任务的重要模型之一。虽然它们优于早期的卷积网络,但使用传统的自注意力算法时,其复杂度是。

在这里,本文提出了UFO-ViT(Unit Force Operated Vision Trnasformer),通过修改少数行自注意力消除一些非线性来减少自注意力的计算复杂度,UFO-ViT实现线性复杂性而不降低性能。该模型在图像分类和密集预测任务上优于大多数基于Transformer的模型。

本文方法的贡献:

  • 提出了新的约束方案XNorm,它生成单元超球来提取关系特征,防止自注意力过度依赖于初始化方式。此外,它具有O(N)复杂度,能有效地处理高分辨率输入。
  • 证明了UFO-ViT可以用于一般用途。模型在图像分类和密集预测任务上进行了实验。在较低的容量和FLOPS,UFO-ViT使用线性自注意力方案依然优于大多数基于Transformer模型。特别是,模型在轻量状态下表现良好。
  • 提出了一种动态处理输入图像的新模块。这意味着权重的大小与输入分辨率无关。它适用于密集的预测任务,如目标检测或语义分割,这通常需要比训练前更高的分辨率。对于基于MLP的结构,如果模型在不同分辨率上预训练,则需要进行后处理。

2本文方法


模型的结构如图2所示。它是一个混合的卷积层,UFO模块和一个简单的前馈MLP层。接下来将指出所提出的方法是如何取代softmax函数并确保线性复杂度的。

图2

2.1 理论解释

对于输入,传统的自注意力机制表示为:

image.png

A表示注意力操作符。

由于softmax的非线性导致不能分解为O(N×h+h×N)。本文方法是先用结合律消去softmax来计算。由于应用identity反而会导致退化,所以作者建议使用简单的约束来防止它退化。

本文提出方法叫XNorm,定义如下:

image.png

式中,γ为可学习参数,h为嵌入维数。它是简单的l2范数,但它可以适用于的空间维数和q的通道维数,这就是为什么它被称为交叉归一化

image.png

图3

使用关联法则,key和value先相乘,query再相乘。如图3所示。这两个乘法的复杂度都是O(hNd),所以这个过程与n是线性的。

2.2 XNorm

将softmax替换为XNorm

在过程中,key和value直接相乘。与线性核方法相同生成h个聚类。

image.png

XNorm应用于query和输出。

其中x为输入。最后,投影权重标度,加权求和。

在这个公式中,关系特征是由patches和聚类之间的余弦相似度定义的。XNorm将query和clusters限制为单位向量。它通过规范化它们以缩小范围,防止它们的value抑制关系属性。如果它们有任意值,则注意力区域太依赖于初始化。

然而,这种解释不足以解释原因XNorm必须是l2标准化形式。在这里介绍另一种理论观点,考虑简单的物理模拟。

考虑残差连接,任意模块的输出公式为:

其中n和x表示当前深度和输入图像。假设x为某物体的位移,n为时间,则上式重新定义为:

大部分神经网络是离散的,所以∆t是常数。(简便起见,设∆t=1)残差项表示速度,与力相同,∆t=1。

在物理学中,胡克定律被定义为弹性向量k与位移向量x的点积。弹性力产生调和势U是的函数。从物理上讲,势能干扰了粒子通过它的运动路径。(为了便于理解,想象一个球沿着抛物线形状的轨道移动)

image.png

以上公式一般用来近似分子在x≈0处的势能。对于多分子,利用弹性的线性,

image.png

除了上面的公式没有归一化。假设k的个数很小,那么k就太大了。如果某个粒子绕着它们运动,它就不容易逃脱。在这种情况下,只存在两种情况。1. 崩溃了。粒子沿最大k方向排列。关系特征被忽略了。一些x大的粒子在坍缩中幸存下来。

  1. Collapsed。粒子沿最大k的方向排列。
  2. Relational features are neglected。一些x大的粒子在坍缩中幸存下来。

这与前一部分提到的情况完全相同。XNorm强制所有向量为单位向量,以防止这种情况发生。换句话说,XNorm不是标准化,而是约束。

在注意力模块中,FFN是不可忽视的。然而,这里有一个简单的解释。FFN是静态的,不依赖于空间维度。在物理上,这类函数表示谐振子方程的驱动力。

image.png

这就起到了放大器或减速器的作用,增强或消除与空间关系无关的特征。

相关文章
|
6天前
|
机器学习/深度学习
RNN 和 Transformer 复杂度比较
RNN 和 Transformer 复杂度比较
70 0
|
6天前
|
人工智能 搜索推荐 物联网
DoRA(权重分解低秩适应):一种新颖的模型微调方法_dora模型
DoRA(权重分解低秩适应):一种新颖的模型微调方法_dora模型
100 0
|
6天前
|
机器学习/深度学习 编解码 自然语言处理
南开提出全新ViT | Focal ViT融会贯通Gabor滤波器,实现ResNet18相同参数,精度超8.6%
南开提出全新ViT | Focal ViT融会贯通Gabor滤波器,实现ResNet18相同参数,精度超8.6%
80 0
|
6天前
|
机器学习/深度学习 存储 算法
模型部署系列 | 卷积Backbone量化技巧集锦
模型部署系列 | 卷积Backbone量化技巧集锦
44 0
|
6月前
|
机器学习/深度学习
时间序列预测模型 MLP DNN网络详解 完整代码
时间序列预测模型 MLP DNN网络详解 完整代码
82 0
|
6月前
|
机器学习/深度学习
时间序列预测模型分享 MLP CNN LSTM 完整代码可直接运行
时间序列预测模型分享 MLP CNN LSTM 完整代码可直接运行
97 0
|
12月前
|
机器学习/深度学习 数据挖掘 计算机视觉
What?UFO! | UFO-ViT用X-Norm让你的Transformer模型回归线性复杂度(二)
What?UFO! | UFO-ViT用X-Norm让你的Transformer模型回归线性复杂度(二)
116 0
|
12月前
|
数据可视化 计算机视觉
Inception 新结构 | 究竟卷积与Transformer如何结合才是最优的?(二)
Inception 新结构 | 究竟卷积与Transformer如何结合才是最优的?(二)
175 0
|
12月前
|
机器学习/深度学习 SQL 编解码
Inception 新结构 | 究竟卷积与Transformer如何结合才是最优的?(一)
Inception 新结构 | 究竟卷积与Transformer如何结合才是最优的?(一)
199 0
|
12月前
|
机器学习/深度学习 编解码 算法
全新池化方法AdaPool | 让ResNet、DenseNet、ResNeXt等在所有下游任务轻松涨点(一)
全新池化方法AdaPool | 让ResNet、DenseNet、ResNeXt等在所有下游任务轻松涨点(一)
173 0