YOLO目标检测创新改进与实战案例专栏
专栏目录: YOLO有效改进系列及项目实战目录 包含卷积,主干 注意力,检测头等创新机制 以及 各种目标检测分割项目实战案例
专栏链接: YOLO基础解析+创新改进+实战案例
摘要
Transformer自注意力机制已经引领了自然语言处理领域的革命,并且最近激发了Transformer风格架构设计在众多计算机视觉任务中取得竞争性结果。然而,大多数现有设计直接在二维特征图上使用自注意力机制,以基于每个空间位置的孤立查询和键对来获取注意力矩阵,但没有充分利用邻近键之间的丰富上下文信息。在这项工作中,我们设计了一种新颖的Transformer风格模块,即Contextual Transformer(CoT)块,用于视觉识别。该设计充分利用了输入键之间的上下文信息,以引导动态注意力矩阵的学习,从而增强视觉表示的能力。
在技术上,CoT块首先通过一个3×3卷积对输入键进行上下文编码,导致输入的静态上下文表示。我们进一步将编码后的键与输入查询连接起来,通过两个连续的1×1卷积来学习动态多头注意力矩阵。学习到的注意力矩阵与输入值相乘,以实现输入的动态上下文表示。静态和动态上下文表示的融合最终作为输出。我们提出的CoT块非常有吸引力,因为它可以轻松替换ResNet架构中的每一个3×3卷积,从而生成一种名为Contextual Transformer Networks(CoTNet)的Transformer风格骨干网络。通过在广泛应用(例如图像识别、目标检测和实例分割)中的大量实验,我们验证了CoTNet作为更强骨干网络的优越性。源码可在https://github.com/JDAI-CV/CoTNet获取。
基本原理
Large Separable Kernel Attention (LSKA)是一种新颖的注意力模块设计,旨在解决Visual Attention Networks (VAN)中使用大内核卷积时所面临的计算效率问题。LSKA通过将2D深度卷积层的卷积核分解为级联的水平和垂直1-D卷积核,从而实现了对大内核的直接使用,无需额外的模块。
概述
基本原理
CoTNet是一种基于Contextual Transformer(CoT)模块的网络结构,其原理如下:
CoTNet原理:
- CoTNet采用Contextual Transformer(CoT)模块作为构建块,用于替代传统的卷积操作。
- CoT模块利用3×3卷积来对输入键之间的上下文信息进行编码,生成静态上下文表示。
- 将编码后的键与输入查询连接,通过两个连续的1×1卷积来学习动态多头注意力矩阵。
- 学习到的注意力矩阵用于聚合所有输入数值,生成动态上下文表示。
- 最终将静态和动态上下文表示融合作为输出。
Contextual Transformer Attention在CoTNet中的作用和原理:
Contextual Transformer Attention是Contextual Transformer(CoT)模块中的关键组成部分,用于引导动态学习注意力矩阵,从而增强视觉表示并提高计算机视觉任务的性能
- Contextual Transformer Attention是CoT模块中的注意力机制,用于引导动态学习注意力矩阵。
- 通过Contextual Transformer Attention,模型能够充分利用输入键之间的上下文信息,从而更好地捕捉动态关系。
- 这种注意力机制有助于增强视觉表示,并提高计算机视觉任务的性能。
- CoTNet通过整合Contextual Transformer Attention,实现了同时进行上下文挖掘和自注意力学习的优势,从而提升了深度网络的表征能力。
yolov8 引入
```py
class CoTAttention(nn.Module):
def init(self, dim=512, kernel_size=3):
super().init()
self.dim = dim # 输入通道数
self.kernel_size = kernel_size # 卷积核大小
# 关键信息嵌入层,使用分组卷积提取特征
self.key_embed = nn.Sequential(
nn.Conv2d(dim, dim, kernel_size=kernel_size, padding=kernel_size // 2, groups=4, bias=False),
nn.BatchNorm2d(dim), # 归一化层
nn.ReLU() # 激活函数
)
# 值信息嵌入层,使用1x1卷积进行特征转换
self.value_embed = nn.Sequential(
nn.Conv2d(dim, dim, 1, bias=False),
nn.BatchNorm2d(dim) # 归一化层
)
# 注意力机制嵌入层,先降维后升维,最终输出与卷积核大小和通道数相匹配的特征
factor = 4 # 降维比例
self.attention_embed = nn.Sequential(
nn.Conv2d(2 * dim, 2 * dim // factor, 1, bias=False),
nn.BatchNorm2d(2 * dim // factor), # 归一化层
nn.ReLU(), # 激活函数
nn.Conv2d(2 * dim // factor, kernel_size * kernel_size * dim, 1) # 升维匹配卷积核形状
)
def forward(self, x):
bs, c, h, w = x.shape # 输入特征的尺寸
k1 = self.key_embed(x) # 应用关键信息嵌入
v = self.value_embed(x).view(bs, c, -1) # 应用值信息嵌入,并展平
y = torch.cat([k1, x], dim=1) # 将关键信息和原始输入在通道维度上拼接
att = self.attention_embed(y) # 应用注意力机制嵌入层
att = att.reshape(bs, c, self.kernel_size * self.kernel_size, h, w)
att = att.mean(2, keepdim=False).view(bs, c, -1) # 计算平均后展平
k2 = F.softmax(att, dim=-1) * v # 应用softmax进行标准化,并与值信息相乘
k2 = k2.view(bs, c, h, w) # 重塑形状与输入相同
return k1 + k2 # 将两部分信息相加并返回
```
task与yaml配置
详见:https://blog.csdn.net/shangyanaf/article/details/139261641