RT-DETR改进策略【卷积层】| CVPR-2020 Strip Pooling 空间池化模块 处理不规则形状的对象 含二次创新

简介: RT-DETR改进策略【卷积层】| CVPR-2020 Strip Pooling 空间池化模块 处理不规则形状的对象 含二次创新

一、本文介绍

本文记录的是利用Strip Pooling模块优化RT-DETR的目标检测网络模型Strip Pooling结合了长而窄的卷积核形状在一个空间维度上的长程关系捕捉能力和在另一个空间维度上的局部细节捕捉能力,有效地处理复杂的场景信息。这一机制通过采用$1×N$或$N×1$的池化核形状来适应不同的图像特征,高模型对目标形状和分布的适应性。在场景解析网络中,Strip Pooling可以被用于提升对具有长程带状结构离散分布目标的解析能力,特别是在复杂场景或不同对象布局条件下效果更好。


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、Strip Pooling 介绍

2.1 设计出发点

  • 解决传统空间池化局限性:传统空间池化通常采用固定形状的$N×N$核,在处理具有不规则形状的对象或现实场景中广泛存在的各向异性上下文时存在局限性。

例如,在一些情况下,目标对象可能具有长程带状结构(如草地)或离散分布(如柱子),使用大的方形池化窗口无法很好地解决问题,因为它不可避免地会包含来自无关区域的污染信息。

  • 更有效地捕获长程依赖:为了更有效地捕获长程依赖,作者提出利用空间池化扩大卷积神经网络(CNNs)的感受野并收集有用的上下文信息,从而提出了Strip Pooling的概念。

2.2 原理

  • 数学定义
    • 标准空间平均池化:对于二维输入张量$x\in\mathbb{R}^{H×W}$,平均池化层需要一个池化的空间范围$(h×w)$。当$h$整除$H$且$w$整除$W$时,池化后的输出$y$是一个二维张量,高度为$H{o}=\frac{H}{h}$,宽度为$W{o}=\frac{W}{w}$,其计算公式为:$$y_{i_{o},j_{o}}=\frac{1}{h×w}\sum_{0\leq i{o}<H{o}$且$0\leq j{o}<W{o}$,每个$y$的空间位置对应一个大小为$h×w$的池化窗口。
    • Strip Pooling:对于二维张量$x\in\mathbb{R}^{H×W}$,在Strip Pooling中,需要一个池化的空间范围为$(H,1)$或$(1,W)$。水平Strip Pooling后的输出$y^{h}\in\mathbb{R}^{H}$计算公式为:$$y_{i}^{h}=\frac{1}{W}\sum_{0\leq j垂直Strip Pooling后的输出$y^{v}\in\mathbb{R}^{W}$计算公式为:$$y_{j}^{v}=\frac{1}{H}\sum_{0\leq i
  • 长程依赖和局部细节捕捉:通过长而窄的核形状,能够在离散分布的区域之间建立长程依赖,并对带状形状的区域进行编码。同时,由于在另一个维度上保持窄核形状,也能够专注于捕捉局部细节

2.3 结构

2.3.1 Strip Pooling Module (SPM)

整体结构
如图所示,输入张量$x\in\mathbb{R}^{C×H×W}$首先被送入两个并行路径,每个路径包含一个水平垂直Strip Pooling层,后面跟着一个核大小为3的1D卷积层用于调制当前位置及其邻域特征,得到$y^{h}\in\mathbb{R}^{C×H}$和$y^{v}\in\mathbb{R}^{C×W}$。

然后将$y^{h}$和$y^{v}$组合得到$y\in\mathbb{R}^{C×H×W}$($y{c,i,j}=y{c,i}^{h}+y_{c,j}^{v}$)。

最后输出$z\in\mathbb{R}^{C×H×W}$,计算方式为$z = Scale(x,\sigma(f(y)))$,其中$Scale(,)$是元素级乘法,$\sigma$是sigmoid函数,$f$是一个1×1卷积。

在这里插入图片描述

  • 路径连接:在这个过程中,输出张量的每个位置都可以与输入张量的多个位置建立关系。例如,输出张量中由黑色框界定的正方形与具有相同水平或垂直坐标的所有位置相连。

    2.3.2 Mixed Pooling Module (MPM)

    整体结构:由两个子模块组成,用于同时捕获不同位置之间的短程和长程依赖

对于长程依赖,采用水平垂直Strip Pooling操作;对于短程依赖,采用一个轻量级的金字塔池化子模块,它有两个空间池化层,后面跟着卷积层用于多尺度特征提取,还有一个2D卷积层用于保留原始空间信息,池化后的特征图bin大小分别为20×2012×12,三个子路径通过求和组合。

然后将两个子模块嵌套到具有瓶颈结构残差块中,在每个子模块之前,先使用一个1×1卷积层进行通道缩减,两个子模块的输出连接在一起后再送入另一个1×1卷积层进行通道扩展

在这里插入图片描述

  • 模块嵌套:基于上述两个子模块,将它们嵌套到具有瓶颈结构的残差块中进行参数减少和模块化设计。

2.4 优势

  • 与全局平均池化相比
    • 避免不必要连接Strip Pooling考虑长而窄的范围,而不是整个特征图,避免了在相距较远的位置之间建立大多数不必要的连接。
    • 注意力机制优势:与基于注意力的模块相比,SPM是轻量级的,可以很容易地嵌入到任何构建块中,以提高捕获长程空间依赖和利用通道间依赖的能力
  • 与金字塔池化模块相比
    • 更强大和适应性更强:所提出的MPM是一种模块化设计,可以很容易地以顺序方式使用,以扩展长程依赖收集子模块的作用。在相同的骨干网络下,只有两个MPMs(参数约为原始PPM的1/3)的网络性能甚至优于PSPNet。

论文:https://arxiv.org/abs/2003.13328
源码: https://github.com/houqb/SPNet

三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/144061118

相关文章
|
Docker Python 容器
Python项目打包成docker镜像,并在docker中运行
Python项目打包成docker镜像,并在docker中运行
2095 0
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【注意力机制篇】| Large Separable Kernel Attention (LSKA) 大核可分离卷积注意力 二次创新HGBlock、ResNetLayer
RT-DETR改进策略【注意力机制篇】| Large Separable Kernel Attention (LSKA) 大核可分离卷积注意力 二次创新HGBlock、ResNetLayer
442 2
|
人工智能 边缘计算 运维
AI 时代下,操作系统的进化与重构
随着人工智能(AI)的迅猛发展,操作系统面临着前所未有的挑战和机遇。在这个新时代,操作系统需要进行深刻的进化与重构,以适应AI技术的广泛应用和不断变化的需求。
853 5
|
10月前
|
存储 安全 Java
Java 集合面试题从数据结构到 HashMap 源码剖析详解及长尾考点梳理
本文深入解析Java集合框架,涵盖基础概念、常见集合类型及HashMap的底层数据结构与源码实现。从Collection、Map到Iterator接口,逐一剖析其特性与应用场景。重点解读HashMap在JDK1.7与1.8中的数据结构演变,包括数组+链表+红黑树优化,以及put方法和扩容机制的实现细节。结合订单管理与用户权限管理等实际案例,展示集合框架的应用价值,助你全面掌握相关知识,轻松应对面试与开发需求。
485 3
|
消息中间件 人工智能 Kubernetes
解密开源Serverless容器框架:事件驱动篇
Knative是一款基于Kubernetes的开源Serverless框架,提供了云原生、跨平台的Serverless编排标准。作为Serverless中必不可少的事件驱动能力,Knative Eventing提供了云原生的事件驱动能力。
|
存储 关系型数据库 MySQL
MySQL高级篇——覆盖索引、前缀索引、索引下推、SQL优化、主键设计
覆盖索引、前缀索引、索引下推、SQL优化、EXISTS 和 IN 的区分、建议COUNT(*)或COUNT(1)、建议SELECT(字段)而不是SELECT(*)、LIMIT 1 对优化的影响、多使用COMMIT、主键设计、自增主键的缺点、淘宝订单号的主键设计、MySQL 8.0改造UUID为有序
MySQL高级篇——覆盖索引、前缀索引、索引下推、SQL优化、主键设计
|
机器学习/深度学习 自然语言处理 计算机视觉
【YOLOv11改进 - 注意力机制】 MHSA:多头自注意力(Multi-Head Self-Attention)
【YOLOv11改进 - 注意力机制】 MHSA:多头自注意力(Multi-Head Self-Attention)BoTNet是一种将自注意力机制引入ResNet的创新架构,通过在最后三个瓶颈块中用全局自注意力替换空间卷积,显著提升了图像分类、物体检测和实例分割的性能,同时减少了参数量和计算开销。在COCO实例分割和ImageNet分类任务中,BoTNet分别达到了44.4%的Mask AP和84.7%的Top-1准确率,超越了现有模型。
【YOLOv11改进 - 注意力机制】 MHSA:多头自注意力(Multi-Head Self-Attention)
|
机器学习/深度学习 人工智能 文字识别
ultralytics YOLO11 全新发布!(原理介绍+代码详见+结构框图)
本文详细介绍YOLO11,包括其全新特性、代码实现及结构框图,并提供如何使用NEU-DET数据集进行训练的指南。YOLO11在前代基础上引入了新功能和改进,如C3k2、C2PSA模块和更轻量级的分类检测头,显著提升了模型的性能和灵活性。文中还对比了YOLO11与YOLOv8的区别,并展示了训练过程和结果的可视化
24863 0
|
机器学习/深度学习 数据采集 TensorFlow
使用TensorFlow进行模型训练:一次实战探索
【8月更文挑战第22天】本文通过实战案例详解使用TensorFlow进行模型训练的过程。首先确保已安装TensorFlow,接着预处理数据,包括加载、增强及归一化。然后利用`tf.keras`构建卷积神经网络模型,并配置训练参数。最后通过回调机制训练模型,并对模型性能进行评估。此流程为机器学习项目提供了一个实用指南。
|
机器学习/深度学习 算法 计算机视觉
【YOLOv8改进 - 注意力机制】RCS-OSA :减少通道的空间对象注意力,高效且涨点
YOLOv8专栏探讨了YOLO系列的创新改进,提出RCS-YOLO模型,它在脑肿瘤检测中超越YOLOv6/v7/v8,精度提升1%,速度增快60%(达到114.8 FPS)。RCS-OSA模块结合RepVGG/ShuffleNet优点,通过通道重参数化和混洗优化卷积,提升速度和准确性。代码和论文可在提供的链接获取。