RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V1 基于 Ghost Module 和 Ghost Bottlenecks的轻量化网络结构

简介: RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V1 基于 Ghost Module 和 Ghost Bottlenecks的轻量化网络结构

一、本文介绍

本文记录的是基于GhostNet v1的RT-DETR网络模型轻量化方法研究GhostNet中的Ghost模块Ghost瓶颈结构是其轻量化的关键。Ghost模块克服了传统卷积层计算资源需求大的问题,Ghost瓶颈则合理设计了通道数量的变化以及与捷径连接的方式,能更好地在减少计算成本的同时保持较高性能,从而提升模型在移动设备上的应用能力和效率。

模型 参数量 计算量 推理速度
rtdetr-l 32.8M 108.0GFLOPs 11.6ms
Improved 21.3M 63.0GFLOPs 10.9ms

专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、GhostNet V1模型轻量化设计

GhostNet: More Features from Cheap Operations

2.1 出发点

  • 减少计算资源需求:传统的深度卷积神经网络在实现高准确率时通常需要大量的参数和浮点运算(FLOPs),例如ResNet - 50有大约2560万个参数,处理一张224×224大小的图像需要41亿FLOPs。这使得在移动设备(如智能手机和自动驾驶汽车)上部署变得困难,因此需要探索更轻便、高效且性能可接受的网络架构。
  • 利用特征图冗余:观察到在经过良好训练的深度神经网络的特征图中存在大量甚至冗余的信息,例如ResNet - 50生成的输入图像的特征图中存在许多相似的特征图对。这些冗余信息可以作为一种资源来利用,以更高效的方式生成更多特征。

2.2 原理

2.2.1 卷积层

在常规的卷积层操作中,对于输入数据$X \in \mathbb{R}^{c×h×w}$(其中$c$是输入通道数,$h$和$w$分别是输入数据的高度和宽度),产生$n$个特征图的任意卷积层操作可以表示为$Y = X f + b$。其中$$是卷积操作,$b$是偏置项,$Y \in \mathbb{R}^{h'×w'×n}$是输出特征图,$f \in \mathbb{R}^{c×k×k×n}$是该层的卷积滤波器,$h'$和$w'$是输出数据的高度和宽度,$k×k$是卷积滤波器$f$的核大小。在这个卷积过程中,所需的FLOPs数量为$n \cdot h' \cdot w' \cdot c \cdot k \cdot k$,由于滤波器数量$n$和通道数$c$通常很大,这个值往往非常大。

2.2.2 Ghost模块

  • 生成内在特征图:将深度神经网络中的普通卷积层分为两部分。首先通过普通卷积生成m个内在特征图$Y' \in \mathbb{R}^{h'×w'×m}$,其计算公式为$Y' = X * f'$,其中$X$是输入数据,$f'$是卷积滤波器,这里的卷积操作的超参数(如滤波器大小、步长、填充等)与普通卷积层保持一致,以保证输出特征图的空间尺寸不变。
  • 生成Ghost特征图:基于这些内在特征图,通过一系列简单的线性操作$\Phi{i, j}$生成Ghost特征图。对于每个内在特征图$y{i}'$,可以生成s个Ghost特征图$y{ij}$,其计算公式为$y{ij} = \Phi{i, j}(y{i}')$,其中$i = 1, \cdots, m$,$j = 1, \cdots, s$。最后一个线性操作$\Phi_{i, s}$为恒等映射,用于保留内在特征图。通过这种方式,可以得到$n = m \cdot s$个特征图作为Ghost模块的输出。

在这里插入图片描述

2.2.3 复杂度分析

  • 理论加速比:假设存在1个恒等映射和$m \cdot (s - 1)$个线性操作,每个线性操作的平均核大小为$d×d$,理想情况下,这些线性操作可以有不同的形状和参数,但考虑到实际的在线推理效率,通常建议在一个Ghost模块中采用相同大小的线性操作(如3×3或5×5)。理论上,使用Ghost模块升级普通卷积的加速比$r{s}$约为$s$,压缩比$r{c}$也约为$s$。

2.3 结构

2.3.1 Ghost瓶颈(Ghost Bottlenecks)

  • 组成结构:主要由两个堆叠Ghost模块组成。第一个Ghost模块作为扩展层,增加通道数量,其输出通道数与输入通道数的比值称为扩展比;第二个Ghost模块减少通道数量以匹配捷径路径。捷径连接在这两个Ghost模块的输入和输出之间,并且在每个层之后应用批量归一化(BN)和ReLU非线性激活函数,但根据MobileNetV2的建议,第二个Ghost模块之后不使用ReLU。
    • 不同步长的结构差异:对于$stride = 1$的情况,结构如上述描述;对于$stride = 2$的情况,捷径路径通过一个下采样层实现,并且在两个Ghost模块之间插入一个步长为2的深度卷积层。在实际应用中,Ghost模块中的主要卷积采用逐点卷积以提高效率。

2.3.2 GhostNet整体结构

  • 基本构建块:以Ghost瓶颈作为基本构建块,由一系列Ghost瓶颈组成。第一层是一个具有16个滤波器的标准卷积层,然后是一系列通道逐渐增加的Ghost瓶颈。这些Ghost瓶颈根据输入特征图的大小分组为不同的阶段,除了每个阶段的最后一个Ghost瓶颈采用$stride = 2$外,其他均采用$stride = 1$。
  • 分类相关层:最后使用全局平均池化和一个卷积层将特征图转换为1280维的特征向量用于最终分类。在一些Ghost瓶颈的残差层中还应用了挤压和激励(SE)模块

2.4 优势

  • 计算成本降低:Ghost模块能够在生成相同数量特征图的情况下,减少所需的参数数量和计算复杂度。例如,在CIFAR - 10数据集上对VGG - 16和ResNet - 56进行实验时,替换为Ghost模块后的模型(Ghost - VGG - 16和Ghost - ResNet - 56)在保持较高准确率的同时,FLOPs显著降低。在ImageNet数据集上对ResNet - 50进行实验时,Ghost - ResNet - 50($s = 2$)在保持准确率的情况下,获得了约2倍的加速和压缩比。
  • 性能优越
    • 图像分类任务:在ImageNet分类任务中,与MobileNet系列、ShuffleNet系列、ProxylessNAS、FBNet、MnasNet等现代小网络架构相比,GhostNet在不同计算复杂度水平下均表现出更优的性能。例如,GhostNet在与MobileNetV3具有相似计算成本的情况下,能够获得更高的准确率(如GhostNet - 1.3x的top - 1准确率为75.7%,而MobileNetV3 Large 1.0x的top - 1准确率为75.2%),并且在实际推理速度上也具有优势,在相同延迟下,GhostNet的top - 1准确率比MobileNetV3高约0.5%。
    • 对象检测任务:在MS COCO数据集上进行对象检测实验时,将GhostNet作为骨干特征提取器替换到Faster R - CNN和RetinaNet框架中,在显著降低计算成本的情况下,GhostNet取得了与MobileNetV2和MobileNetV3相似的平均精度(mAP)。

论文:https://arxiv.org/pdf/1911.11907.pdf
源码:https://github.com/huawei-noah/Efficient-AI-Backbones

三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/144212831

相关文章
|
8月前
|
C++
基于Reactor模型的高性能网络库之地址篇
这段代码定义了一个 InetAddress 类,是 C++ 网络编程中用于封装 IPv4 地址和端口的常见做法。该类的主要作用是方便地表示和操作一个网络地址(IP + 端口)
367 58
|
8月前
|
网络协议 算法 Java
基于Reactor模型的高性能网络库之Tcpserver组件-上层调度器
TcpServer 是一个用于管理 TCP 连接的类,包含成员变量如事件循环(EventLoop)、连接池(ConnectionMap)和回调函数等。其主要功能包括监听新连接、设置线程池、启动服务器及处理连接事件。通过 Acceptor 接收新连接,并使用轮询算法将连接分配给子事件循环(subloop)进行读写操作。调用链从 start() 开始,经由线程池启动和 Acceptor 监听,最终由 TcpConnection 管理具体连接的事件处理。
282 2
|
8月前
基于Reactor模型的高性能网络库之Tcpconnection组件
TcpConnection 由 subLoop 管理 connfd,负责处理具体连接。它封装了连接套接字,通过 Channel 监听可读、可写、关闭、错误等
231 1
|
8月前
|
JSON 监控 网络协议
干货分享“对接的 API 总是不稳定,网络分层模型” 看电商 API 故障的本质
本文从 OSI 七层网络模型出发,深入剖析电商 API 不稳定的根本原因,涵盖物理层到应用层的典型故障与解决方案,结合阿里、京东等大厂架构,详解如何构建高稳定性的电商 API 通信体系。
|
10月前
|
域名解析 网络协议 安全
计算机网络TCP/IP四层模型
本文介绍了TCP/IP模型的四层结构及其与OSI模型的对比。网络接口层负责物理网络接口,处理MAC地址和帧传输;网络层管理IP地址和路由选择,确保数据包准确送达;传输层提供端到端通信,支持可靠(TCP)或不可靠(UDP)传输;应用层直接面向用户,提供如HTTP、FTP等服务。此外,还详细描述了数据封装与解封装过程,以及两模型在层次划分上的差异。
2195 13
|
10月前
|
网络协议 中间件 网络安全
计算机网络OSI七层模型
OSI模型分为七层,各层功能明确:物理层传输比特流,数据链路层负责帧传输,网络层处理数据包路由,传输层确保端到端可靠传输,会话层管理会话,表示层负责数据格式转换与加密,应用层提供网络服务。数据在传输中经过封装与解封装过程。OSI模型优点包括标准化、模块化和互操作性,但也存在复杂性高、效率较低及实用性不足的问题,在实际中TCP/IP模型更常用。
1413 10
|
5月前
|
机器学习/深度学习 数据采集 人工智能
深度学习实战指南:从神经网络基础到模型优化的完整攻略
🌟 蒋星熠Jaxonic,AI探索者。深耕深度学习,从神经网络到Transformer,用代码践行智能革命。分享实战经验,助你构建CV、NLP模型,共赴二进制星辰大海。
|
6月前
|
机器学习/深度学习 传感器 算法
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
【无人车路径跟踪】基于神经网络的数据驱动迭代学习控制(ILC)算法,用于具有未知模型和重复任务的非线性单输入单输出(SISO)离散时间系统的无人车的路径跟踪(Matlab代码实现)
432 2
|
6月前
|
机器学习/深度学习 并行计算 算法
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
【CPOBP-NSWOA】基于豪冠猪优化BP神经网络模型的多目标鲸鱼寻优算法研究(Matlab代码实现)
164 8
|
8月前
基于Reactor模型的高性能网络库之Poller(EpollPoller)组件
封装底层 I/O 多路复用机制(如 epoll)的抽象类 Poller,提供统一接口支持多种实现。Poller 是一个抽象基类,定义了 Channel 管理、事件收集等核心功能,并与 EventLoop 绑定。其子类 EPollPoller 实现了基于 epoll 的具体操作,包括事件等待、Channel 更新和删除等。通过工厂方法可创建默认的 Poller 实例,实现多态调用。
403 60

热门文章

最新文章