【YOLOv8改进】 YOLOv8 更换骨干网络之GhostNetV2 长距离注意力机制增强廉价操作,构建更强端侧轻量型骨干 (论文笔记+引入代码)

简介: 该专栏聚焦YOLO目标检测的创新改进与实战,介绍了轻量级CNNs和注意力机制在移动设备上的应用。文章提出了一种名为GhostNetV2的新架构,结合了硬件友好的DFC注意力机制,强化了特征表达能力和全局信息捕获,同时保持低计算成本和高效推理。GhostNetV2在ImageNet上以167M FLOPs达到75.3%的top-1准确率,优于同类模型。创新点包括DFC注意力、模型结构优化和效率提升。源代码可在GitHub和MindSpore平台上找到。此外,还提到了YOLOv8的相关实现和任务配置。

YOLO目标检测创新改进与实战案例专栏

专栏目录: YOLO有效改进系列及项目实战目录 包含卷积,主干 注意力,检测头等创新机制 以及 各种目标检测分割项目实战案例

专栏链接: YOLO基础解析+创新改进+实战案例

摘要

轻量级卷积神经网络(CNNs)专为移动设备上的应用而设计,具有更快的推理速度。卷积操作只能捕获窗口区域内的局部信息,这限制了性能的进一步提升。将自注意力引入到卷积中可以很好地捕获全局信息,但这将大大增加实际速度的负担。在本文中,我们提出了一种硬件友好的注意力机制(称为DFC注意力),然后为移动应用呈现了一个新的GhostNetV2架构。所提出的DFC注意力基于全连接层构建,不仅可以在常见硬件上快速执行,还能捕获长距离像素之间的依赖关系。我们进一步重新审视了之前GhostNet中的表达性瓶颈,并提出通过DFC注意力增强通过廉价操作产生的扩展特征,以便GhostNetV2块可以同时聚合局部和长距离信息。广泛的实验展示了GhostNetV2相较于现有架构的优越性。例如,在ImageNet上,它以167M FLOPs实现了75.3%的top-1准确率,显著超过了具有类似计算成本的GhostNetV1(74.5%)。源代码将在 https://github.com/huawei-noah/Efficient-AI-Backbones/tree/master/ghostnetv2_pytorchhttps://gitee.com/mindspore/models/tree/master/research/cv/ghostnetv2 上提供。

创新点

GhostNetV2的创新点总结如下:

  1. 增强的特征表达能力:相比于原始的GhostNet,GhostNetV2通过引入DFC(Decoupled Fully Connected)注意力机制,有效增强了网络对长距离空间位置依赖性的捕获能力。这使得模型能够同时整合局部和远程的信息,从而提升了特征的表达力。

  2. 硬件友好的DFC注意力机制:GhostNetV2提出了一种新颖的硬件友好的DFC注意力机制,通过解耦全连接层的方式,大幅降低了计算复杂度。DFC注意力通过沿水平和垂直方向聚集特征,有效捕获全局信息,同时保持了对移动设备的高效部署能力。

  3. 高效的计算成本:通过采用DFC注意力机制和对特征进行下采样,GhostNetV2在不牺牲性能的情况下,显著减少了模型的计算成本。这使得GhostNetV2在保持轻量级的同时,还能在移动设备上快速推理,提高了模型的实用性。

  4. 模型结构的优化:GhostNetV2采用了Inverted bottleneck设计,并通过DFC注意力机制与Ghost模块并行工作的方式,增强了扩展特征的表达能力。这种设计改进了模型的"expressiveness"和"capacity",同时保持了Ghost模块减少参数量和计算量的优势。

  5. 实验验证的性能提升:GhostNetV2通过广泛的实验验证,展示了其在ImageNet等标准数据集上的优越性能。相比GhostNetV1,GhostNetV2在相似的计算成本下,实现了更高的准确率,证明了其结构优化和注意力机制引入的有效性。

综上所述,GhostNetV2通过创新的DFC注意力机制和模型结构优化,在保持轻量级和高效部署的基础上,显著提升了模型的性能和表达能力。

yolov8 引入


class GhostV2(nn.Module):


    def __init__(self, num_in, num_out, num_mid, kernel_size, stride=1, act_type='relu', use_se=False, layer_id=None):
        super(GhostV2, self).__init__()
        self.use_ori_module = layer_id <= 1
        if self.use_ori_module:
            self.ghost1 = GhostModule(num_in, num_mid, kernel_size=1,
                                      stride=1, padding=0, act_type=act_type)
        else:
            self.ghost1 = GhostModuleMul(num_in, num_mid, kernel_size=1,
                                         stride=1, padding=0, act_type=act_type)

        self.use_dw = stride > 1
        self.dw = None
        if self.use_dw:
            self.dw = ConvUnit(num_mid, num_mid, kernel_size=kernel_size, stride=stride,
                               padding=self._get_pad(kernel_size), act_type=act_type, num_groups=num_mid, use_act=False)

        self.use_se = use_se
        if use_se:
            self.se = SE_Ghost(num_mid)

        self.ghost2 = GhostModule(num_mid, num_out, kernel_size=1, stride=1,
                                  padding=0, act_type=act_type, use_act=False)

        self.down_sample = False
        if num_in != num_out or stride != 1:
            self.down_sample = True
        self.shortcut = None
        if self.down_sample:
            self.shortcut = nn.Sequential(
                ConvUnit(num_in, num_in, kernel_size=kernel_size, stride=stride,
                         padding=self._get_pad(kernel_size), num_groups=num_in, use_act=False),
                ConvUnit(num_in, num_out, kernel_size=1, stride=1,
                         padding=0, num_groups=1, use_act=False),
            )

task与yaml配置

详见:https://blog.csdn.net/shangyanaf/article/details/136170972

相关文章
|
14天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
|
2天前
|
缓存 NoSQL Redis
redis管道操作(节省网络IO开销)
pipeline中发送的每个command都会被server立即执行,如果执行失败,将会在此后的响应中得到信息;也就是pipeline并不是表达“所有command都一起成功”的语义,管道中前面命令失败,后面命令不会有影响,继续执行。
5 1
|
7天前
|
机器学习/深度学习 算法 计算机视觉
没有公式,不要代码,让你理解 RCNN:目标检测中的区域卷积神经网络
没有公式,不要代码,让你理解 RCNN:目标检测中的区域卷积神经网络
36 0
没有公式,不要代码,让你理解 RCNN:目标检测中的区域卷积神经网络
|
10天前
|
监控 网络协议 安全
Verilog代码在上网行为管理软件中的网络设备控制与协议分析
**Verilog摘要:** Verilog是硬件描述语言,用于数字电路设计和网络设备控制。它在上网行为管理软件中用于控制路由器、交换机等,例如通过简单模块控制端口状态。此外,Verilog还支持协议分析,如解析以太网帧提取MAC地址。监控数据可结合Verilog实现自动化提交,例如通过HTTP发送请求到服务器,实现实时监控和响应。这些示例展示了Verilog在网络安全和性能优化中的应用潜力。
54 1
|
13天前
|
机器学习/深度学习 自然语言处理 并行计算
YOLOv8改进 | 注意力机制 | 在主干网络中添加MHSA模块【原理+附完整代码】
Transformer中的多头自注意力机制(Multi-Head Self-Attention, MHSA)被用来增强模型捕捉序列数据中复杂关系的能力。该机制通过并行计算多个注意力头,使模型能关注不同位置和子空间的特征,提高了表示多样性。在YOLOv8的改进中,可以将MHSA代码添加到`/ultralytics/ultralytics/nn/modules/conv.py`,以增强网络的表示能力。完整实现和教程可在提供的链接中找到。
|
14天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】27.卷积神经网络之VGG11模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】27.卷积神经网络之VGG11模型介绍及其Pytorch实现【含完整代码】
|
14天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】29.卷积神经网络之GoogLeNet模型介绍及用Pytorch实现GoogLeNet模型【含完整代码】
【从零开始学习深度学习】29.卷积神经网络之GoogLeNet模型介绍及用Pytorch实现GoogLeNet模型【含完整代码】
|
8天前
|
机器学习/深度学习 人工智能 算法
【机器学习】深度神经网络(DNN):原理、应用与代码实践
【机器学习】深度神经网络(DNN):原理、应用与代码实践
25 0
|
13天前
|
机器学习/深度学习 自然语言处理 前端开发
深度学习-[数据集+完整代码]基于卷积神经网络的缺陷检测
深度学习-[数据集+完整代码]基于卷积神经网络的缺陷检测
|
14天前
|
机器学习/深度学习 数据采集 自然语言处理
【注意力机制重大误区】网络模型增加注意力机制后,性能就一定会得到提升?有哪些影响因素?
【注意力机制重大误区】网络模型增加注意力机制后,性能就一定会得到提升?有哪些影响因素?

热门文章

最新文章