YOLOU 集成超轻量化 YOLO 系列模型YOLO-Fastest v2,ONNX一键导出部署!

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,5000CU*H 3个月
小语种识别,小语种识别 200次/月
简介: YOLOU 集成超轻量化 YOLO 系列模型YOLO-Fastest v2,ONNX一键导出部署!

57717b6a7429e2c5f722ba4a6f319740.png

Github地址:https://github.com/jizhishutong/YOLOU

YOLOU是一个集成YOLOv3、YOLOv4、YOLOv5、YOLOv6、YOLOv7、YOLOX以及YOLOR的YOLO系列目标检测算法库,对于轻量化目标检测同时也集成了YOLOv3-Tiny、YOLOv4-Tiny、YOLO-Fastest V2、FastestDet、YOLOv5-Lite以及YOLOX-Lite。

对于实际工程和遇到的问题也会进行一定实践经验的植入,诸如针对小目标检测问题集成了YOLOv5的改进版本——YOLOv5-SPD模型,以及解决域迁移问题的LF-YOLO模型等等。

为了方便大家能够产学研相结合,能够讲有用的思想和改进落地,这里也会进行实际落地的集成,目前已经开源的模型均可一键转换到ONNX文件进行各个推理框架的部署,目前在测试阶段的有TensorRT、NCNN、OpenVINO以及Tengine推理框架,近期均会开源。

为了大家在实际使用中能够尽可能实现自己的想法,YOLOU还集成了众多注意力模块以及困难任务的模型模块。目前支持和即将支持的模块如下:

对于实际过程落地问题所集成的模块

  • 小目标问题模块:SPD-Conv、TPH-YOLO、YOLO-SlimNeck、NWD-Base Metric、YOLO-SAHI(测试完成)
  • 域迁移问题模块:YOLO-SA、DAYOLO(测试完成)
  • 恶劣天气问题模块:LF-YOLO(测试完成)

针对注意力模块

  • Self Attention
  • Involution
  • CARAFE
  • Bottleneck Transformer
  • SK Attention
  • CBAM Attention
  • SE Attention
  • Coordinate attention
  • Channel Attention Module
  • Spatial Attention Module
  • Coordinate attention
  • GAM Attention
  • Global Window Attention
  • SwinTransformer Block
  • 等等

空间金字塔池化结构

  • SPP
  • SPPF
  • ASPP
  • RFB
  • SPPCSPC
  • GhostSPPCSPC
  • SPP_FastestDet
  • 等等

对于重参结构

这里不仅仅支持离线架构重参,还支持在线结构化重参:

  • RepVGG
  • DBB
  • ACNet
  • OREPA
  • DyReP
  • 等等

如何在YOLOU中构建超轻量化模型?

这里就给大家示意一下如何在YOLOU中添加YOLO-Fastest V2模型,实现超轻量化的YOLO系列算法,让YOLO在ARM端也能实时检测。

1、 YOLO-Fastest V2 模型框架的基本结构

首先第一步便是对于所搭建模型的整体架构的了解,这里笔者给大家把YOLO-Fastest v2的整体架构图绘制出来了,如果你对于YOLOU足够了解,你便知道如下图所示,YOLO-Fastest V2整个框架也是由Backbone+Neck+Head的基本范式进行的搭建,其中主要用到的模块有,ShuffleV2Block、CBS(Conv+BN+SiLU)、Upsample以及DWConvBlock。

278f231dbfd15fb0698d79fe640ab381.png

下面便是基于前面的网络架构图进行搭建的YAML文件,具体实验大家可以去YOLOU的github进行尝试和实验。

backbone:
  # [from, number, module, args]
  [[-1, 1, SimConv, [24, 3, 2]],  # 0-P1/2
   [-1, 1, nn.MaxPool2d, [24, 3, 2, 1]],  # 1-P2/4
   [-1, 4, ShuffleNetV2x, [48, 3, 2]], #stage2/8
   [-1, 8, ShuffleNetV2x, [96, 3, 2]], # 3- stage3/16 C2
   [-1, 4, ShuffleNetV2x, [192, 3, 2]], # 4- stage4/32 C3
  ]
# YOLO-Fastest v6.0 head
head:
  [[-1, 1, SimConv, [72, 1, 1]], #5-S3
   [-1, 1, DWConvblockX, [72, 5]], #6-cls_3, obj_3
   [5, 1, DWConvblockX, [72, 5]],  #7-reg_3
   [4, 1, nn.Upsample, [None, 2, 'nearest']], 
   [[-1, 3], 1, Concat, [1]],  # p2
   [-1, 1, SimConv, [72, 1, 1]],  # 10-S2
   [-1, 1, DWConvblockX, [72, 5]], #11-cls_2, obj_2
   [10, 1, DWConvblockX, [72, 5]], #12-reg_2
   [[12, 11, 7, 6], 1, DetectFaster, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

这里可以看出模型的主干为ShuffleNet V2。与原始主干相比,内存访问减少且更轻。其次,Anchor的匹配机制指的是YOLOV5,它实际上是Yolov 5和Darknet的官方版本。

下一步是检测头的解耦。这也是对YoloX的参考。它将返回检测帧并对前景和背景进行分类。检测类别的分类将Yolo的特征图耦合到3个不同的特征图中,其中前景背景的分类和检测类别的归类共享相同的网络分支参数。

最后,用Softmax代替检测损失类别分类。

顺便说一句,作者只用2个尺度的检测头输出11×11和22×22进行检测输出,因为原始作者使用3个检测头(11×11、22×22、44×44)和2个检测头的精度在coco中没有太大差异。

作者认为的原因如下:

  • 主干对应于44×44分辨率的特征图太少;
  • 正archors和负archors严重失衡;
  • 小目标是困难的样本,需要很高的模型学习能力;

因此,YOLO-Fastest v2不仅应该关注耗时的模型推理,还应该关注模型推理所消耗的系统资源、内存和CPU使用。例如,两种型号的CPU都可以达到30fps,但在单核实时的情况下,CPU仅占型号A的20%。当4个内核完全打开时,B型可以实现实时性。CPU使用率可能为100%,但B型性能可能更好。在这种情况下,需要权衡利弊。

下面是官方的精度和不同模型的对比,可以看到还是很香的!

610f5adaa198185a35d24386625bf173.png

2、Detect.py的修改

这里修改的目的主要是为了迎合onnx的导出,以方便onnx在不同推理框架的部署,这里我们了解Yolo-v5和YOLO-Fastest v2的朋友应该知道,其对于样本的分配以及Anchor的机制基本没对YOLOV5进行修改,但是YOLO-Fastest v2终究是没有基于YOLOV5进行搭建,因此集成的过程中会遇到导出onnx时加入grid过程中产生很多不规范的op,因此这里也进行了修改。

原始YOLO-Fastest v2的检测头搭建如下:

class Detector(nn.Module):
    def __init__(self, classes, anchor_num, load_param, export_onnx = False):
        super(Detector, self).__init__()
        out_depth = 72
        stage_out_channels = [-1, 24, 48, 96, 192]
        self.export_onnx = export_onnx
        self.backbone = ShuffleNetV2(stage_out_channels, load_param)
        self.fpn = LightFPN(stage_out_channels[-2] + stage_out_channels[-1], stage_out_channels[-1], out_depth)
        self.output_reg_layers = nn.Conv2d(out_depth, 4 * anchor_num, 1, 1, 0, bias=True)
        self.output_obj_layers = nn.Conv2d(out_depth, anchor_num, 1, 1, 0, bias=True)
        self.output_cls_layers = nn.Conv2d(out_depth, classes, 1, 1, 0, bias=True)
    def forward(self, x):
        C2, C3 = self.backbone(x)
        cls_2, obj_2, reg_2, cls_3, obj_3, reg_3 = self.fpn(C2, C3)
        out_reg_2 = self.output_reg_layers(reg_2)
        out_obj_2 = self.output_obj_layers(obj_2)
        out_cls_2 = self.output_cls_layers(cls_2)
        out_reg_3 = self.output_reg_layers(reg_3)
        out_obj_3 = self.output_obj_layers(obj_3)
        out_cls_3 = self.output_cls_layers(cls_3)
        if self.export_onnx:
            out_reg_2 = out_reg_2.sigmoid()
            out_obj_2 = out_obj_2.sigmoid()
            out_cls_2 = F.softmax(out_cls_2, dim = 1)
            out_reg_3 = out_reg_3.sigmoid()
            out_obj_3 = out_obj_3.sigmoid()
            out_cls_3 = F.softmax(out_cls_3, dim = 1)
            print("export onnx ...")
            return torch.cat((out_reg_2, out_obj_2, out_cls_2), 1).permute(0, 2, 3, 1), \
                   torch.cat((out_reg_3, out_obj_3, out_cls_3), 1).permute(0, 2, 3, 1)  
        else:
            return out_reg_2, out_obj_2, out_cls_2, out_reg_3, out_obj_3, out_cls_3

具体修改如下:

class DetectFaster(nn.Module):
    onnx_dynamic = False  # ONNX export parameter
    export = False  # export mode
    def __init__(self, num_classes, anchors=(), in_channels=(72, 72, 72, 72), inplace=True, prior_prob=1e-2):
        super(DetectFaster, self).__init__()
        out_depth = 72
        self.num_classes = num_classes
        self.nc = self.num_classes
        self.no = self.nc + 5  # number of outputs per anchor
        self.nl = len(anchors)  # number of detection layers
        self.grid = [torch.zeros(1)] * self.nl  # init grid
        self.anchor_grid = [torch.zeros(1)] * self.nl  # init anchor grid
        self.na = len(anchors[0]) // 2  # number of anchors
        self.output_reg_layers = nn.Conv2d(out_depth, 4 * self.na, 1, 1, 0)
        self.output_obj_layers = nn.Conv2d(out_depth, self.na, 1, 1, 0)
        self.output_cls_layers = nn.Conv2d(out_depth, self.nc, 1, 1, 0)
        self.inplace = inplace
        self.m = nn.ModuleList([self.output_reg_layers, self.output_obj_layers, self.output_cls_layers])
        self.register_buffer('anchors', torch.tensor(anchors).float().view(self.nl, -1, 2))
        self.prior_prob = prior_prob
        self.layer_index = [0, 0, 0, 1, 1, 1]
    def initialize_biases(self):
        for _, module in self.named_modules():
            if isinstance(module, nn.Conv2d):
                if module.bias is not None:
                    init.constant_(module.bias, 0)
    def forward(self, xin):
        preds = [xin[0], xin[1], xin[1], xin[2], xin[3], xin[3]]
        for i in range(self.nl):
            preds[i * 3] = self.m[0](preds[i * 3])
            preds[(i * 3) + 1] = self.m[1](preds[(i * 3) + 1])
            preds[(i * 3) + 2] = self.m[2](preds[(i * 3) + 2])
        if self.training:
            return preds[0], preds[1], preds[2], preds[3], preds[4], preds[5]
        else:
            z = []
            for i in range(self.nl):
                bs, _, h, w = preds[i * 3].shape
                if self.export:
                    bs = -1
                reg_preds = preds[i * 3].view(bs, self.na, 4, h, w).sigmoid()
                obj_preds = preds[(i * 3) + 1].view(bs, self.na, 1, h, w).sigmoid()
                cls_preds = preds[(i * 3) + 2].view(bs, 1, self.nc, h, w).repeat(1, 3, 1, 1, 1)
                cls_preds = F.softmax(cls_preds, dim=2)
                x = torch.cat([reg_preds, obj_preds, cls_preds], 2)
                y = x.view(bs, self.na, self.no, h, w).permute(0, 1, 3, 4, 2).contiguous()
                if self.onnx_dynamic or self.grid[i].shape[2:4] != x.shape[2:4]:
                    self.grid[i], self.anchor_grid[i] = self._make_grid(w, h, i)
                if self.inplace:
                    y[..., 0:2] = (y[..., 0:2] * 2 + self.grid[i]) * self.stride[i * 3]  # xy
                    y[..., 2:4] = (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i]  # wh
                else:
                    xy, wh, conf = y.split((2, 2, self.nc + 1), 4)  # y.tensor_split((2, 4, 5), 4)  # torch 1.8.0
                    xy = (xy * 2 + self.grid[i]) * self.stride[i * 3]  # xy
                    wh = (wh * 2) ** 2 * self.anchor_grid[i]  # wh
                    y = torch.cat((xy, wh, conf), 4)
                z.append(y.view(bs, -1, self.no))
                output = torch.cat(z, 1)
            return (output,)

具体导出的ONNX文件如下所示:

a3c30611d88d48cda0444a890b1221cb.png

这样便得到了比较规范的onnx,同时也将bbox的解码放入onnx文件,进一步简化了后处理的步骤,也降低了落地的难度。

3、如何得到更为美观优雅的ONNX文件?

Gather问题的消除可以参见下面的ONNX输出,具体实现可以参见YOLOU的开源代码!

a81c3d5e32a38d482379463ad8d02451.png

4、检测结果如下

450c5ff2b9379cc5e065a48ccba5ca4a.png832535b26c2d0204dfc694777f5687c5.png

推荐阅读

全新高性能 FPN | ssFPN 教您如何修改 FPN 让大小目标在目标检测中都有提升!!!

YOLOP v2来啦 | YOLOv7结合YOLOP的多任务版本,超越YOLOP以及HybridNets

nnUNet 改进 | 让UNet系列在大赛中雄风依旧!

相关文章
|
1月前
|
Java Maven Docker
gitlab-ci 集成 k3s 部署spring boot 应用
gitlab-ci 集成 k3s 部署spring boot 应用
|
29天前
|
运维 监控 Devops
DevOps实践:持续集成与部署的自动化之旅
【10月更文挑战第7天】在软件开发领域,DevOps已成为提升效率、加速交付和确保质量的关键策略。本文将深入探讨如何通过实施持续集成(CI)和持续部署(CD)来自动化开发流程,从而优化运维工作。我们将从基础概念入手,逐步过渡到实际操作,包括工具选择、流程设计以及监控和反馈机制的建立。最终,我们不仅会展示如何实现这一自动化流程,还会讨论如何克服常见的挑战,以确保成功实施。
61 9
|
1月前
|
监控 Devops 测试技术
DevOps实践:持续集成与部署的自动化之路
【9月更文挑战第30天】在软件工程的世界中,DevOps已成为提升开发效率、确保软件质量和加快交付速度的关键策略。本文将深入探讨如何通过自动化工具和流程实现持续集成(CI)与持续部署(CD),从而优化软件开发周期。我们将从基础概念出发,逐步深入到实际操作,最终展示如何构建一个高效的自动化流水线,以支持快速迭代和高质量发布。
56 7
|
2月前
|
Devops jenkins Java
DevOps实践:持续集成和部署的自动化之旅
【9月更文挑战第20天】在软件开发的世界里,速度和质量是至关重要的。本文将带领读者踏上一场自动化之旅,深入探索DevOps文化中的两大支柱——持续集成(CI)和持续部署(CD)。我们将通过一个实际的案例,展示如何利用现代工具和技术实现代码从编写到部署的无缝转换,确保软件交付的高效性和可靠性。准备好让你的开发流程变得更加流畅和高效了吗?让我们开始吧!
|
22天前
|
安全 Java 测试技术
ToB项目身份认证AD集成(二):快速搞定window server 2003部署AD域服务并支持ssl
本文详细介绍了如何搭建本地AD域控测试环境,包括安装AD域服务、测试LDAP接口及配置LDAPS的过程。通过运行自签名证书生成脚本和手动部署证书,实现安全的SSL连接,适用于ToB项目的身份认证集成。文中还提供了相关系列文章链接,便于读者深入了解AD和LDAP的基础知识。
|
2月前
|
缓存 数据可视化 jenkins
推荐2款实用的持续集成与部署(CI&CD)自动化工具
推荐2款实用的持续集成与部署(CI&CD)自动化工具
165 1
|
3月前
|
API UED 开发者
如何在Uno Platform中轻松实现流畅动画效果——从基础到优化,全方位打造用户友好的动态交互体验!
【8月更文挑战第31天】在开发跨平台应用时,确保用户界面流畅且具吸引力至关重要。Uno Platform 作为多端统一的开发框架,不仅支持跨系统应用开发,还能通过优化实现流畅动画,增强用户体验。本文探讨了Uno Platform中实现流畅动画的多个方面,包括动画基础、性能优化、实践技巧及问题排查,帮助开发者掌握具体优化策略,提升应用质量与用户满意度。通过合理利用故事板、减少布局复杂性、使用硬件加速等技术,结合异步方法与预设缓存技巧,开发者能够创建美观且流畅的动画效果。
77 0
|
4月前
|
监控 druid Java
spring boot 集成配置阿里 Druid监控配置
spring boot 集成配置阿里 Druid监控配置
278 6
|
4月前
|
Java 关系型数据库 MySQL
如何实现Springboot+camunda+mysql的集成
【7月更文挑战第2天】集成Spring Boot、Camunda和MySQL的简要步骤: 1. 初始化Spring Boot项目,添加Camunda和MySQL驱动依赖。 2. 配置`application.properties`,包括数据库URL、用户名和密码。 3. 设置Camunda引擎属性,指定数据源。 4. 引入流程定义文件(如`.bpmn`)。 5. 创建服务处理流程操作,创建控制器接收请求。 6. Camunda自动在数据库创建表结构。 7. 启动应用,测试流程启动,如通过服务和控制器开始流程实例。 示例代码包括服务类启动流程实例及控制器接口。实际集成需按业务需求调整。
346 4
|
4月前
|
消息中间件 Java 测试技术
【RocketMQ系列八】SpringBoot集成RocketMQ-实现普通消息和事务消息
【RocketMQ系列八】SpringBoot集成RocketMQ-实现普通消息和事务消息
304 1
下一篇
无影云桌面