【经典论文解读】YOLACT 实例分割(YOLOv5、YOLOv8实例分割的基础)

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介:  YOLACT是经典的单阶段、实时、实例分割方法,在YOLOv5和YOLOv8中的实例分割,也是基于 YOLACT实现的,有必要理解一下它的模型结构和设计思路。

 前言

YOLACT是经典的单阶段、实时、实例分割方法,在YOLOv5和YOLOv8中的实例分割,也是基于 YOLACT实现的,有必要理解一下它的模型结构和设计思路。

论文:YOLACT: Real-time Instance Segmentation

开源地址:https://github.com/dbolya/yolact

image.gif

YOLACT(You Only Look At CoefficienTs)


一、模型框架

它对于one-stage 单阶段模型,添加了一个mask分支(与检测分支并行),整体模型结构如下图,流程思路:

1、输入图片;

2、通过主干网络对图片,进行特征提取;

3、经过FPN特征金字塔,对不同尺寸的特征图进行融合

4.1、检测分支对于每个目标物体,都输出类别、边框信息(x,y,w,h)、k个mask Coefficients(mask的的置信度,取值1或-1

4.2、分割分支针对当前输入图片,输出k个Prototype(mask原型图);不同图片,输出的Prototype有差异,但数量也是k个。

5、对于每个目标物体,将k个mask Coefficients(mask的的置信度)与k个Prototype(mask原型图)进行相乘,然后将所有结果相加,得到该目标物体的实例分割结果。

image.gif


二、YOLACT 主要特点

YOLACT 主要特点是将实例分割任务,划分为两个并行任务

    1. 将实例分割任务,划分为两个并行任务;(目标检测Detect实例分割mask 是并行计算的,这样设计的网络是单阶段的,适合YOLO系列,速度快)
    2. 在实例分割分支生成k个mask原型图(prototype masks),检测分支生成k个mask原型图的置信度(mask coefficients),然后将mask原型图mask原型置信度进行线性组合,生成实例分割结果。
    3. 比如在一张街道场景的图片,图中有行人、车辆、建筑物、树木等,当检测分支框中的是行人,那么行人相关的mask原型图置信度高(头、身体、手、脚、随身物品等的位置、轮廓、编码位置敏感的方向等原型图),其它的类别mask原型图置信度低,这样组合形成实例分割的结果。

    这里重点讲一下prototype masks

    【1】YOLACT 实际上是学习了一种分布表示,在一张图片中可能有多个类别,但不同类别之间的物体共享 prototypes 的组合

    在 prototype 空间

      • 某些 prototypes 对图片空间分块,
      • 某些 prototypes 定位实例,
      • 某些 prototypes 检测实例廓形,
      • 某些 prototypes 编码位置敏感的方向图(position-sensitive directional maps)等等,
      • 这些 prototypes 的组合构成了最终的分割结果.

      【2】每一个prototype mask是生成的相对于整张图片的,不是局部的

      如下图所示,生成的prototype mask是对于整张图片的;

      image.gif


      【3】prototype masks 的数量与物体类别无关(如,类别数量可能多于 prototypes 的数量);

      YOLACT 是针对每张图片学习 prototypes,即:不同图片生成的prototypes会有差异;

      区别于对整个数据集所学习的全局共享的 prototypes.

      比如在 BoF(Bag of Feature) 中,是对整个数据集所学习的全局共享的 prototypes.

      BOF 是一种图像特征提取方法,其实际上起源于文本领域的 BoW(Bag of Words) 模型. BoW 假定对于一个文本而言,忽略其词序、语法、句法等,仅看作是一个个词语的组合,每个词的出现都是相互独立的,不依赖于其它词的出现.

      BOF 假设图像相当于一个文本,图像中的不同局部区域或特征可以看作是构成图像的词汇(codebook). 如图:

      image.gif


      根据得到的图像的词汇,统计每个单词的频次,即可得到图片的特征向量,如图:

      image.gif

      YOLACT 是针对每张图片学习 prototypes,而 BOFs 是对整个数据集所学习的全局共享的 prototypes.

      参考:https://www.aiuai.cn/aifarm1190.html


      三、模型组件结构

      3.1 目标检测 分支

      通常的YOLO系列目标检测器包含两个预测输出分支

        • 一个分支,预测 c 个类别置信度
        • 另一个分支,预测 4 个边界框回归值

        对于YOLACT模型,添加一个分支,来预测k个mask Coefficients(mask的的置信度,取值1或-1每个 coefficient 分别对应一个 prototype

        这样“目标检测”分支,预测的信息包括:类别、边框信息(x,y,w,h)、k个mask Coefficients

        image.gif


        3.2 实例分割 分支

        YOLACT 的 “实例分割”(protonet) 会输出整张图片的 k 个 prototype masks 集合.

        首先看看“实例分割”分支中,通过什么操作生成prototype的:

        1、“实例分割”分支中,输入是FPN中的P3特征图,该特征图分辨率高,更好保留空间细节信息;同时融合了一定的语义信息。

        2、然后对特征图进行上采样,中间没有跳跃连接、特征融合之类的,朴素的FCN结构;(这部分有待改进)。

        3、再通过1*1卷积调整特征图的通道数量为k,这样就形成了k个Prototype(mask原型图)

        image.gif

        需要注意:这个分支不会计算损失;而且在线性组合后最终的 mask loss,才计算损失。


        3.3 Mask 线性组合

        对于每个目标物体,将k个mask Coefficients(mask的的置信度)与k个Prototype(mask原型图)进行相乘,然后将所有结果相加,并再接 sigmoid 非线性函数,生成最终的 masks;这样就得到该目标物体的实例分割结果。

        其中的计算公式如下:

        image.gif

          • P是k个Prototype mask,维度是h*w*k
          • C是k个mask Coefficients,维度是n*k,这里n是指检测分支中,预测出n个目标物体了
          • 是指sigmoid函数

          首先对k个mask Coefficients,进行转至,调整维度为k*n;

          然后k个Prototype mask与k个mask Coefficients相乘,h*w*k和k*n,得到维度为h*w*n的特征图

          最后对特征图进行sigmoid处理,这样就得到n目标物体的实例分割结果了


          四、损失函数

          模型主要由物体类别损失边框回归损失mask分类损失,三部分组成模型损失函数。

          物体类别损失 采用二分类交叉熵损失(BCE),判断物体类别;因为输出特征图,c个类别,对应有c个通道;每个通道的特征图,分别判断类别是否和标签的一样,是或不是,二分类即可。

          边框回归损失 采用IOU损失。

          其中的mask分类损失,是使用二分类交叉熵损失(BCE)进行计算

          image.gif

          一张图片可能有多个物体;对于每个物体,模型生成一张实例分割结果的特征图,我们通过逐个像素判断,该像素是否属于当前的物体,进行计算整张图片的损失情况。


          五、模型效果

          在 COCO test-dev 数据集,基于单张 Titan Xp 显卡,模型性能对比:

          image.gif

          模型效果:

          image.gif编辑

          细节信息对比:

          image.gif编辑

          分享完成~

          本文只供大家参考与学习,谢谢~

          相关文章
          |
          7月前
          |
          机器学习/深度学习 JSON 算法
          如何在自定义数据集上训练 YOLOv8 实例分割模型
          在本文中,我们将介绍微调 YOLOv8-seg 预训练模型的过程,以提高其在特定目标类别上的准确性。Ikomia API简化了计算机视觉工作流的开发过程,允许轻松尝试不同的参数以达到最佳结果。
          |
          7月前
          |
          机器学习/深度学习 开发工具 计算机视觉
          YOLOv8 目标检测 | 自定义数据集
          YOLOv8 目标检测 | 自定义数据集
          |
          机器学习/深度学习 算法 自动驾驶
          |
          7月前
          |
          机器学习/深度学习 测试技术 Ruby
          YOLOv8改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
          YOLOv8改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
          220 0
          |
          2月前
          |
          算法 计算机视觉 Python
          YOLOv8优改系列二:YOLOv8融合ATSS标签分配策略,实现网络快速涨点
          本文介绍了如何将ATSS标签分配策略融合到YOLOv8中,以提升目标检测网络的性能。通过修改损失文件、创建ATSS模块文件和调整训练代码,实现了网络的快速涨点。ATSS通过自动选择正负样本,避免了人工设定阈值,提高了模型效率。文章还提供了遇到问题的解决方案,如模块载入和环境配置问题。
          132 0
          YOLOv8优改系列二:YOLOv8融合ATSS标签分配策略,实现网络快速涨点
          |
          7月前
          |
          机器学习/深度学习 测试技术 Ruby
          YOLOv5改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
          YOLOv5改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
          256 2
          |
          7月前
          |
          算法 数据处理 计算机视觉
          论文介绍:基于点标注的实例分割
          【5月更文挑战第24天】研究人员提出了一种创新的弱监督实例分割方法,通过点标注代替传统的像素级掩模标注,显著降低数据标注成本和时间。点标注方案只需在对象边界框内标注少量点,与Mask R-CNN兼容,实现接近全监督性能。改进的PointRend模块(Implicit PointRend)在点监督下表现出色,简化了模型设计。实验表明,使用10个点标注的Mask R-CNN能达到全监督模型的性能,为实例分割的实际应用开辟了新途径。尽管取得初步成功,但面临处理不同尺度对象和提高泛化能力的挑战。
          80 4
          |
          6月前
          |
          计算机视觉
          实战|基于YOLOv10与MobileSAM实现目标检测与分割【附完整源码】
          实战|基于YOLOv10与MobileSAM实现目标检测与分割【附完整源码】
          |
          7月前
          |
          机器学习/深度学习 编解码 Unix
          超分数据集概述和超分经典网络模型总结
          超分数据集概述和超分经典网络模型总结
          154 1
          |
          算法 关系型数据库 数据挖掘
          实例分割算法综述
          实例分割算法综述
          263 0

          热门文章

          最新文章

          下一篇
          DataWorks