【经典论文解读】YOLACT 实例分割(YOLOv5、YOLOv8实例分割的基础)

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
大数据开发治理平台 DataWorks,不限时长
简介:  YOLACT是经典的单阶段、实时、实例分割方法,在YOLOv5和YOLOv8中的实例分割,也是基于 YOLACT实现的,有必要理解一下它的模型结构和设计思路。

 前言

YOLACT是经典的单阶段、实时、实例分割方法,在YOLOv5和YOLOv8中的实例分割,也是基于 YOLACT实现的,有必要理解一下它的模型结构和设计思路。

论文:YOLACT: Real-time Instance Segmentation

开源地址:https://github.com/dbolya/yolact

image.gif

YOLACT(You Only Look At CoefficienTs)


一、模型框架

它对于one-stage 单阶段模型,添加了一个mask分支(与检测分支并行),整体模型结构如下图,流程思路:

1、输入图片;

2、通过主干网络对图片,进行特征提取;

3、经过FPN特征金字塔,对不同尺寸的特征图进行融合

4.1、检测分支对于每个目标物体,都输出类别、边框信息(x,y,w,h)、k个mask Coefficients(mask的的置信度,取值1或-1

4.2、分割分支针对当前输入图片,输出k个Prototype(mask原型图);不同图片,输出的Prototype有差异,但数量也是k个。

5、对于每个目标物体,将k个mask Coefficients(mask的的置信度)与k个Prototype(mask原型图)进行相乘,然后将所有结果相加,得到该目标物体的实例分割结果。

image.gif


二、YOLACT 主要特点

YOLACT 主要特点是将实例分割任务,划分为两个并行任务

    1. 将实例分割任务,划分为两个并行任务;(目标检测Detect实例分割mask 是并行计算的,这样设计的网络是单阶段的,适合YOLO系列,速度快)
    2. 在实例分割分支生成k个mask原型图(prototype masks),检测分支生成k个mask原型图的置信度(mask coefficients),然后将mask原型图mask原型置信度进行线性组合,生成实例分割结果。
    3. 比如在一张街道场景的图片,图中有行人、车辆、建筑物、树木等,当检测分支框中的是行人,那么行人相关的mask原型图置信度高(头、身体、手、脚、随身物品等的位置、轮廓、编码位置敏感的方向等原型图),其它的类别mask原型图置信度低,这样组合形成实例分割的结果。

    这里重点讲一下prototype masks

    【1】YOLACT 实际上是学习了一种分布表示,在一张图片中可能有多个类别,但不同类别之间的物体共享 prototypes 的组合

    在 prototype 空间

      • 某些 prototypes 对图片空间分块,
      • 某些 prototypes 定位实例,
      • 某些 prototypes 检测实例廓形,
      • 某些 prototypes 编码位置敏感的方向图(position-sensitive directional maps)等等,
      • 这些 prototypes 的组合构成了最终的分割结果.

      【2】每一个prototype mask是生成的相对于整张图片的,不是局部的

      如下图所示,生成的prototype mask是对于整张图片的;

      image.gif


      【3】prototype masks 的数量与物体类别无关(如,类别数量可能多于 prototypes 的数量);

      YOLACT 是针对每张图片学习 prototypes,即:不同图片生成的prototypes会有差异;

      区别于对整个数据集所学习的全局共享的 prototypes.

      比如在 BoF(Bag of Feature) 中,是对整个数据集所学习的全局共享的 prototypes.

      BOF 是一种图像特征提取方法,其实际上起源于文本领域的 BoW(Bag of Words) 模型. BoW 假定对于一个文本而言,忽略其词序、语法、句法等,仅看作是一个个词语的组合,每个词的出现都是相互独立的,不依赖于其它词的出现.

      BOF 假设图像相当于一个文本,图像中的不同局部区域或特征可以看作是构成图像的词汇(codebook). 如图:

      image.gif


      根据得到的图像的词汇,统计每个单词的频次,即可得到图片的特征向量,如图:

      image.gif

      YOLACT 是针对每张图片学习 prototypes,而 BOFs 是对整个数据集所学习的全局共享的 prototypes.

      参考:https://www.aiuai.cn/aifarm1190.html


      三、模型组件结构

      3.1 目标检测 分支

      通常的YOLO系列目标检测器包含两个预测输出分支

        • 一个分支,预测 c 个类别置信度
        • 另一个分支,预测 4 个边界框回归值

        对于YOLACT模型,添加一个分支,来预测k个mask Coefficients(mask的的置信度,取值1或-1每个 coefficient 分别对应一个 prototype

        这样“目标检测”分支,预测的信息包括:类别、边框信息(x,y,w,h)、k个mask Coefficients

        image.gif


        3.2 实例分割 分支

        YOLACT 的 “实例分割”(protonet) 会输出整张图片的 k 个 prototype masks 集合.

        首先看看“实例分割”分支中,通过什么操作生成prototype的:

        1、“实例分割”分支中,输入是FPN中的P3特征图,该特征图分辨率高,更好保留空间细节信息;同时融合了一定的语义信息。

        2、然后对特征图进行上采样,中间没有跳跃连接、特征融合之类的,朴素的FCN结构;(这部分有待改进)。

        3、再通过1*1卷积调整特征图的通道数量为k,这样就形成了k个Prototype(mask原型图)

        image.gif

        需要注意:这个分支不会计算损失;而且在线性组合后最终的 mask loss,才计算损失。


        3.3 Mask 线性组合

        对于每个目标物体,将k个mask Coefficients(mask的的置信度)与k个Prototype(mask原型图)进行相乘,然后将所有结果相加,并再接 sigmoid 非线性函数,生成最终的 masks;这样就得到该目标物体的实例分割结果。

        其中的计算公式如下:

        image.gif

          • P是k个Prototype mask,维度是h*w*k
          • C是k个mask Coefficients,维度是n*k,这里n是指检测分支中,预测出n个目标物体了
          • 是指sigmoid函数

          首先对k个mask Coefficients,进行转至,调整维度为k*n;

          然后k个Prototype mask与k个mask Coefficients相乘,h*w*k和k*n,得到维度为h*w*n的特征图

          最后对特征图进行sigmoid处理,这样就得到n目标物体的实例分割结果了


          四、损失函数

          模型主要由物体类别损失边框回归损失mask分类损失,三部分组成模型损失函数。

          物体类别损失 采用二分类交叉熵损失(BCE),判断物体类别;因为输出特征图,c个类别,对应有c个通道;每个通道的特征图,分别判断类别是否和标签的一样,是或不是,二分类即可。

          边框回归损失 采用IOU损失。

          其中的mask分类损失,是使用二分类交叉熵损失(BCE)进行计算

          image.gif

          一张图片可能有多个物体;对于每个物体,模型生成一张实例分割结果的特征图,我们通过逐个像素判断,该像素是否属于当前的物体,进行计算整张图片的损失情况。


          五、模型效果

          在 COCO test-dev 数据集,基于单张 Titan Xp 显卡,模型性能对比:

          image.gif

          模型效果:

          image.gif编辑

          细节信息对比:

          image.gif编辑

          分享完成~

          本文只供大家参考与学习,谢谢~

          相关文章
          |
          6天前
          |
          机器学习/深度学习 JSON 算法
          如何在自定义数据集上训练 YOLOv8 实例分割模型
          在本文中,我们将介绍微调 YOLOv8-seg 预训练模型的过程,以提高其在特定目标类别上的准确性。Ikomia API简化了计算机视觉工作流的开发过程,允许轻松尝试不同的参数以达到最佳结果。
          |
          10月前
          |
          机器学习/深度学习 算法 自动驾驶
          |
          9月前
          |
          机器学习/深度学习 人工智能 计算机视觉
          【YOLOv8-seg】实战一:手把手教你使用YOLOv8实现实例分割
          【YOLOv8-seg】实战一:手把手教你使用YOLOv8实现实例分割
          1729 0
          【YOLOv8-seg】实战一:手把手教你使用YOLOv8实现实例分割
          |
          10月前
          |
          机器学习/深度学习 编解码 人工智能
          【计算机视觉】MaskFormer:将语义分割和实例分割作为同一任务进行训练
          目标检测和实例分割是计算机视觉的基本任务,在从自动驾驶到医学成像的无数应用中发挥着关键作用。目标检测的传统方法中通常利用边界框技术进行对象定位,然后利用逐像素分类为这些本地化实例分配类。但是当处理同一类的重叠对象时,或者在每个图像的对象数量不同的情况下,这些方法通常会出现问题。
          【计算机视觉】MaskFormer:将语义分割和实例分割作为同一任务进行训练
          |
          10月前
          |
          算法 关系型数据库 数据挖掘
          实例分割算法综述
          实例分割算法综述
          181 0
          |
          11月前
          |
          机器学习/深度学习 人工智能 自然语言处理
          MaskFormer:将语义分割和实例分割作为同一任务进行训练
          目标检测和实例分割是计算机视觉的基本任务,在从自动驾驶到医学成像的无数应用中发挥着关键作用。目标检测的传统方法中通常利用边界框技术进行对象定位,然后利用逐像素分类为这些本地化实例分配类。但是当处理同一类的重叠对象时,或者在每个图像的对象数量不同的情况下,这些方法通常会出现问题。
          4747 0
          |
          12月前
          |
          测试技术 PyTorch TensorFlow
          Yolov5-6.2 正式发布 | Yolov5 也可以训练分类模型啦,语义分割+实例分割很快到来
          Yolov5-6.2 正式发布 | Yolov5 也可以训练分类模型啦,语义分割+实例分割很快到来
          414 0
          |
          12月前
          |
          机器学习/深度学习 自然语言处理 算法
          全新范式 | Box-Attention同时让2D、3D目标检测、实例分割轻松涨点(求新必看)(一)
          全新范式 | Box-Attention同时让2D、3D目标检测、实例分割轻松涨点(求新必看)(一)
          173 0
          |
          12月前
          |
          机器学习/深度学习 编解码 计算机视觉
          全新范式 | Box-Attention同时让2D、3D目标检测、实例分割轻松涨点(求新必看)(二)
          全新范式 | Box-Attention同时让2D、3D目标检测、实例分割轻松涨点(求新必看)(二)
          286 0
          |
          12月前
          |
          机器学习/深度学习 编解码 监控
          小目标Trick | Detectron2、MMDetection、YOLOv5都通用的小目标检测解决方案
          小目标Trick | Detectron2、MMDetection、YOLOv5都通用的小目标检测解决方案
          400 0