目标检测Trick | SEA方法轻松抹平One-Stage与Two-Stage目标检测之间的差距(二)

简介: 目标检测Trick | SEA方法轻松抹平One-Stage与Two-Stage目标检测之间的差距(二)

4、实验


4.1 消融实验

1、组件分析

  1. Anchor Loss

实现给学生基线带来了2.31 AP提升,而直接像素-像素匹配仅达到1.42 AP。这意味着当密集的像素负责预测任务时,有必要总结所有像素之间的分类信息,而不是模拟全局特征图。通过对的蒸馏,大型特征图中的信息以一种不平衡的方式避免了蒸馏,因为它集中在类别Anchor 上。

  1. Distance Loss

距离损失比基线高出约1.05 AP,这意味着在密集的检测器中,像素之间的相关性对形成密集的拓扑空间很重要。没有建模密集关系,而是限制了像素本身与学生和教师的每个类别Anchor 之间的距离,这使学生更好地正则化。

  1. Location Distribution Alignment

添加可以将FCOS-ResNet50提高到42.52 AP。它确实有助于对齐学生和教师的定位信息,这表明边界框层中的像素符合一种分布。此外,在边界框层上应用L2损失对性能没有好处,这表明匹配边界框层中的分布比直接的像素-像素蒸馏更有效。

2、超参数灵敏度

image.png

  1. Loss penalty coefficients

测试了等式中3个损失惩罚系数、和的敏感性(4)(详见图5)。结果表明,这些系数在较大范围内具有鲁棒性,验证了该方法的稳定性。

image.png

  1. Temperatures 测试了方程式中KLD损失的logit温度和。其结果如表6所示。该性能在0.01和5.0的范围内非常稳健。

4.2 主要实验

4.3 Faster RCNN与Cascade R-CNN

4.4 Mask RCNN与SOLOv2


5 局限与总结


5.1 局限

一般的限制在于提炼的本质,教师模型不可避免地需要将其知识传递给学生模型。虽然蒸馏主要是针对小的学生模型,但对于大的学生模型很难找到合适的教师模型。

5.2 总结

在本文中提出了用于目标探测器的SEA(SEmantic-Aware Alignment)蒸馏方法。为了弥合单阶段和两阶段检测器蒸馏之间的差距,SEA将每个像素作为实例,设计类别Anchor来总结场景图像中的分类信息,处理密集像素中的剧烈不平衡。在此基础上,对语义关系进行建模,并对其进行稀疏化,使蒸馏更加结构化和完整。此外,还有效地对齐了学生和教师之间的未被充分研究的边界框分支中的定位分布。大量的实验证明了SEA方法在目标检测和实例分割蒸馏任务方面的有效性和鲁棒性。


6、参考文献


[1]. SEA: Bridging the Gap Between One- and Two-stage Detector Distillation via SEmantic-aware Alignment.

相关文章
|
机器学习/深度学习 PyTorch Go
YOLOv5的Tricks | 【Trick4】参数重结构化(融合Conv+BatchNorm2d)
这篇文章是想要记录yolov5在模型搭建过程中的一个融合模块,就是把卷积与批归一化的参数进行融合,想卷积带有批归一化的性质,使得推理过程中可以加快模型推理速度,简化整个模型结构,实现训练与推理两个阶段的解耦。
884 0
YOLOv5的Tricks | 【Trick4】参数重结构化(融合Conv+BatchNorm2d)
|
2月前
|
人工智能 自动驾驶 PyTorch
【人工智能】Transformers之Pipeline(五):深度估计(depth-estimation)
【人工智能】Transformers之Pipeline(五):深度估计(depth-estimation)
50 2
|
4月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力 (论文笔记+引入代码)
YOLO目标检测专栏介绍了创新的多尺度注意力模块EMA,它强化通道和空间信息处理,同时降低计算负担。EMA模块通过通道重塑和并行子网络优化特征表示,增强长距离依赖建模,在保持效率的同时提升模型性能。适用于图像分类和目标检测任务,尤其在YOLOv8中表现出色。代码实现和详细配置可在文中链接找到。
|
5月前
|
vr&ar
R语言如何做马尔可夫转换模型markov switching model
R语言如何做马尔可夫转换模型markov switching model
|
5月前
|
vr&ar
R语言如何做马尔科夫转换模型markov switching model
R语言如何做马尔科夫转换模型markov switching model
|
5月前
|
机器学习/深度学习 数据可视化 定位技术
PrObeD方法开源 | 主动方法助力YOLOv5/Faster RCNN/DETR在COCO/GOD涨点
PrObeD方法开源 | 主动方法助力YOLOv5/Faster RCNN/DETR在COCO/GOD涨点
70 0
|
5月前
|
机器学习/深度学习 5G 知识图谱
视觉Backbone怎么使用1/8的FLOPs实现比Baseline更高的精度?
视觉Backbone怎么使用1/8的FLOPs实现比Baseline更高的精度?
58 0
|
计算机视觉
目标检测Trick | SEA方法轻松抹平One-Stage与Two-Stage目标检测之间的差距(二)
目标检测Trick | SEA方法轻松抹平One-Stage与Two-Stage目标检测之间的差距(二)
73 0
|
机器学习/深度学习 编解码 算法
目标检测Trick | SEA方法轻松抹平One-Stage与Two-Stage目标检测之间的差距(一)
目标检测Trick | SEA方法轻松抹平One-Stage与Two-Stage目标检测之间的差距(一)
70 0
|
机器学习/深度学习 算法 自动驾驶
改进YOLOX | Push-IOU+Dynamic Anchor进一步提升YOLOX性能
改进YOLOX | Push-IOU+Dynamic Anchor进一步提升YOLOX性能
168 0