4实验
4.1 消融实验
1、正样本加权的超参数
pos权重有2个超参数:β和µ;
- β在一致性度量t中平衡了cls得分和IoU之间的贡献。随着β值的增加,IoU的贡献程度也在增加。- µ控制着pos权重的相对尺度。与较不一致的样本相比,更大的µ使最一致的样本具有相对较大的pos权重。
在表中展示了通过改变β从3到7和µ从3到8来改变DW的性能。可以看到,当β为5,µ为5时,效果最好。β和µ的其他组合会使AP性能从0.1降至0.7。因此,在其余所有实验中,将β和µ设为5。
2、负样本加权的超参数
作者还进行了几个实验来研究DW对超参数和的鲁棒性,这些参数用于调节负样本权重的相对尺度。使用不同的和组合得到的AP结果范围为41~41.5,如表所示。这意味着DW的性能对这2个超参数不敏感。因此,在所有的实验中都采用了,。
3、候选集的构建
作为目标检测的常见做法,Soft LA只应用于候选集的Anchor。作者测试了3种候选集的构建方法,它们都是基于从Anchor到相应的GT中心的距离r(由特征stride归一化)。
- 第1种方法是选择距离小于阈值的Anchor。
- 第2种方法是从FPN的每个级别中选择最前k个最近的Anchor。
- 第3种方法是给每个Anchor一个Soft中心权重,并将其与wpos相乘。
结果如表4所示。可以看出,AP性能在41.1~41.5之间略有波动,这表明我们的DW对候选袋的分离方法具有鲁棒性。
4、负样本加权函数的设计
通过用其他替代方法来研究它的影响,如表所示。可以看到,只使用pos权重会将性能降低到39.5,这表明对于一些低质量的Anchor,只分配它们小的不足以降低它们的Rank分数。它们可以强制以更大的 Rank在后面,在测试期间带来更高的AP。
在不使用或的情况下,分别得到了40.5AP和40.0AP,这验证了这两项都是必要的。正如现有方法所做的,试图用替换实现了40.7AP的性能,比标准DW的低0.8点。
5、Box Refinement
在没有Box Refinement的情况下,DW方法达到41.5AP,这是第1个在不增加FCOS-ResNet-50的情况下,在COCO上实现超过41AP性能的方法。通过Box Refinement,DW可达到42.2AP,如表6所示。表7还显示,Box Refinement可以持续地提高具有不同Backbone的DW的性能。
6、加权策略
为了证明DW策略的有效性,将其与其他使用不同加权策略的LA方法进行了比较。结果如表所示。前5行是Hard LA方法,而其他的则是Soft LA方法。
Hard LA的最佳性能是通过OTA,40.7AP。由于OTA将LA作为一个最优规划问题,它将增加训练时间的20%以上。GFLv2利用一个额外复杂的分支来估计定位质量,并在Soft LA方法中获得了41.1AP的第2名性能。
与将权重分配给损失的主流方法不同,将自动分配权重分配给cls分数,并在训练期间通过它们的梯度更新它们。作者尝试分离自动分配中的权重并分配给损失,但只得到39.8和36.6AP,分别比原始性能低0.6和3.8分。这意味着自动分配中的加权方案在适应主流实践时不能很好地工作。
4.2 SOTA方法对比
4.3 讨论
1、可视化DW
为了进一步了解DW与现有方法的区别,我们在图5中展示了DW的cls评分、IoU、pos和负性权重以及两种代表性方法GFL和VFL的可视化图。可以看出,DW中的pos和负性权重主要集中在GT的中心区域,而GFL和VFL则在更宽的区域上分配权重。这种差异意味着DW可以更多地关注重要的样本,并减少容易获得的样本的贡献,比如那些在物体边界附近的样本。这就是为什么DW对候选包的选择更稳健。
我们还可以看到,中心区域的锚在DW中有不同的(pos,neg)重量对。相比之下,GFL和VFL中的阴性权重与pos权重高度相关。橙色圆圈突出显示的锚点在GFL和VFL中具有几乎相同的pos权重和负权重,而DW可以通过分配不同的权重来区分它们,为网络提供更高的学习能力。
2、DW的局限
虽然DW可以很好地区分不同Anchor对一个物体的重要性,但它会同时减少训练样本的数量,如图5所示。这可能会影响对小目标的训练效果。如表7所示,DW对小目标的改进不如对大目标的改进高。为了缓解这一问题,作者可以根据目标大小动态设置不同的超参数,以平衡大小目标之间的训练样本。
5参考
[1].A Dual Weighting Label Assignment Scheme for Object Detection
6推荐阅读
Aug-ShuffleNets | ShuffleNetV2参数和FLOPs降低,性能却提升,简单暴力有效!
YOLOv5-Face | 原理超精细讲解、训练步骤还原、C++边缘部署(就要这么学!!!)