NWD-Based Model | 小目标检测新范式,抛弃IoU-Based暴力涨点(登顶SOTA)(二)

简介: NWD-Based Model | 小目标检测新范式,抛弃IoU-Based暴力涨点(登顶SOTA)(二)

4实验


4.1 与IoU度量的对比

image.png

1、Comparison in label assignment

Table-1可以看出,与IoU指标相比,NWD的AP最高达到16.1%,比DIoU高了9.6%,说明基于NWD的标签分配可以为小目标提供更高质量的训练样本。

此外,为了分析改进的实质,作者进行了一组统计实验。其中,分别计算在相同的默认阈值下,使用IoU、GIoU、DIoU、CIoU和NWD时,每个gt box匹配的正Anchor的平均数量,分别为0.72、0.71、0.19、0.19和1.05。可以发现,只有NWD才能保证相当数量的正训练样本。

此外,虽然简单地降低基于IoU指标的阈值可以为训练提供更多积极的Anchor,但基于IoU的小目标检测器经过阈值微调后的性能并不优于基于NWD的检测器,这是因为NWD可以解决IoU对小目标位置偏差的敏感性。

2、Comparison in NMS

在本实验中只修改RPN的NMS模块,因为只有RPN中的NMS直接影响检测器的训练过程。可以看出,在训练过程中使用不同的度量来过滤掉多余的预测,也会影响检测性能。具体来说,NWD的最佳AP为11.9%,比IoU的AP提高了0.8%。这意味着当检测小目标时,NWD是一个更好的度量来过滤多余的边界框。

3、Comparison in loss function

在RPN和R-CNN中都修改了损失函数,这两者都会影响检测器的收敛性。也可以看出,基于NWD的loss function的AP最高为12.1%。

4.2 消融实验

image.png

实验结果如表2所示。与baseline method相比,RPN和R-CNN中基于NWD的分配模块AP提高最高,分别为6.2%和3.2%,说明IoU导致的小目标训练标签分配问题最为明显。提出的基于NWD的分配策略大大提高了分配质量。

还可以看到,本文提出的方法在6个模块中的5个模块中提高了性能,这显著验证了基于NWD的方法的有效性。而R-CNN的NMS性能下降可能是由于默认的NMS阈值是次优的,需要进行微调来提高性能。

image.png

将NWD应用于多个模块

实验结果如表3所示。当训练12个Epoch时,在RPN、R-CNN或所有模块中使用NWD时,检测性能均有显著提高。当将NWD应用于RPN的3个模块时,获得了最佳的17.8%的性能。然而,在所有6个模块中使用NWD时,AP比RPN中仅使用NWD下降了2.6%。为了分析性能下降的原因,增加了一组实验,对网络进行了24个Epoch的训练。可以看出,性能差距从2.6%减小到0.9%,说明在R-CNN中使用NWD时,网络收敛需要更多的时间。因此,在接下来的实验中,只在RPN中使用NWD,以更少的时间获得相当大的性能提升。

4.3 主要结果

1、AI-TOD数据集

image.png

2、Visdrone 数据集

4.4 可视化小目标检测结果

AI-TOD数据集上基于IoU的检测器(第1行)和基于NWD的检测器(第2行)的可视化结果上图所示。可以观察到与IoU相比,NWD可显著降低假阴性(FN)。


5参考


[1].A Normalized Gaussian Wasserstein Distance for Tiny Object Detection

[2].https://www.zhihu.com/question/41752299

相关文章
|
4月前
|
机器学习/深度学习 搜索推荐
CIKM 2024:LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图
【9月更文挑战第17天】在CIKM 2024会议上,Emory大学的研究人员提出了一种创新框架,将大型语言模型(LLM)的知识蒸馏到图神经网络(GNN)中,以克服文本图(TAGs)学习中的数据稀缺问题。该方法通过LLM生成文本推理,并训练解释器模型理解这些推理,再用学生模型模仿此过程。实验显示,在四个数据集上性能平均提升了6.2%,但依赖于LLM的质量和高性能。论文链接:https://arxiv.org/pdf/2402.12022
104 7
|
8月前
|
机器学习/深度学习 Oracle 固态存储
目标检测涨点小Trick | 回顾Proposal-Based目标检测,启发小改NMS即可带来涨点
目标检测涨点小Trick | 回顾Proposal-Based目标检测,启发小改NMS即可带来涨点
183 1
|
8月前
|
机器学习/深度学习 算法 固态存储
MFDS-DETR开源 | HS-FPN多级特征融合+Deformable Self-Attention,再续DETR传奇
MFDS-DETR开源 | HS-FPN多级特征融合+Deformable Self-Attention,再续DETR传奇
941 0
|
机器学习/深度学习 存储 缓存
YOLOv5的Tricks | 【Trick9】模型剪枝处理与Pytorch实现的剪枝策略
在yolov5项目中的torch_utils.py文件下,有prune这个函数,用来实现模型的剪枝处理。对模型裁剪,模型剪枝这方面之前没有接触到,这里用这篇笔记来学习记录一下这方面内容。
2281 0
YOLOv5的Tricks | 【Trick9】模型剪枝处理与Pytorch实现的剪枝策略
|
机器学习/深度学习 编解码 自然语言处理
基于EasyCV复现ViTDet:单层特征超越FPN
ViTDet其实是恺明团队MAE和ViT-based Mask R-CNN两个工作的延续。MAE提出了ViT的无监督训练方法,而ViT-based Mask R-CNN给出了用ViT作为backbone的Mask R-CNN的训练技巧,并证明了MAE预训练对下游检测任务的重要性。而ViTDet进一步改进了一些设计,证明了ViT作为backone的检测模型可以匹敌基于FPN的backbone(如SwinT和MViT)检测模型。
|
机器学习/深度学习 编解码 自然语言处理
Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(一)
Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(一)
453 0
Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(一)
|
机器学习/深度学习 编解码 监控
NWD-Based Model | 小目标检测新范式,抛弃IoU-Based暴力涨点(登顶SOTA)(一)
NWD-Based Model | 小目标检测新范式,抛弃IoU-Based暴力涨点(登顶SOTA)(一)
949 0
|
机器学习/深度学习 算法 数据可视化
涨点Trick | 超越CWD、FGD和MGD,AMD蒸馏让目标检测对小目标更有效(一)
涨点Trick | 超越CWD、FGD和MGD,AMD蒸馏让目标检测对小目标更有效(一)
656 0
|
计算机视觉
涨点Trick | 超越CWD、FGD和MGD,AMD蒸馏让目标检测对小目标更有效(二)
涨点Trick | 超越CWD、FGD和MGD,AMD蒸馏让目标检测对小目标更有效(二)
244 0
|
编解码 监控 数据可视化
Efficient-HRNet | EfficientNet思想+HRNet技术会不会更强更快呢?(二)
Efficient-HRNet | EfficientNet思想+HRNet技术会不会更强更快呢?(二)
263 0

热门文章

最新文章