YOLOv11改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)

简介: YOLOv11改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)

一、本文介绍

本文记录的是改进YOLOv11的损失函数,将其替换成Focaler-IoU。现有研究通过利用边界框之间的几何关系来提高回归性能,但忽略了困难样本和简单样本分布对边界框回归的影响。不同检测任务中困难样本和简单样本的分布不同,对于简单样本占主导的检测任务,关注简单样本的边界框回归有助于提高检测性能;对于困难样本比例较高的检测任务,需要关注困难样本的边界框回归。Focaler-IoU==能够通过关注不同的回归样本==,提高检测器在不同检测任务中的性能。

实现的Focaler-IoU包括:Focaler-DIoUFocaler-GIoUFocaler-CIoU


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、Focaler-IoU设计原理

Focaler-IoU: More Focused Intersection over Union Loss

Focaler-IoU是一种改进的交并比(IoU)损失函数,其设计的原理和优势如下:

2.1 原理

  • 使用线性区间映射的方法重构IoU损失,以实现对不同回归样本的关注。
  • 公式为:$IoU^{focaler} = \begin{cases}0, & IoUu\end{cases}$,其中$IoU^{focaler}$是重构的Focaler - IoU,IoU是原始IoU值,$[d, u] \in [0, 1]$。通过调整d和u的值,可以使$IoU^{focaler}$关注不同的回归样本。
  • 其损失定义为:$L_{Focaler - IoU} = 1 - IoU^{focaler}$。
  • 将Focaler - IoU损失应用于现有的基于IoU的边界框回归损失函数,得到$L{Focaler - GIoU}$、$L{Focaler - DIoU}$、$L{Focaler - CIoU}$、$L{Focaler - EIoU}$和$L_{Focaler - SIoU}$,具体公式如下:
    • $L{Focaler - GIoU} = L{GIoU} + IoU - IoU^{Focaler}$
    • $L{Focaler - DIoU} = L{DIOU} + IoU - IoU^{Focaler}$
    • $L{Focaler - CIoU} = L{CIoU} + IoU - IoU^{Focaler}$
    • $L{Focaler - EIoU} = L{EIOU} + IoU - IoU^{Focaler}$
    • $L{Focaler - SIoU} = L{SIoU} + IoU - IoU^{Focaler}$

2.2 优势

  • 能够通过关注不同的回归样本,提高检测器在不同检测任务中的性能。
  • 论文中通过对比实验证明,使用Focaler - IoU可以有效提高检测性能,弥补现有方法的不足。例如在PASCAL VOC数据集上的实验中,YOLOv8 + Focaler - SloU相比于YOLOv8 + SIoU,AP50提高了0.3,mAP50 : 95提高了0.3;在AI - TOD数据集上的实验中,YOLOv5 + Focaler - SloU相比于YOLOv5 + SIoU,AP50提高了1.9,mAP50 : 95提高了0.5。

论文:https://arxiv.org/pdf/2401.10525
源码:https://github.com/malagoutou/Focaler-IoU


三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/142818505

目录
相关文章
|
10月前
|
算法 固态存储 计算机视觉
Focaler-IoU开源 | 高于SIoU+关注困难样本,让YOLOv5再涨1.9%,YOLOv8再涨点0.3%
Focaler-IoU开源 | 高于SIoU+关注困难样本,让YOLOv5再涨1.9%,YOLOv8再涨点0.3%
302 0
|
10月前
|
机器学习/深度学习 计算机视觉
YOLOv5改进 | EIoU、SIoU、WIoU、DIoU、FocusIoU等二十余种损失函数
YOLOv5改进 | EIoU、SIoU、WIoU、DIoU、FocusIoU等二十余种损失函数
2138 0
|
1月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
RT-DETR改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
81 14
|
1月前
YOLOv11改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
YOLOv11改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
170 4
YOLOv11改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
|
1月前
|
人工智能
RT-DETR改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)
RT-DETR改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)
60 1
|
1月前
|
机器学习/深度学习 资源调度 算法
YOLOv11改进策略【损失函数篇】| 引入Soft-NMS,提升密集遮挡场景检测精度,包括GIoU-NMS、DIoU-NMS、CIoU-NMS、SIoU-NMS、 EIou-NMS
YOLOv11改进策略【损失函数篇】| 引入Soft-NMS,提升密集遮挡场景检测精度,包括GIoU-NMS、DIoU-NMS、CIoU-NMS、SIoU-NMS、 EIou-NMS
665 6
|
1月前
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
87 0
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
|
1月前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
YOLOv11改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
101 6
|
1月前
|
计算机视觉
YOLOv11改进策略【损失函数篇】| Shape-IoU:考虑边界框形状和尺度的更精确度量
YOLOv11改进策略【损失函数篇】| Shape-IoU:考虑边界框形状和尺度的更精确度量
154 4
|
4月前
|
算法 数据可视化 PyTorch
IoU已经out了,试试这几个变体:GIoU、DIoU和CIoU介绍与对比分析
本文探讨了目标检测中常用的交并比(IoU)及其变体,包括广义交并比(GIoU)、距离交并比(DIoU)和完全交并比(CIoU)。这些指标不仅提高了模型在处理不重叠、距离较远或形状差异大的边界框时的表现,还为模型的学习过程提供了更深入的洞察。文章详细解释了各指标的计算方法及应用场景,并提供了相应的代码示例,帮助读者更好地理解和应用这些先进的评估指标。
347 7
IoU已经out了,试试这几个变体:GIoU、DIoU和CIoU介绍与对比分析