再战IOU | 总结分析IOU/GIOU/CIOU局限,提出Focal EIOU进一步提升目标检测性能(二)

简介: 再战IOU | 总结分析IOU/GIOU/CIOU局限,提出Focal EIOU进一步提升目标检测性能(二)

3、Focal Loss For BBR


在BBR中,也存在训练实例不平衡的问题,即由于图像中目标目标的稀疏性,回归误差较小的高质量例子的数量远少于低质量例子(异常值)。最近的研究表明,离群值会产生过大的梯度,这对训练过程有害。因此,制作高质量的例子对网络训练过程贡献更多的梯度是至关重要的。

在最近的研究中试图基于SmoothL1的损失来解决上述问题。在本节中,还从Smooth L1损失开始,并提出Focal L1损失,以增加高质量例子的贡献。此外,作者还发现,简单的方法不能直接适用于基于IOU的损失。因此,最终提出了Focal-EIOU损失来提高EIOU损失的性能。

3.1、Focal L1 Loss

首先,列出了理想损失函数的性质如下:

  1. 当回归误差趋于零时,梯度幅度的极限应该为零。
  2. 梯度幅度应在小回归误差附近迅速增大,在大回归误差区域逐渐减小。
  3. 应该有一些超参数来灵活地控制低质量实例的抑制程度。
  4. 对于超参数的变值,梯度函数家族应该有一个标准化的尺度,例如,(0,1],这有助于在高质量和低质量的例子之间的平衡。

image.png

根据上述条件,随着边界框回归误差的变化,可以假设一个梯度幅度的期望函数曲线,如图5(a)所示该函数是,满足性质1和2。接下来,构造了一个带有参数β的函数族来控制曲线的形状,如图5(b)所示随着β的增加,异常值的梯度幅度将被进一步抑制。然而,高质量的例子的梯度幅度也会减少,这不是所期望的。因此,添加另一个参数α,根据属性4的要求,将不同β的梯度大小归一化为[0,1]。最后,梯度大小函数的族可以表示如下:

这里,由于以下原因获得了β的值范围。当,这意味着g(x)是具有全局最大值的凹函数。求解,可以得到。作为,。还必须确保,那么,。为了满足性质4,设置最大值得到α与β的关系:。通过积分上述梯度公式,可以得到BBR的Focal L1损失:

其中C是一个常数值。以确保在等式中的在x = 1处是连续的,有。

图4(b)显示,根据β,提出的Focal L1损失可以增加内值梯度的值,抑制异常值的梯度值。较大的β要求内部有很少的回归误差,并快速抑制异常值的梯度值。

同样,在图4(a)中,蓝色的曲线表示β的最大值。随着回归误差的增加,蓝色曲线的损失首先迅速增加,然后趋于稳定。β值最小的橙色曲线增长得越来越快,在x = 1左右达到峰值。现在可以通过Focal L1损失,来计算定位损失,其中B是回归结果,是回归目标。

3.2、Focal-EIOU Loss

为了使EIOU损失集中于高质量的示例,自然可以考虑在等式中替换 x 与EIOU的损失联系在一起。然而,作者观察到上述组合的效果不太好。分析结果如下:

给定偏移量,Focal L1损失的梯度为,其中等于1或者-1,因此即使偏移很小,还可以带来足够的梯度以使模型持续优化。然而,如果用替换偏移量,梯度可以计算为。

这里不再是一个常量。此外,在实证研究中,随着接近零,它将非常小,而在当时也接近于零。因此,在乘法之后,整体梯度将更小,这削弱了对具有小的Box进行重新加权的效果。为了解决这个问题,使用IOU的值来重新计算 loss的权重,并得到Focal-,如下所示

image.png

其中,和是控制异常值抑制程度的参数。

3.3、算法流程

image.png


4、实验


4.1、消融实验

1、IOU方法对比

image.png

2、Tradeoff Weight的影响

3、FocalL1 Loss

4、Focal-EIOU Loss

4.2、SOTA对比

4.3、可视化对比


5、参考


[1].Focal and Efficient IOU Loss for Accurate Bounding Box Regression


6、推荐阅读


姿态估计 | 基于CenterNet究竟还可以做多少事情?AdaptivePose便是经典!

语义分割新SOTA | 当UNet与HRNet碰撞会产生怎样的火花?U-HRNet不做选择!!!

全新语义分割方法SegViT | 沈春华老师团队提出全新语义分割方法

相关文章
|
算法 计算机视觉
YOLOv8改进 | 损失函数篇 | 最新ShapeIoU、InnerShapeIoU损失助力细节涨点
YOLOv8改进 | 损失函数篇 | 最新ShapeIoU、InnerShapeIoU损失助力细节涨点
839 2
|
机器学习/深度学习 编解码 PyTorch
CVPR 2023 | 主干网络FasterNet 核心解读 代码分析
本文分享来自CVPR 2023的论文,提出了一种快速的主干网络,名为FasterNet。核心算子是PConv,partial convolution,部分卷积,通过减少冗余计算和内存访问来更有效地提取空间特征。
10173 58
|
9月前
|
人工智能 计算机视觉
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
769 5
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目DWRSeg是一种高效的实时语义分割网络,通过将多尺度特征提取分为区域残差化和语义残差化两步,提高了特征提取效率。它引入了Dilation-wise Residual (DWR) 和 Simple Inverted Residual (SIR) 模块,优化了不同网络阶段的感受野。在Cityscapes和CamVid数据集上的实验表明,DWRSeg在准确性和推理速度之间取得了最佳平衡,达到了72.7%的mIoU,每秒319.5帧。代码和模型已公开。
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
|
9月前
|
机器学习/深度学习 计算机视觉 网络架构
YOLOv11改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
YOLOv11改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
884 0
YOLOv11改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
|
机器学习/深度学习 算法 PyTorch
深度学习笔记(十三):IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU、WIOU损失函数分析及Pytorch实现
这篇文章详细介绍了多种用于目标检测任务中的边界框回归损失函数,包括IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU和WIOU,并提供了它们的Pytorch实现代码。
2740 1
深度学习笔记(十三):IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU、WIOU损失函数分析及Pytorch实现
|
机器学习/深度学习 算法 算法框架/工具
《YOLOv8原创自研》专栏介绍 & CSDN独家改进创新实战&专栏目录
《YOLOv8原创自研》专栏介绍 & CSDN独家改进创新实战&专栏目录
668 3
|
机器学习/深度学习 编解码 计算机视觉
【YOLOv10改进-注意力机制】Polarized Self-Attention: 极化自注意力,双重注意力机制
YOLOv10引入了极化自注意(PSA)块,结合通道和空间注意力,降低信息损失。PSA通过极化过滤保持高分辨率,并用增强处理非线性分布。在2D姿态估计和分割任务上提升1-2点精度,相比基线提升2-4点。代码示例展示了PSA模块如何集成到模型中。更多配置详情见相关链接。
|
机器学习/深度学习 编解码 算法
目标检测舰船数据集整合
目标检测舰船数据集整合
|
机器学习/深度学习 编解码 Go
【YOLO系列】YOLOv4论文超详细解读1(翻译 +学习笔记)
【YOLO系列】YOLOv4论文超详细解读1(翻译 +学习笔记)
1671 0
【YOLO系列】YOLOv4论文超详细解读1(翻译 +学习笔记)