YOLOv11改进策略【小目标改进】| 2024-TOP 自适应阈值焦点损失(ATFL)提升对小目标的检测能力

简介: YOLOv11改进策略【小目标改进】| 2024-TOP 自适应阈值焦点损失(ATFL)提升对小目标的检测能力

一、本文介绍

本文记录的是利用自适应阈值焦点损失(ATFL)优化YOLOv11目标检测的网络模型ATFL结合了阈值解耦的针对性和自适应调整损失权重的灵活性,有效地处理目标与背景不平衡问题。这一机制通过设置阈值区分目标和背景样本,并根据预测概率值自适应调整损失权重来适应不同的样本特性,提高了模型对目标特征的学习能力。在小目标检测中,ATFL可以被用于提升对小目标的检测能力,特别是在目标和背景极度不平衡的情况下


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、自适应阈值焦点损失原理

自适应阈值焦点损失(ATFL)是一种用于解决红外小目标检测中目标与背景不平衡问题的创新方法。以下将从其设计出发点原理结构优势进行详细介绍,并结合文中相关图示辅助说明。

2.1 设计出发点

在红外图像中,目标所占比例极小,背景占据主导,这使得模型在训练过程中更容易学习到背景特征,而忽略目标特征。传统的损失函数无法有效解决这种样本不平衡问题,因此需要一种新的损失函数来促使模型更加关注目标特征

在这里插入图片描述

2.2 原理

  • 基于阈值的解耦:通过设置阈值将易于识别的背景和难以识别的目标分离开。

    例如,将预测概率值高于0.5的样本视为背景(容易样本),低于0.5的视为目标(困难样本)。

  • 损失权重的调整:对不同类型的样本调整其损失权重。对于目标样本,增强其损失,使模型更加关注目标特征;对于背景样本,减轻其损失。
  • 自适应机制:为了减少调整超参数带来的时间消耗,对超参数进行自适应设计

    例如,根据预测概率值和模型训练进度来动态调整焦点损失函数中的调制因子 γ 等参数。

2.3 结构

2.3.1 基础损失函数

从经典的交叉熵损失函数出发,其表达式为$\mathcal{L}_{BCE}=-(y log (p)+(1-y) log (1-p))$(其中$P$代表预测概率,$y$代表真实标签),也可简记为:$$\mathcal{L}_{BCE}=-log \left(p_{t}\right)$$其中$$p_{t}= \begin{cases}p, & if y=1 \\ 1-p, & others \end{cases}$$

2.3.2 焦点损失函数改进

焦点损失函数$F L\left(p{t}\right)=-\left(1-p{t}\right)^{\gamma} log \left(p{t}\right)$通过引入调制因子$(1-p{t})^{\gamma}$来降低易分类样本的损失贡献,但在降低易样本损失的同时也会降低困难样本损失,不利于困难样本学习。

2.3.3 阈值焦点损失(TFL)函数

为解决上述问题,提出$$T F L=\left\{\begin{array}{ll} -\left(\lambda-p_{t}\right)^{\eta} log \left(p_{t}\right) & p_{t}<=0.5 \\ -\left(1-p_{t}\right)^{\gamma} log \left(p_{t}\right) & p_{t}>0.5 \end{array}\right.$$其中$\lambda(>1)$为超参数,对于不同数据集和模型需多次调整。

2.3.4 自适应阈值焦点损失(ATFL)函数

对$\gamma$和$\eta$进行自适应调整。$$\gamma=-ln \left(\hat{p}_{c}\right)$$(其中$\hat{p}{c}=0.05 × \frac{1}{t-1} \sum{i=0}^{t-1} \overline{p{i}}+0.95 × p{t}$),$\eta=-ln \left(p_{t}\right)$,最终得到:$$A T F L= \begin{cases}-\left(\lambda-p_{t}\right)^{-ln \left(p_{t}\right)} log \left(p_{t}\right) & p_{t}<=0.5 \\ -\left(1-p_{t}\right)^{-ln \left(\hat{p}_{c}\right)} log \left(p_{t}\right) & p_{t}>0.5\end{cases}$$

2.4 优势

  • 缓解不平衡问题:对于容易样本,随着$p_{t}$增加,损失值会按照设计要求降低,进一步减少了容易样本产生的损失,从而有效缓解了目标与背景的不平衡,使模型能够更好地学习目标特征。
  • 自适应调整:自适应机制避免了多次手动调整超参数,节省了时间成本,同时能够根据数据集和模型训练情况自动调整参数,提高了模型的性能和泛化能力。
  • 提升困难样本学习:通过增加困难样本(目标)的损失权重,使模型更加关注难以检测的目标,提高了对红外小目标的检测性能。

论文:https://arxiv.org/abs/2307.14723
源码:https://github.com/YangBo0411/infrared-small-target


三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143429221

目录
相关文章
|
10月前
|
编解码 并行计算 算法
除了NMS参数,还有哪些因素会影响YOLOv3模型的检测性能?
除了NMS参数,还有哪些因素会影响YOLOv3模型的检测性能?
|
1月前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
176 12
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
|
22天前
|
机器学习/深度学习 人工智能 数据可视化
无需微调!扩散模型新突破:Attentive Eraser高效稳定移除目标物体
最近,扩散模型在生成模型领域异军突起,凭借其独特的生成机制在图像生成方面大放异彩,尤其在处理高维复杂数据时优势明显。然而,尽管扩散模型在图像生成任务中表现优异,但在图像目标移除任务中仍然面临诸多挑战。现有方法在移除前景目标后,可能会留下残影或伪影,难以实现与背景的自然融合。
54 9
|
1月前
|
机器学习/深度学习 监控 自动驾驶
《LSTM:开启图像动态场景理解与时间变化信息捕捉的新旅程》
在计算机视觉中,理解图像动态场景并捕捉时间变化信息极具挑战。LSTM作为一种深度学习模型,通过将图像帧序列化并结合CNN提取的空间特征,有效捕捉帧间的时间依赖关系。LSTM的门控机制(遗忘门、输入门和输出门)能智能处理图像序列中的信息,过滤无关数据,保留关键变化。该方法广泛应用于自动驾驶、视频监控及虚拟现实等领域,提升了动态场景的理解与预测能力。
72 13
|
1月前
|
编解码 算法 计算机视觉
YOLOv11改进策略【小目标改进】| 添加专用于小目标的检测层 附YOLOv1~YOLOv11的检测头变化详解
YOLOv11改进策略【小目标改进】| 添加专用于小目标的检测层 附YOLOv1~YOLOv11的检测头变化详解
168 11
|
1月前
|
编解码 算法 计算机视觉
YOLOv11改进策略【Head】| 增加针对 大目标 的检测层 (四个检测头)
YOLOv11改进策略【Head】| 增加针对 大目标 的检测层 (四个检测头)
183 7
|
10月前
|
算法
如何调整 YOLOv3 的 NMS 参数以优化检测性能?
如何调整 YOLOv3 的 NMS 参数以优化检测性能?
|
6月前
|
自然语言处理 数据可视化 API
优化采样参数提升大语言模型响应质量:深入分析温度、top_p、top_k和min_p的随机解码策略
本文详细解析了大语言模型(LLM)的采样策略及其关键参数,如温度和top_p。LLM基于输入提示生成下一个标记的概率分布,通过采样策略选择标记并附回输入,形成循环。文章介绍了对数概率(logprobs)、贪婪解码、温度参数调整、top-k与top-p采样等概念,并探讨了min-p采样这一新方法。通过调整这些参数,可以优化LLM输出的质量和创造性。最后,文章提供了实验性尝试的建议,帮助读者在特定任务中找到最佳参数配置。本文使用VLLM作为推理引擎,展示了Phi-3.5-mini-instruct模型的应用实例。
297 6
|
10月前
|
计算机视觉
YOLOv5改进 | 2023检测头篇 | 利用AFPN增加小目标检测层(让小目标无所遁形)
YOLOv5改进 | 2023检测头篇 | 利用AFPN增加小目标检测层(让小目标无所遁形)
350 0
|
8月前
|
PyTorch 测试技术 算法框架/工具
【YOLOv8改进 - 卷积Conv】SPConv:去除特征图中的冗余,大幅减少参数数量 | 小目标
YOLO目标检测专栏探讨了模型优化,提出SPConv,一种新卷积操作,减少特征冗余,提升效率。SPConv将特征分为代表性和不确定部分,分别处理,再融合。实验显示,SPConv在速度和准确性上超越现有基准,减少FLOPs和参数。论文和PyTorch代码已公开。更多详情及实战案例见CSDN博客链接。