Focal Loss 后继之秀 | LMFLOSS:用于解决不平衡医学图像分类的新型混合损失函数

简介: Focal Loss 后继之秀 | LMFLOSS:用于解决不平衡医学图像分类的新型混合损失函数

Title: LMFLOSS: A HYBRID LOSS FOR IMBALANCED MEDICAL IMAGE CLASSIFICATION


Author: Labib Chowdhury et al. (Giga Tech Limited)


Paper: https://arxiv.org/pdf/2212.12741.pdf


引言


类别不平衡一直是困扰着绝大部分计算机视觉领域的头号麻烦问题,今天简单为大家介绍下应用于医学影像数据的一种类别不均衡损失函数解决方案。经过在眼部疾病智能识别 ODIR、人机对抗 HAM 以及国际皮肤成像协作 (ISIC)-2019 数据集上的广泛实验对比,本文方法相比于 Foca Loss 可以在少于 90 个训练样本的情况下实现了 80% 的 f1 分数,稳定提升 2% ~ 10%,下面一起来探究看看。


先来简单回顾下,对于类别不均衡问题,以往的方法是如何解决的。大体上主要有两种,即以数据为中心驱动和以算法为中心的解决方案。


数据策略

以数据为中心的类别不均衡解决方法主要有两种:过采样欠采样。过采样试图为少数类别生成人工数据点,而欠采样旨在消除多数类别的样本。

算法策略

算法层面的策略,特别是在深度学习领域,主要侧重于开发损失函数来应对类不平衡问题,而不是直接操纵数据。一种简单的方式便是为每个类别都设置相应的权重,以便与多数类别相比,少数类别样本的错误分类受到更严重的惩罚。另一种方法是为每个训练样本自适应地设置一个唯一的权重,以便硬样本获得更高的权重。


在本文中,作者便提出了一种称为 Large Margin aware Focal (LMF) Loss 的新型损失函数,以缓解医学成像中的类不平衡问题。该损失函数动态地同时考虑硬样本和类分布。


方法

Focal Loss


说到类别不均衡的损失函数,不得不提的便是 Focal Loss。对于分类问题,大家常用的便是交叉熵损失 BCE Loss,该损失函数对所有类别均一视同仁,即赋予同等的权重学习。而 Focal Loss 主要就是交叉熵损失改进的,通过引入 $ \alpha $ 和 $ \gamma $ 两个调节因子来调整样本数量和样本难易程度,以便模型专注于学习少数类。具体公式如下:


0e52e1a8cc3f692405b3afbab7bf75b7.png

LDAM Loss


《 Learning imbalanced datasets with label-distribution-aware margin loss 》 这篇文章中提出了另一项减轻类不平衡问题的工作,称为标签分布感知边距(LDAM)损失。作者建议对少数类引入比多数类更强的正则化,以减少它们的泛化误差。如此一来,损失函数保持了模型学习多数类并强调少数类的能力。LDAM 损失侧重于每个类的最小边际和获得每个类和统一标签测试错误,而不是鼓励大多数类训练样本与决策边界的大边距。换句话说,它只会鼓励少数群体获得相对较大的利润。此外,作者提出了用于获得多个类别 1、2、…、k 的类别相关边距的公式: $ \gamma_{j} = \frac{C}{n_{j}^{1/4}}$.


image.png

LMF Loss


Focal Loss 创建了一种机制,可以更加强调模型难以分类的样本;通常,来自少数群体的样本将属于这一类。相比之下,LDAM Loss 通过考虑数据集的类别分布来判断权重。我们假设与单独使用每个功能相比,同时利用这两个功能可以产生有效的结果。因此,作者提出的 Large Margin aware Focal (LMF) 损失是 Focal 损失和由两个超参数加权的 LDAM 的线性组合,公式如下:


41f84c0afe80fdc5595b5e138c3dc1f0.png

这里,α 和 β 是常数,被认为是可以调整的超参数。 因此,本文提出的损失函数在单个框架中联合优化了两个独立的损失函数。通过反复试验,作者发现将相同的权重分配给两个组件会产生良好的结果。

实验


e8995ca7d45760d6daadbfc7f96e964f.png

上述表格显示了本文所提出的方法和基线模型在上述三个数据集上的结果。结果表明,在大多数情况下,所提出的 LMF 优于交叉熵损失以及流行的Focal Loss 和 LDAM Loss。 例如,对于 ODIR-5K 测试集,我们可以看到本文提出的方法分别从 EfficientNetv2 和 ResNet50 获得了 62.94 和 57.73 f1得分,性能提高了 2.5% 以上。 对于 HAM10k 数据集,该方法实现了近 3% 的性能提升。 ISIC-2019 的改进最为显着。 当与预训练的 EfficientNetv2 一起使用时,提议的 LMF 实现了近 5% 的性能提升。使用更大的预训练 ResNet50,与 f1 方面的其他方法相比,性能提高了近 10%。 值得注意的是,在其他指标中,例如准确性、精度和召回率,本文提出的方法几乎在所有情况下都优于其他方法。


9cc3e67b0b87c24a4c4ef147856687cd.png

上图说明了使用不同方法训练的模型在 HAM-10K 数据集的单个样本上生成的注意力图(使用 Grad-CAM 生成)。 可以清楚的看到,基于 LMF 损失训练的模型具有更大更相关的注意力区域,并预测正确的预测类别。

总结

本文提出了一种 Large Margin aware Focal (LMF) loss,可以同时利用数据集的类别分布并动态强调硬样本。当应用于三个不同的医学图像分类数据集时,所提出的 LMF 与其他已发表的作品相比显示出更好的结果,例如医学图像分类领域的 Focal loss 和 LDAM loss。当然,这个方法还可以扩展到图像分割等领域,所以说排列组合这东西在任何时候都不会过时,你说是吧?


image.png


如果您也对人工智能和计算机视觉全栈领域感兴趣,强烈推荐您关注有料、有趣、有爱的公众号『CVHub』,每日为大家带来精品原创、多领域、有深度的前沿科技论文解读及工业成熟解决方案!欢迎添加小编微信号: cv_huber,备注"CSDN",加入 CVHub 官方学术&技术交流群,一起探讨更多有趣的话题!


目录
相关文章
|
开发框架 分布式计算 Java
【面试题精讲】JavaSe和JavaEE的区别
【面试题精讲】JavaSe和JavaEE的区别
|
6月前
|
机器学习/深度学习 人工智能 算法
小米7B参数推理大模型首次开源!Xiaomi MiMo:数学代码双杀,超越32B巨头
小米开源的MiMo推理大模型通过联动预训练与强化学习算法,在7B参数规模下实现数学推理与代码生成能力的突破性提升,技术报告显示其性能超越部分32B级模型。
823 74
小米7B参数推理大模型首次开源!Xiaomi MiMo:数学代码双杀,超越32B巨头
|
8月前
|
资源调度 自然语言处理 网络架构
YOLOv11改进策略【Neck】| 使用CARAFE轻量级通用上采样算子
YOLOv11改进策略【Neck】| 使用CARAFE轻量级通用上采样算子
566 11
YOLOv11改进策略【Neck】| 使用CARAFE轻量级通用上采样算子
|
监控 Java 持续交付
构建Java微服务架构的CI/CD流程
构建Java微服务架构的CI/CD流程
|
机器学习/深度学习 算法 网络架构
深度学习中的自动超参数优化技术探究
在深度学习模型的训练中,选择合适的超参数对模型性能至关重要。本文探讨了自动超参数优化技术在深度学习中的应用,分析了不同方法的优缺点,并着重讨论了基于贝叶斯优化和进化算法的最新进展。 【7月更文挑战第8天】
337 5
|
8月前
|
机器学习/深度学习 计算机视觉 iOS开发
YOLOv11改进策略【模型轻量化】| 替换骨干网络 CVPR-2024 RepViT 轻量级的Vision Transformers架构
YOLOv11改进策略【模型轻量化】| 替换骨干网络 CVPR-2024 RepViT 轻量级的Vision Transformers架构
421 12
|
机器学习/深度学习 人工智能 开发者
Python适合做游戏吗?
【7月更文挑战第2天】Python适合做游戏吗?
352 56
|
数据采集 Web App开发 XML
爬虫进阶:Selenium与Ajax的无缝集成
爬虫进阶:Selenium与Ajax的无缝集成
|
数据挖掘 计算机视觉
YOLOv5改进 | 损失篇 | VarifocalLoss密集检测专用损失函数 (VFLoss,论文一比一复现)
YOLOv5改进 | 损失篇 | VarifocalLoss密集检测专用损失函数 (VFLoss,论文一比一复现)
1043 1
|
10月前
|
人工智能 自然语言处理 物联网
AI Safeguard联合 CMU,斯坦福提出端侧多模态小模型
随着人工智能的快速发展,多模态大模型(MLLMs)在计算机视觉、自然语言处理和多模态任务中扮演着重要角色。
217 0