论文推荐:基于联合损失函数的多任务肿瘤分割

简介: 以FFANet为主干,加入分类的分支,将模型扩展为多任务图像分割框架,设计了用于分类和分割的联合损失函数。

FFANet+MTL

1、FFANet和分割分支

FFANet作为骨干网络,作为对VoVNet的重新设计和优化,FFANet在骨干网中加入了残差连接,使VoVNet可以学习更多的特性。设计了一种特殊的特征融合机制来有效地聚合多尺度特征。最后,在上采样阶段,引入混合的注意力机制来细化分割结果

2、分支分类

对于分类分支,它由一个全局平均池化(GAP)层和一个全连接层组成。

3、联合损失函数

对于分类任务,使用交叉熵(cross-entropy, CE)损失函数:

对于分割任务,使用dice 损失函数:

最后加权损失:

这里选择的α=0.2

结果展示

1、数据集和指标

数据集是由MICCAI 2020公开竞赛甲状腺结节分割和分类(TN-SC 2020)提供。该数据集包括3644张图片,由3644名患者提供,并由专业医生注释。所有图像均为单通道灰度超声图像。训练集、验证集和测试集的比例为7∶1∶2。使用 4 个指标,即 DICE、准确性 (ACC)、灵敏度 (SE) 和特异性 (SP)。(这个ACC是像素级的 ACC)

2、权重(α)选择

α=0.2得到最高的性能,并用于后续的实验。

可以看到,当α=0.2分类性能稍差。

3、SOTA比较

多任务模型(0.2)在关键指标DICE上的最佳表现为0.935。在ACC和SP上的性能达到了第三名,在SE上的性能也很好。

论文所提出的多任务模型 (0.2) 达到了 0.79 的分类精度,排名第二,超过了 ResNet-50、具有 ECA-Net 通道注意力的 ResNet-50 和 VoVNet-39。

模型对目标区域的定位和预测非常准确,对病灶区域的描述也更加精细。

论文地址:

https://avoid.overfit.cn/post/6a605da56978443bb548e8f342cbda37

本文作者:Sik-Ho Tsang

目录
相关文章
|
JSON 算法 API
微信支付超过2000元配置
导入依赖、微信工具类、请求示例、超过2000元转账参数、姓名加密、请求参数、微信支付平台证书序列号、Wechatpay-Serial
859 0
|
定位技术 数据格式
轨迹系列——车载GPS对接方案汇总小结(809、自定义协议、前置库、WS)
文章版权由作者李晓晖和博客园共有,若转载请于明显处标明出处:http://www.cnblogs.com/naaoveGIS/ 1.背景          最近在不同项目中对接了多个车载GPS厂商服务终端,绝大多数厂商可以提供809协议的数据对接,还有部分可以提供自定义协议等方式的对接。
3876 0
|
人工智能 监控 算法
java智慧城管源码 AI视频智能分析 可直接上项目
Java智慧城管源码实现AI视频智能分析,适用于直接部署项目。系统运用互联网、大数据、云计算和AI提升城市管理水平,采用“一级监督、二级指挥、四级联动”模式。功能涵盖AI智能检测(如占道广告、垃圾处理等)、执法办案、视频分析、统计分析及队伍管理等多个模块,利用深度学习优化城市管理自动化和智能化,提供决策支持。
667 4
java智慧城管源码 AI视频智能分析 可直接上项目
|
Android开发 开发者 Kotlin
Android实战经验之Kotlin中快速实现MVI架构
MVI架构通过单向数据流和不可变状态,提供了一种清晰、可预测的状态管理方式。在Kotlin中实现MVI架构,不仅提高了代码的可维护性和可测试性,还能更好地应对复杂的UI交互和状态管理。通过本文的介绍,希望开发者能够掌握MVI架构的核心思想,并在实际项目中灵活应用。
564 8
|
负载均衡 IDE Java
SpringBoot整合XXL-JOB【04】- 以GLUE模式运行与执行器负载均衡策略
在本节中,我们将介绍XXL-JOB的GLUE模式和集群模式下的路由策略。GLUE模式允许直接在线上改造方法为定时任务,无需重新部署。通过一个测试方法,展示了如何在调度中心配置并使用GLUE模式执行定时任务。接着,我们探讨了多实例环境下的负载均衡策略,确保任务不会重复执行,并可通过修改路由策略(如轮训)实现任务在多个实例间的均衡分配。最后,总结了GLUE模式和负载均衡策略的应用,帮助读者更深入理解XXL-JOB的使用。
821 9
SpringBoot整合XXL-JOB【04】-  以GLUE模式运行与执行器负载均衡策略
|
人工智能 弹性计算 自动驾驶
2023 AI开发者生态报告:技术生态、开发范式与应用案例全景
随着人工智能技术的飞速发展,全球IT市场对AI的投入持续增长,预计到2027年将达到4236亿美元。
|
监控 PyTorch 数据处理
通过pin_memory 优化 PyTorch 数据加载和传输:工作原理、使用场景与性能分析
在 PyTorch 中,`pin_memory` 是一个重要的设置,可以显著提高 CPU 与 GPU 之间的数据传输速度。当 `pin_memory=True` 时,数据会被固定在 CPU 的 RAM 中,从而加快传输到 GPU 的速度。这对于处理大规模数据集、实时推理和多 GPU 训练等任务尤为重要。本文详细探讨了 `pin_memory` 的作用、工作原理及最佳实践,帮助你优化数据加载和传输,提升模型性能。
1399 4
通过pin_memory 优化 PyTorch 数据加载和传输:工作原理、使用场景与性能分析
|
Java 数据库连接 数据库
Spring基础3——AOP,事务管理
AOP简介、入门案例、工作流程、切入点表达式、环绕通知、通知获取参数或返回值或异常、事务管理
Spring基础3——AOP,事务管理
|
编解码 Shell
在jetson中实现ffmpeg调用硬件编解码加速处理
在jetson中实现ffmpeg调用硬件编解码加速处理
3814 1
|
缓存 数据安全/隐私保护 UED
深入了解304缓存原理:提升网站性能与加载速度
深入了解304缓存原理:提升网站性能与加载速度