【论文精读】ISBI 2022 - Retinal Vessel Segmentation with Pixel-wise Adaptive Filters

简介: 由于视网膜血管的纹理复杂和成像对比度低,导致精确的视网膜血管分割具有挑战性。以前的方法通常通过级联多个深度网络来细化分割结果

【论文精读】ISBI 2022 - Retinal Vessel Segmentation with Pixel-wise Adaptive Filters


【论文原文】:Retinal Vessel Segmentation with Pixel-wise Adaptive Filters


【作者信息】:Li, Mingxing and Zhou, Shenglong and Chen, Chang and Zhang, Yueyi and Liu, Dong and Xiong, Zhiwei


论文:https://arxiv.org/pdf/2202.01782.pdf
代码:https://github.com/Limingxing00/Retinal-Vessel-Segmentation-ISBI2022


博主关键词:语义分割,语义强化,视网膜血管


推荐论文:无


摘要


由于视网膜血管的纹理复杂和成像对比度低,导致精确的视网膜血管分割具有挑战性。以前的方法通常通过级联多个深度网络来细化分割结果,这既耗时又低效。在本文中,我们提出了两种新的方法来应对这些挑战。首先,我们设计了一个轻量级模块,称为多尺度残差相似性聚集(multi-scale residual similarity gathering, MRSG),以生成逐像素自适应滤波器(point-wise adaptive filters, PA-Filter)。与级联多个深度网络不同,仅有一个PA-Filter层就可以提高分割结果。其次,我们引入了一种响应线索擦除(response cue erasing, RCE)策略来提高分割精度。在DRIVE、CHASE_DB1和STARE数据集上的实验结果表明,我们提出的方法在保持小型结构的同时优于模型效果。


1、简介


语义分割(Semantic Segmentation)是生物医学图像分析的一项基本任务,它可以帮助医生进行诊断,并帮助生物学家分析细胞形态。近年来,卷积神经网络在生物医学图像分割方面表现出了显著的效果。其中,U-Net[1]是应用最广泛的语义分割网络,它由一个用于提取图像特征的编码器和一个用于重构分割结果的解码器组成。U-Net++[2]重新设计了解码器中的跳跃连接,改进了特征融合和表示。


对于视网膜血管的分割,以前的方法大致可以分为三类。第一类设计拓扑感知(topology-aware)损失函数,以帮助网络识别关键结构[3,4]。第二类利用多个深度网络作为细化模块来细化分割结果[5,6,7]。第三类增强了单个网络获得更丰富、更复杂特征图的能力,例如使用注意力机制的特征图[8,9]。本文提出的方法属于第二类。尽管第二类已经具有令人满意的结果,但存在深度网络耗时且效率低下的问题。


为此,我们提出了一种方法,只使用一层像素自适应滤波器(PA-Filters)来细化分割结果,而不是使用深度网络。为了学习PA-Filters,我们提出了一个轻量级模块,称为多尺度残差相似性聚集(MRSG)。对于初始分割图上的每个位置,MRSG生成唯一的PA-Filters。也就是说,与传统的卷积层不同,所设计的PA-Filters不共享权重来更好地捕捉局部区域的纹理。同时,我们提出了一种响应线索擦除(RCE)策略,通过辅助分支实现,以进一步提高分割精度。RCE负责根据主分支的输出擦除输入图像上置信度最高像素的相应位置。我们设计了一个正则化损失来控制双分支的一致性,这使得网络更加鲁棒。在三个具有代表性的视网膜血管分割数据集(即DRIVE、CHASE_DB1和STARE)上进行的实验验证了我们的高效网络实现了最先进的性能。


2、方法


2.1 总览


image.png

6b501a86c812456eb15f81df95c99b89.png


2.2 U-Net骨干网络


image.png


θ是U-Net的参数。在这里,我们将粗略分割图的通道数设置为1,而不是独热码,这便于以下过程。


2.3 多尺度残差相似性聚集


image.png



7c8d341841164095a1fed0465f3a1007.png


image.png


2.4 响应线索擦除


image.png


2.5 总体的损失函数


image.png


3、实验和分析


3.1 数据集


我们在三个主流的视网膜血管分割数据集DRIVE、CHASE_DB1和STARE上评估了所提出的方法。具体而言,DRIVE[14]由40张来自糖尿病视网膜病变筛查项目的565×584大小的视网膜图像组成。按照官方的划分,训练集有20张图像,测试集也有20张图像。CHASE_DB1[15]包含28张大小为999×960的视网膜图像。STARE[16]包含20张尺寸为700×605的视网膜图像。我们遵循[6]中方法的设置,将前20/16个图像划分为训练集,将后8/4个图像分别划分为这两个数据集的测试集。


3.2 实验细节


在实验中,我们使用Pytorch(版本1.1)来实现所提出的方法。NVIDIA GTX 1080Ti用于训练和测试。在训练阶段,我们只使用翻转数据增强。我们使用Adam将损失降至最低,Adam的学习率为0.005,并且在所有数据集上都是固定的。我们采用统一的patch训练策略,将patch大小设置为输入图像大小的0.3倍。因此,DRIVE、CHASE_DB1和STARE数据集的采样patch大小分别为169×175、299×288和210×181。我们在这三个数据集上设置了batch_size为4和最大迭代次数6000。为了平衡性能和计算负担,我们在实验中选择D=5作为PA-Filters。我们根据不同的数据集选择合适的超参数k和λ 。


3.3 定量和定性分析


我们以F1得分(F1)、曲线下面积(AUC)、准确性(ACC)为指标,通过开源进行评估[8]。表1总结了DRIVE、CHASE_DB1和STARE数据集上每种最先进(SOTA)方法的参数和指标。我们可以观察到,所提出的方法在所有三个数据集上都具有最好的F1分数,超过了其他SOTA方法。尽管AG-Net在CHASE DB1数据集上具有最好的AUC,但所提出的方法的参数比AG-Net小4倍,这表明了所提出方法的紧凑性。我们还在图3中显示了三个数据集的分割结果。与其他SOTA方法相比,我们的分割结果具有更详细的纹理和完整的结构。


76c616899bc04cfead7de712163f6872.png

6f71cf1e0e404da5b0091075e41dbaa3.png


3.4 消融实验


为了验证所提出方法中每个组件的贡献,我们进行了消融研究。如表2所示,我们评估了PA-Filter和RCE策略的有效性。当我们选择大小为5×5的PA-Filters时,网络的参数仅增加0.012MB,但F1分数增加3.1%。对于PA-Filters,我们在没有RCE策略的情况下评估不同内核大小的影响。如表3所示,以需要更大的GPU内存为代价,更大的D实现了更好的性能。尽管D=7/9具有更好的性能,但它超过了CHASE_DB1上固定设置(第3.2节)的内存。为了一致性,我们的实验是基于D = 5 。


a3497bcf45ad4a33a27a9c17f8badada.png

48f4be731df74df2857d275405e16575.png


3.5 我们方法的可解释性


在训练阶段,我们没有对PA-Filters的生成进行监督。如图4所示,PA-Filters在中心像素处学习隐含地重建视网膜血管的纹理,而不是局部分割结果。以图4第一列的局部patch为例,从中心点学习的PA-Filters与条纹相似。请注意,中心点位于视网膜血管的边界上。所学习的PA滤波器隐式学习纹理,这使得粗分割图关注血管边界。因此,如图5所示,PA-Filters可以仅使用一层来细化粗略分割结果。


789ca6d1779f40928720deba3d15b3ce.png

5106274f2a1f445fa2fd9d4f1dff03dd.png


4、总结


在本文中,我们提出了用于视网膜血管分割的PA-Filters和RCE策略。具体来说,我们首先利用U-Net主干来获得粗略的分割图,在此基础上生成PA-Filters。我们设计了一个MRSG模块来生成用于细化的PA-Filters。此外,还提出了一种RCE策略,以进一步提高性能。在三个具有代表性的视网膜血管数据集(DRIVE、CHASE_DB1和STARE)上的实验结果证明了所提出方法的优越性。


【论文速递 | 精选】


fcc8fa9f87404652beb9e08a0ac9652d.png


论坛地址https://bbs.csdn.net/forums/paper


最近工作

目录
相关文章
|
8月前
|
算法 PyTorch 算法框架/工具
论文解读:LaMa:Resolution-robust Large Mask Inpainting with Fourier Convolutions
论文解读:LaMa:Resolution-robust Large Mask Inpainting with Fourier Convolutions
333 0
|
6月前
|
机器学习/深度学习 数据挖掘
PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation
PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation
30 1
PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation
|
8月前
|
编解码 计算机视觉
NeRF系列(3): Semantic-aware Occlusion Filtering Neural Radiance Fields in the Wild 论文解读
NeRF系列(3): Semantic-aware Occlusion Filtering Neural Radiance Fields in the Wild 论文解读
147 2
|
8月前
|
机器学习/深度学习 编解码 自然语言处理
DeIT:Training data-efficient image transformers & distillation through attention论文解读
最近,基于注意力的神经网络被证明可以解决图像理解任务,如图像分类。这些高性能的vision transformer使用大量的计算资源来预训练了数亿张图像,从而限制了它们的应用。
237 0
|
8月前
|
机器学习/深度学习 PyTorch 测试技术
SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation 论文解读
我们提出了SegNeXt,一种用于语义分割的简单卷积网络架构。最近的基于transformer的模型由于在编码空间信息时self-attention的效率而主导了语义分割领域。在本文中,我们证明卷积注意力是比transformer中的self-attention更有效的编码上下文信息的方法。
203 0
|
8月前
|
机器学习/深度学习 自然语言处理
【论文精读】COLING 2022 - DESED: Dialogue-based Explanation for Sentence-level Event Detection
最近许多句子级事件检测的工作都集中在丰富句子语义上,例如通过多任务或基于提示的学习。尽管效果非常好,但这些方法通常依赖于标签广泛的人工标注
57 0
|
10月前
|
数据挖掘
PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation-ppt版学习笔记
PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation-ppt版学习笔记
93 0
|
10月前
PointNet++:Deep Hierarchical Feature Learning on Points Sets in a Metrci Space 学习笔记
PointNet++:Deep Hierarchical Feature Learning on Points Sets in a Metrci Space 学习笔记
54 0
|
Windows
论文阅读:AM-GCN Adaptive Multi-channel Graph Convolutional Networks
论文阅读:AM-GCN Adaptive Multi-channel Graph Convolutional Networks
112 0
论文阅读:AM-GCN Adaptive Multi-channel Graph Convolutional Networks
|
机器学习/深度学习 编解码 数据挖掘
A Semisupervised CRF Model for CNN-Based Semantic Segmentation With Sparse Ground Truth
A Semisupervised CRF Model for CNN-Based Semantic Segmentation With Sparse Ground Truth
85 0
A Semisupervised CRF Model for CNN-Based Semantic Segmentation With Sparse Ground Truth