【计算机视觉 | 图像分割】arxiv 计算机视觉关于图像分割的学术速递(8 月 8 日论文合集)(二)(下)

简介: 【计算机视觉 | 图像分割】arxiv 计算机视觉关于图像分割的学术速递(8 月 8 日论文合集)(二)(下)

一、分割|语义相关(19篇)(下)

1.14 Learning to Generate Training Datasets for Robust Semantic Segmentation

学习生成用于稳健语义分割的训练数据集
https://arxiv.org/abs/2308.02535
近年来,语义分割技术取得了重大进展,但它们对现实世界扰动和训练期间未见过的数据样本的鲁棒性仍然是一个挑战,特别是在安全关键型应用中。 在本文中,我们提出了一种新方法,通过利用标签到图像生成器和图像到标签分割模型之间的协同作用来提高语义分割技术的鲁棒性。 具体来说,我们设计和训练 Robusta,这是一种新颖的鲁棒条件生成对抗网络,用于生成真实可信的扰动或离群图像,可用于训练可靠的分割模型。 我们对所提出的生成模型进行了深入研究,评估了下游分割网络的性能和鲁棒性,并证明我们的方法可以显着增强语义分割技术在面对现实世界扰动、分布变化和 分布外样本。 我们的结果表明,这种方法在安全关键型应用中可能很有价值,其中语义分割技术的可靠性至关重要,并且推理中的计算预算有限。 我们将很快发布我们的代码。

1.15 Adaptive Semi-Supervised Segmentation of Brain Vessels with Ambiguous Labels

具有模糊标签的自适应半监督脑血管分割
https://arxiv.org/abs/2308.03613
脑血管的精确分割对于脑血管疾病的诊断和治疗至关重要。 然而,现有方法在捕获小型船只和处理部分或模糊注释的数据集方面面临挑战。 在本文中,我们提出了一种自适应半监督方法来应对这些挑战。 我们的方法融合了创新技术,包括渐进式半监督学习、适应性训练策略和边界增强。 3DRA 数据集上的实验结果证明了我们的方法在基于网格的分割指标方面的优越性。 通过利用部分和模糊标记的数据(仅注释主要血管),我们的方法在错误标记的细血管上实现了令人印象深刻的分割性能,展示了其临床应用的潜力。

1.16 Enhancing Nucleus Segmentation with HARU-Net: A Hybrid Attention Based Residual U-Blocks Network

基于混合注意力的残差U块网络HARU-Net增强核分割
https://arxiv.org/abs/2308.03382
细胞核图像分割是分析、病理诊断和分类的关键步骤,很大程度上依赖于细胞核分割的质量。 然而,诸如细胞核大小变化、细胞核轮廓模糊、染色不均匀、细胞聚集和细胞重叠等问题的复杂性提出了重大挑战。 当前的细胞核分割方法主要依赖于细胞核形态学或基于轮廓的方法。 基于核形态学的方法表现出有限的泛化能力,并且难以有效预测不规则形状的核,而基于轮廓的提取方法在准确分割重叠核方面面临挑战。 为了解决上述问题,我们提出了一种双分支网络,使用基于混合注意力的残差 U 块进行核实例分割。 该网络同时预测目标信息和目标轮廓。 此外,我们引入了一种后处理方法,结合目标信息和目标轮廓来区分重叠核并生成实例分割图像。 在网络中,我们提出了一个上下文融合块(CF-block),它可以有效地从网络中提取和合并上下文信息。 进行了广泛的定量评估来评估我们方法的性能。 实验结果表明,与 BNS、MoNuSeg、CoNSeg 和 CPM-17 数据集上的最先进方法相比,所提出的方法具有优越的性能。

1.17 Microvasculature Segmentation in Human BioMolecular Atlas Program (HuBMAP)

人类生物分子图谱程序中的微血管分割(HuBMAP)
https://arxiv.org/abs/2308.03203
图像分割是一系列应用的关键工具,包括自动驾驶的行人检测和医疗领域的术前肿瘤勾画。 在这些应用中,我们重点关注美国国立卫生研究院 (NIH) 的人类生物分子图谱计划 (HuBMAP),这是一项旨在创建详细的人体细胞图谱的重大举措。 在这项研究中,我们利用 2D 过碘酸希夫 (PAS) 染色的组织学图像,专注于分割人类肾脏中的各种微血管结构。 我们的方法从基础 FastAI U-Net 模型开始,在此基础上我们研究替代骨干架构,深入研究更深层次的模型,并尝试特征金字塔网络。 我们通过根据我们的基准 U-Net 模型对这些方法的性能进行基准测试来严格评估这些方法。 因此,这项研究对尖端分割技术进行了全面的探索,为该领域的未来研究提供了宝贵的见解。

1.18 Weakly supervised segmentation of intracranial aneurysms using a 3D focal modulation UNet

基于三维调焦技术的颅内动脉瘤弱监督分割
https://arxiv.org/abs/2308.03001
未破裂颅内动脉瘤(UIA)的准确识别和量化对于这种脑血管疾病的风险评估和治疗决策至关重要。 目前基于 3D 磁共振血管造影 (MRA) 对动脉瘤进行 2D 手动测量的评估效果欠佳且耗时。 自动 3D 测量可以显着改善临床工作流程和治疗结果。 然而,医学图像分割的一个主要问题是需要大量注释良好的数据,而获取这些数据的成本可能很高。 减轻要求的技术(例如带有粗标签的弱监督学习)是非常可取的。 在本文中,我们利用飞行时间 MRA 中的 UIA 粗略标签,使用新型 3D 焦点调制 UNet(称为 FocalSegNet)和条件随机场 (CRF) 后处理来获得精细的 UIA 分割,Dice 得分为 0.68 和 95% 豪斯多夫距离为 0.95 毫米。 我们针对最先进的 3D UNet 和 Swin-UNETR 评估了所提出算法的性能,并证明了所提出的 FocalSegNet 的优越性以及焦点调制对该任务的好处。

1.19 DermoSegDiff: A Boundary-aware Segmentation Diffusion Model for Skin Lesion Delineation

DermoSegDiff:一种边界感知的皮肤病变分割扩散模型
https://arxiv.org/abs/2308.02959
皮肤病变分割在皮肤病的早期检测和准确诊断中起着至关重要的作用。 去噪扩散概率模型 (DDPM) 最近因其卓越的图像生成能力而受到关注。 基于这些进步,我们提出了 DermoSegDiff,这是一种用于皮肤病变分割的新颖框架,它在学习过程中结合了边界信息。 我们的方法引入了一种新颖的损失函数,该函数在训练期间优先考虑边界,逐渐降低其他区域的重要性。 我们还介绍了一种新颖的基于 U-Net 的去噪网络,该网络能够熟练地将噪声和语义信息集成到网络内。 多个皮肤分割数据集上的实验结果证明了 DermoSegDiff 相对于现有 CNN、Transformer 和基于扩散的方法的优越性,展示了其在各种场景中的有效性和泛化性。 该实现可在 \href{此 https URL}{GitHub} 上公开访问.

相关文章
|
7月前
|
机器学习/深度学习 编解码 资源调度
2024年3月的计算机视觉论文推荐
从去年开始,针对LLM的研究成为了大家关注的焦点。但是其实针对于计算机视觉的研究领域也在快速的发展。每周都有计算机视觉领域的创新研究,包括图像识别、视觉模型优化、生成对抗网络(gan)、图像分割、视频分析等。
186 0
|
7月前
|
机器学习/深度学习 自然语言处理 算法
2024年4月计算机视觉论文推荐
四月的计算机视觉研究涵盖多个子领域,包括扩散模型和视觉语言模型。在扩散模型中,Tango 2通过直接偏好优化改进了文本到音频生成,而Ctrl-Adapter提出了一种有效且通用的框架,用于在图像和视频扩散模型中添加多样控制。视觉语言模型的论文分析了CLIP模型在有限资源下的优化,并探讨了语言引导对低级视觉任务的鲁棒性。图像生成与编辑领域关注3D感知和高质量图像编辑,而视频理解与生成则涉及实时视频转游戏环境和文本引导的剪贴画动画。
150 0
|
6月前
|
编解码 机器人 测试技术
2024年6月计算机视觉论文推荐:扩散模型、视觉语言模型、视频生成等
6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。
159 8
|
7月前
|
编解码 边缘计算 自然语言处理
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
五月发布的计算机视觉领域重要论文涵盖了扩散模型、视觉语言模型、图像生成与编辑及目标检测。亮点包括:1) Dual3D提出双模式推理策略,实现高效文本到3D图像生成;2) CAT3D利用多视图扩散模型创建3D场景,仅需少量图像;3) Hunyuan-DiT是多分辨率的中文理解扩散Transformer,可用于多模态对话和图像生成;4) 通过潜在扩散模型从EEG数据重建自然主义音乐,展示复杂音频重建潜力。此外,还有关于视觉语言模型和图像编辑的创新工作,如BlobGEN用于合成具有控制性的图像。
279 3
|
机器学习/深度学习 算法 计算机视觉
【计算机视觉 | 图像分割】arxiv 计算机视觉关于图像分割的学术速递(8 月 14 日论文合集)
【计算机视觉 | 图像分割】arxiv 计算机视觉关于图像分割的学术速递(8 月 14 日论文合集)
|
7月前
|
算法 数据库 计算机视觉
【计算机视觉】FCN、Seg-Net、U-Net模型进行图像分割实战(附源码和数据集 超详细必看)
【计算机视觉】FCN、Seg-Net、U-Net模型进行图像分割实战(附源码和数据集 超详细必看)
280 2
|
7月前
|
机器学习/深度学习 算法 计算机视觉
【计算机视觉】图像分割中FCN、DeepLab、SegNet、U-Net、Mask R-CNN等算法的讲解(图文解释 超详细)
【计算机视觉】图像分割中FCN、DeepLab、SegNet、U-Net、Mask R-CNN等算法的讲解(图文解释 超详细)
307 0
|
7月前
|
机器学习/深度学习 计算机视觉
AIGC核心技术——计算机视觉(CV)预训练大模型
【1月更文挑战第13天】AIGC核心技术——计算机视觉(CV)预训练大模型
643 3
AIGC核心技术——计算机视觉(CV)预训练大模型
|
机器学习/深度学习 PyTorch 算法框架/工具
Azure 机器学习 - 使用 ONNX 对来自 AutoML 的计算机视觉模型进行预测
Azure 机器学习 - 使用 ONNX 对来自 AutoML 的计算机视觉模型进行预测
129 0
|
3月前
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。

热门文章

最新文章