使用训练分类网络预处理多分辨率图像

简介: 说明如何准备用于读取和预处理可能不适合内存的多分辨率全玻片图像 (WSI) 的数据存储。肿瘤分类的深度学习方法依赖于数字病理学,其中整个组织切片被成像和数字化。生成的 WSI 具有高分辨率,大约为 200,000 x 100,000 像素。WSI 通常以多分辨率格式存储,以促进图像的高效显示、导航和处理。读取和处理WSI数据。这些对象有助于使用多个分辨率级别,并且不需要将图像加载到核心内存中。此示例演示如何使用较低分辨率的图像数据从较精细的级别有效地准备数据。可以使用处理后的数据来训练分类深度学习网络。

​一、前言
此示例说明如何准备用于读取和预处理可能不适合内存的多分辨率全玻片图像 (WSI) 的数据存储。
肿瘤分类的深度学习方法依赖于数字病理学,其中整个组织切片被成像和数字化。生成的 WSI 具有高分辨率,大约为 200,000 x 100,000 像素。WSI 通常以多分辨率格式存储,以促进图像的高效显示、导航和处理。
读取和处理WSI数据。这些对象有助于使用多个分辨率级别,并且不需要将图像加载到核心内存中。此示例演示如何使用较低分辨率的图像数据从较精细的级别有效地准备数据。可以使用处理后的数据来训练分类深度学习网络。
二、下载Camelyon16数据集
此示例使用 Camelyon16的WSI。该数据包含来自两个独立来源的总共400个淋巴结WSI,分为270张训练图像和130张测试图像。WSI以剥离格式存储为TIF文件,具有11级金字塔结构。
训练数据集由正常淋巴结的 159 个 WSI 和肿瘤和健康组织的淋巴结的 111 个 WSI 组成。病变边界的地面真实坐标伴随肿瘤图像。
指定为数据的目标位置。数据集的大小约为 451 GB。
要下载训练数据,请访问Camelyon17网站,然后单击第一个“CAMELYON16数据集”链接。
三、创建对象以管理 WSI 映像
获取正常和肿瘤训练图像的文件名。正常组织的训练图像之一“normal_144.tif”缺少推断图像物理范围所需的重要元数据。排除此文件。
创建两个块图像对象数组,一个用于正常图像,一个用于肿瘤图像。每个对象都指向磁盘上的相应映像文件。
为了更好地了解训练数据,请显示正常组织的阻塞图像。粗分辨率级别的图像足够小,可以放入内存中,因此您可以使用帮助程序函数直观地检查图像浏览器应用程序中的数据。此帮助程序函数作为支持文件附加到示例。请注意,图像包含大量空白区域,并且组织仅占据图像的一小部分。这些特征是WSI的典型特征。
更深入地探索单曲。选择要可视化的肿瘤样本图像,然后使用 bigimageshow 功能显示图像。该功能根据屏幕尺寸和当前缩放级别自动选择分辨率级别。
1.png
放大至感兴趣区域。分辨率级别会自动增加以显示更多细节。
2.png
四、对齐空间范围
使用多分辨率影像的多个分辨率级别时,每个级别的空间范围必须匹配。如果空间范围对齐,则可以在粗分辨率级别提取掩膜等信息,并将其正确应用于更精细分辨率级别的匹配位置。
在每个分辨率水平上检查样品肿瘤图像的尺寸。级别 1 具有最多的像素,并且是最好的分辨率级别。级别 10 具有最少的像素,并且是最粗糙的分辨率级别。纵横比不一致,这通常表示关卡不跨越相同的世界区域。
3.png
五、创建组织面膜
典型WSI的大部分由背景像素组成。要有效地处理 WSI 数据,您可以从粗分辨率级别创建感兴趣区域 (ROI) 掩码,然后将更精细分辨率级别的计算限制为 ROI 内的区域。
选择掩码级别时,请考虑以下两个因素:
此示例使用粗分辨率级别为正常组织的训练图像创建遮罩。
背景均匀浅。您可以通过简单的阈值操作分割组织。使用函数以逐块方式将阈值应用于所有正常训练图像。通过指定名称-值参数将结果保存到磁盘。
组织面膜只有一个级别,并且足够小以适合记忆。使用帮助程序功能在图像浏览器应用程序中显示组织蒙版。
4.png
根据概述,选择一个以进一步评估组织面膜的准确性。显示使用大图像功能。使用显示标签功能将蒙版显示为叠加层。使用名称-值参数设置每个像素的透明度。对于 ROI 内的像素,标签是完全透明的。对于 ROI 之外的像素,标签部分透明,并以绿色色调显示。
5.png
放大以检查感兴趣区域。
6.png
六、创建肿瘤掩膜
在肿瘤图像中,ROI由肿瘤组织组成。肿瘤组织的颜色与健康组织的颜色相似,因此不能使用颜色分割技术。相反,通过使用伴随肿瘤图像的病变边界的地面真实坐标来创建ROI。这些区域是手绘的,最精细。
显示肿瘤边界.为了更好地了解肿瘤训练数据,请阅读真实边界坐标,并使用辅助函数将坐标显示为手绘 ROI。此帮助程序函数作为支持文件附加到示例。请注意,正常区域(用绿色边界显示)可能发生在肿瘤区域内。
7.png

目录
相关文章
|
9天前
|
机器学习/深度学习 自然语言处理 算法
【从零开始学习深度学习】49.Pytorch_NLP项目实战:文本情感分类---使用循环神经网络RNN
【从零开始学习深度学习】49.Pytorch_NLP项目实战:文本情感分类---使用循环神经网络RNN
|
9天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
|
1月前
|
机器学习/深度学习 JSON PyTorch
图神经网络入门示例:使用PyTorch Geometric 进行节点分类
本文介绍了如何使用PyTorch处理同构图数据进行节点分类。首先,数据集来自Facebook Large Page-Page Network,包含22,470个页面,分为四类,具有不同大小的特征向量。为训练神经网络,需创建PyTorch Data对象,涉及读取CSV和JSON文件,处理不一致的特征向量大小并进行归一化。接着,加载边数据以构建图。通过`Data`对象创建同构图,之后数据被分为70%训练集和30%测试集。训练了两种模型:MLP和GCN。GCN在测试集上实现了80%的准确率,优于MLP的46%,展示了利用图信息的优势。
33 1
|
22天前
|
机器学习/深度学习
简单通用:视觉基础网络最高3倍无损训练加速,清华EfficientTrain++入选TPAMI 2024
【5月更文挑战第30天】清华大学研究团队提出的EfficientTrain++是一种新型训练方法,旨在加速视觉基础网络(如ResNet、ConvNeXt、DeiT)的训练,最高可达3倍速度提升,同时保持模型准确性。该方法基于傅里叶谱裁剪和动态数据增强,实现了课程学习的创新应用。在ImageNet-1K/22K数据集上,EfficientTrain++能有效减少多种模型的训练时间,且在自监督学习任务中表现出色。尽管面临适应性与稳定性的挑战,EfficientTrain++为深度学习模型的高效训练开辟了新途径,对学术和工业界具有重要意义。
34 4
|
29天前
|
机器学习/深度学习 监控 自动驾驶
【传知代码】从零开始搭建图像去雾神经网络-论文复现
本文介绍了基于集成学习的双分支非均匀去雾神经网络的复现,该网络由迁移学习子网和数据拟合子网组成,分别处理全局表示和数据拟合。网络使用Res2Net作为编码器,并结合通道和像素注意力模块。代码可在提供的链接下载。网络在交通监控、自动驾驶、航海和目标跟踪等领域有广泛应用,通过提升图像质量来提高系统性能。实验在O-Haze、I-Haze和NH-Haze数据集上进行,展示了网络在去除雾霾方面的效果,尽管存在细节模糊和色彩饱和度低的问题。
|
1月前
|
机器学习/深度学习 算法
ICLR 2024 Oral:用巧妙的传送技巧,让神经网络的训练更加高效
【5月更文挑战第21天】ICLR 2024 Oral 提出了一种名为“传送”的新方法,利用参数对称性提升神经网络训练效率。该方法通过参数变换加速收敛,改善泛化能力,减少了训练所需的计算资源和时间。研究显示,传送能将模型移到不同曲率的极小值点,可能有助于泛化。论文还探讨了将传送应用于元学习等优化算法的潜力,但对传送加速优化的确切机制理解尚不深入,且实际应用效果有待更多验证。[论文链接](https://openreview.net/forum?id=L0r0GphlIL)
34 2
|
9天前
|
机器学习/深度学习 算法 PyTorch
【从零开始学习深度学习】50.Pytorch_NLP项目实战:卷积神经网络textCNN在文本情感分类的运用
【从零开始学习深度学习】50.Pytorch_NLP项目实战:卷积神经网络textCNN在文本情感分类的运用
|
9天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】35. 门控循环神经网络之门控循环单元(gated recurrent unit,GRU)介绍、Pytorch实现GRU并进行训练预测
【从零开始学习深度学习】35. 门控循环神经网络之门控循环单元(gated recurrent unit,GRU)介绍、Pytorch实现GRU并进行训练预测
|
1月前
|
数据挖掘 开发工具 Android开发
R语言对git安卓包分类统计、聚类、复杂网络可视化分析
R语言对git安卓包分类统计、聚类、复杂网络可视化分析
|
1月前
|
机器学习/深度学习
深度学习网络训练,Loss出现Nan的解决办法
深度学习网络训练,Loss出现Nan的解决办法
35 0

热门文章

最新文章