Mobile-Unet网络综述

简介: Mobile-Unet网络综述

前言


  在Mobile-Unet网络的肺结节图像分割方法中我们介绍了数据集的来源以及数据分配比,在此数据下我们进行MobileNetV3轻量级网络同Unet相结合的网络,在此篇中,我将着重介绍MobileNetV3轻量级网络和Unet网络以及二者网络相结合



MobileNetV3网络


  MobileNetV3是一种结合了深度可分离卷积线性瓶颈逆残差结构和轻量级注意力机制的网络。 该网络为解决现实场景应用中计算能力受限而专门设计,具有参数量少、速度快、深度适中等优势,常作为主干网络应用于医学图像分割任务。由于本文采用卷积核的长和宽均为16,彩色图片的通道数为3,易得R约为0.337,通过该比值可以看出深度可分离卷积的参数量远远少于传统卷积参数量,约为传统卷积参数量的30%,从而大大缩短网络训练时间。


  如下图所 示,MobileNetV3网络主要分为3个部分。第一部分(Conv3×3)为一个3x3的卷积层,用于提取特征;中间部分(bneck1-4)为多个含有可分离卷积层块(bneck) 的网络结构,由多个3×3、5×5的卷积块组成,通常深度越深,提取到的抽象特征越好;最后一部分通过卷积层(Conv1x1)代替全连接层,在经过池化等一系列步骤 得到输出结果。

image.png

Unet网络


  Unet网络是一种全卷积神经网络,是目前比较流行的医学图像分割模型。 下图为Unet网络结构。网络由编码器(上采样) 和解码器(下采样) 两个部分组成。 编码部分通过卷积和池化对输入图片进行降维和特征提取;解码部分通过上采样对低像素(浅层特征) 图片进行升维和特征放大。编码所得到的不同特征图会以通道融合的方式连接到解码部分的相对应层,其中浅层特征用来分割,深层特征用来定位,二者的有效结合有助于增加特征的多样性。 因此,作为特定的任务型网络,能较好地适用于医学图像的分割。

image.png

Mobile Unet网络


  Mobile-Unet网 络 模 型,其中主干网络选用 MobileNetV3轻量级网络,任务网络为常用的 Unet网络,网络结构采用下图方式构建。首先,将MobileNetV3中bneck模块移植到Unet网络的编码部分;其次,根据Unet编码部分位置采用不同深度的bneck模块来提取特征,通常位置越深,所需bneck模块量越多,提取到的抽象特征也越高级。

image.png

image.png

 Mobile Unet网络将MobileNetV3特征提取并结合Unet的特征连接,有助于减少网络层数参数过多和过拟合问题,从而具有了精度高、计算简单和较少参数等优势



相关文章
|
1月前
|
机器学习/深度学习 数据可视化 计算机视觉
深度学习500问——Chapter04:经典网络解读(1)
深度学习500问——Chapter04:经典网络解读(1)
33 2
|
1月前
|
机器学习/深度学习 数据挖掘 C语言
深度学习500问——Chapter04:经典网络解读(2)
深度学习500问——Chapter04:经典网络解读(2)
27 2
|
10月前
|
人工智能 JSON 缓存
MiniRBT中文小型预训练模型:结合了全词掩码(Whole Word Masking)技术和两段式知识蒸馏(Knowledge Distillation)技术,加快推理速度
MiniRBT中文小型预训练模型:结合了全词掩码(Whole Word Masking)技术和两段式知识蒸馏(Knowledge Distillation)技术,加快推理速度
MiniRBT中文小型预训练模型:结合了全词掩码(Whole Word Masking)技术和两段式知识蒸馏(Knowledge Distillation)技术,加快推理速度
|
机器学习/深度学习 编解码 人工智能
深度学习应用篇-计算机视觉-图像分类[3]:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、模型特点详细介绍
深度学习应用篇-计算机视觉-图像分类[3]:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、模型特点详细介绍
10587 1
 深度学习应用篇-计算机视觉-图像分类[3]:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、模型特点详细介绍
|
机器学习/深度学习 设计模式 固态存储
详细解读 | CVPR 2021轻量化目标检测模型MobileDets(附论文下载)(一)
详细解读 | CVPR 2021轻量化目标检测模型MobileDets(附论文下载)(一)
476 0
|
算法 测试技术 文件存储
详细解读 | CVPR 2021轻量化目标检测模型MobileDets(附论文下载)(二)
详细解读 | CVPR 2021轻量化目标检测模型MobileDets(附论文下载)(二)
195 0
|
机器学习/深度学习 编解码 自然语言处理
最强Vision Trabsformer | 87.7%准确率!CvT:将卷积引入视觉Transformer(文末附论文下载)(一)
最强Vision Trabsformer | 87.7%准确率!CvT:将卷积引入视觉Transformer(文末附论文下载)(一)
197 0
|
机器学习/深度学习 存储 编解码
最强Vision Trabsformer | 87.7%准确率!CvT:将卷积引入视觉Transformer(文末附论文下载)(二)
最强Vision Trabsformer | 87.7%准确率!CvT:将卷积引入视觉Transformer(文末附论文下载)(二)
67 0
|
机器学习/深度学习 自然语言处理 算法
计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型
Vision Transformers (ViT) 在计算机视觉任务中取得了快速进展,在各种基准测试中取得了可喜的成果。然而,由于大量的参数和模型设计,例如注意力机制,基于 ViT 的模型通常比轻量级卷积网络慢几倍。因此,应用部署 ViT 具有很大的挑战性,尤其是在移动设备等资源受限的硬件上。
238 0
|
机器学习/深度学习 人工智能 编解码
7 Papers & Radios | 谷歌下一代AI架构Pathways论文放出;何恺明组只用ViT做主干进行目标检测(1)
7 Papers & Radios | 谷歌下一代AI架构Pathways论文放出;何恺明组只用ViT做主干进行目标检测
223 0