DL之MobileNetV2:MobileNetV2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

简介: DL之MobileNetV2:MobileNetV2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

MobileNetV2算法的简介(论文介绍)

image.png



    作者在MobileNet基础上,又提出了改进的模型MobileNetV2,该模型可用于不同的任务,比如图像分类、目标检测、图像分割等。



Abstract  

      In this paper we describe a new mobile architecture,  MobileNetV2, that improves the state of the art performance  of mobile models on multiple tasks and benchmarks  as well as across a spectrum of different model  sizes. We also describe efficient ways of applying these  mobile models to object detection in a novel framework  we call SSDLite. Additionally, we demonstrate how  to build mobile semantic segmentation models through  a reduced form of DeepLabv3 which we call Mobile  DeepLabv3.  is based on an inverted residual structure where  the shortcut connections are between the thin bottleneck  layers. The intermediate expansion layer uses  lightweight depthwise convolutions to filter features as  a source of non-linearity.      

      Additionally, we find that it is  important to remove non-linearities in the narrow layers  in order to maintain representational power. We demonstrate  that this improves performance and provide an intuition  that led to this design.  

      Finally, our approach allows decoupling of the input/output  domains from the expressiveness of the transformation,  which provides a convenient framework for  further analysis. We measure our performance on  ImageNet [1] classification, COCO object detection [2],  VOC image segmentation [3]. We evaluate the trade-offs  between accuracy, and number of operations measured  by multiply-adds (MAdd), as well as actual latency, and  the number of parameters.

摘要

      在本文中,我们描述了一种新的移动架构mobilenet2,它改善了移动模型在多个任务和基准上以及在不同模型大小的范围内的最新性能。我们还描述了在一个称为SSDLite的新框架中,将这些移动模型应用于目标检测的有效方法。此外,我们还演示了如何通过DeepLabv3 (我们称之为Mobile DeepLabv3 )的简化形式来构建移动语义分割模型。是基于一个倒置的residual结构,其中的快捷连接是在薄的bottleneck 层之间。中间扩展层使用轻量级的垂直卷积来过滤作为非线性源的特征。

      此外,我们发现为了保持具有代表性的能力,在狭窄的层面上去除非线性是很重要的。我们证明,这提高了性能,并提供了带来此设计的直觉(即灵感来源)。

      最后,我们的方法允许将输入/输出域与转换的表现性分离,这为进一步分析提供了一个方便的框架。我们在ImageNet[1]分类、COCO目标检测[2]和VOC图像分割[3]上测量我们的性能。我们评估了精度、乘法加法(MAdd)度量的操作数、实际延迟和参数数之间的权衡。

Conclusions and future work  

      We described a very simple network architecture that  allowed us to build a family of highly efficient mobile  models. Our basic building unit, has several properties  that make it particularly suitable for mobile applications.  It allows very memory-efficient inference and  relies utilize standard operations present in all neural  frameworks.  

      For the ImageNet dataset, our architecture improves  the state of the art for wide range of performance points.  

      For object detection task, our network outperforms  state-of-art realtime detectors on COCO dataset both in  terms of accuracy and model complexity. Notably, our  architecture combined with the SSDLite detection module  is 20× less computation and 10× less parameters  than YOLOv2.  

      On the theoretical side: the proposed convolutional  block has a unique property that allows to separate the  network expressiviness (encoded by expansion layers)  from its capacity (encoded by bottleneck inputs). Exploring  this is an important direction for future research.

结论与未来工作

      我们描述了一个非常简单的网络架构,它允许我们构建一系列高效的移动模型。我们的基本建筑单元有几个特性,使其特别适合移动应用。它允许非常有记忆效率的推理,并且依赖于使用所有神经框架中存在的标准操作。

      对于ImageNet数据集,我们的架构改善了各种性能点的艺术状态。

      对于目标检测任务,我们的网络在准确性和模型复杂性方面都优于COCO数据集上的最新实时检测器。值得注意的是,我们的架构与SSDLite 检测模块相结合,比YOLOv2的计算量少20倍,参数少10倍。

      理论方面:所提出的卷积块具有独特的特性,允许将网络表现性(由扩展层编码)与其容量(由瓶颈输入编码)分开。探索这是今后研究的一个重要方向。



论文

Mark Sandler, Andrew Howard, MenglongZhu, Andrey Zhmoginov, Liang-ChiehChen.

MobileNetV2: Inverted Residuals and Linear Bottlenecks.

https://arxiv.org/abs/1801.04381v3



MobileNet V2算法的架构详解


1、MobileNet V1 → MobileNet V2


image.png





2、主要贡献是一个新颖的层模块


image.png


      具有线性瓶颈的反转残差(inverted residual ):该模块将低维压缩表示作为输入,首先将其扩展为高维度并使用轻量级沿深度卷积(depthwiseconvolution)进行滤波。随后通过线性卷积将特征投射回低维表示。

      中间层使用轻量级的沿深度卷积来对特征进行滤波作为非线性的来源。



3、实验结果


ImageNet上的分类结果的性能,不同网络的比较 Performance on ImageNet, comparison for different networks.




image.png





MobileNet V2算法的案例应用


更新……






 


目录
打赏
0
0
0
0
1044
分享
相关文章
DeepSeek加持的通义灵码2.0 AI程序员实战案例:助力嵌入式开发中的算法生成革新
本文介绍了通义灵码2.0 AI程序员在嵌入式开发中的实战应用。通过安装VS Code插件并登录阿里云账号,用户可切换至DeepSeek V3模型,利用其强大的代码生成能力。实战案例中,AI程序员根据自然语言描述快速生成了C语言的base64编解码算法,包括源代码、头文件、测试代码和CMake编译脚本。即使在编译错误和需求迭代的情况下,AI程序员也能迅速分析问题并修复代码,最终成功实现功能。作者认为,通义灵码2.0显著提升了开发效率,打破了编程语言限制,是AI编程从辅助工具向工程级协同开发转变的重要标志,值得开发者广泛使用。
8121 69
DeepSeek加持的通义灵码2.0 AI程序员实战案例:助力嵌入式开发中的算法生成革新
调研180多篇论文,这篇综述终于把大模型做算法设计理清了
《A Systematic Survey on Large Language Models for Algorithm Design》综述了过去三年大型语言模型(LLMs)在算法设计中的应用。LLMs通过自然语言处理技术,助力生成、优化和验证算法,在优化、机器学习、数学推理等领域展现出广泛应用前景。尽管存在资源需求高、结果不确定等挑战,LLMs仍为算法设计带来新机遇。论文地址:https://arxiv.org/abs/2410.14716。
141 14
这些算法在实际应用中有哪些具体案例呢
【10月更文挑战第19天】这些算法在实际应用中有哪些具体案例呢
129 1
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
91 0
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
68 0
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
69 0
云原生时代的应用架构演进:从微服务到 Serverless 的阿里云实践
云原生技术正重塑企业数字化转型路径。阿里云作为亚太领先云服务商,提供完整云原生产品矩阵:容器服务ACK优化启动速度与镜像分发效率;MSE微服务引擎保障高可用性;ASM服务网格降低资源消耗;函数计算FC突破冷启动瓶颈;SAE重新定义PaaS边界;PolarDB数据库实现存储计算分离;DataWorks简化数据湖构建;Flink实时计算助力风控系统。这些技术已在多行业落地,推动效率提升与商业模式创新,助力企业在数字化浪潮中占据先机。
76 12
后端服务架构的微服务化转型
本文旨在探讨后端服务从单体架构向微服务架构转型的过程,分析微服务架构的优势和面临的挑战。文章首先介绍单体架构的局限性,然后详细阐述微服务架构的核心概念及其在现代软件开发中的应用。通过对比两种架构,指出微服务化转型的必要性和实施策略。最后,讨论了微服务架构实施过程中可能遇到的问题及解决方案。
云计算的未来:云原生架构与微服务的革命####
【10月更文挑战第21天】 随着企业数字化转型的加速,云原生技术正迅速成为IT行业的新宠。本文深入探讨了云原生架构的核心理念、关键技术如容器化和微服务的优势,以及如何通过这些技术实现高效、灵活且可扩展的现代应用开发。我们将揭示云原生如何重塑软件开发流程,提升业务敏捷性,并探索其对企业IT架构的深远影响。 ####
119 3
云原生架构下的微服务治理与挑战####
随着云计算技术的飞速发展,云原生架构以其高效、灵活、可扩展的特性成为现代企业IT架构的首选。本文聚焦于云原生环境下的微服务治理问题,探讨其在促进业务敏捷性的同时所面临的挑战及应对策略。通过分析微服务拆分、服务间通信、故障隔离与恢复等关键环节,本文旨在为读者提供一个关于如何在云原生环境中有效实施微服务治理的全面视角,助力企业在数字化转型的道路上稳健前行。 ####

热门文章

最新文章