一、本文介绍
本文给大家带来的改进机制是反向残差块网络EMO,其的构成块iRMB在之前我已经发过了,同时进行了二次创新,本文的网络就是由iRMB组成的网络EMO,所以我们二次创新之后的iEMA也可以用于这个网络中,再次形成二次创新,同时本文的主干网络为一种轻量级的CNN架构,在开始之前给大家推荐一下我的专栏,本专栏每周更新3-10篇最新前沿机制 | 包括二次创新全网无重复,以及融合改进,更有包含我所有的YOLOv5仓库集成文件(文件内集成我所有的改进机制全部注册完毕可以直接运行)和交流群和视频讲解提供给大家。
欢迎大家订阅我的专栏一起学习YOLO!
二、EMO模型原理
Efficient MOdel (EMO)模型基于反向残差块(Inverted Residual Block, IRB),这是一种轻量级CNN的基础架构,同时融合了Transformer的有效组件。通过这种结合,EMO实现了一个统一的视角来处理轻量级模型的设计,创新地将CNN和注意力机制相结合。此外,EMO模型在各种基准测试中展示出优越的性能,特别是在ImageNet-1K、COCO2017和ADE20K等数据集上的表现。该模型不仅在效率和精度方面取得了平衡,而且在轻量级设计方面实现了突破。
EMO的基本原理可以分为以下几个要点:
1. 反向残差块(IRB)的应用:IRB作为轻量级CNN的基础架构,EMO将其扩展到基于注意力的模型。
2. 元移动块(MMB)的抽象化:EMO提出了一种新的轻量级设计方法,即单残差的元移动块(MMB),这是从IRB和Transformer的有效组件中抽象出的。
3. 现代反向残差移动块(iRMB)的构建:基于简单但有效的设计标准,EMO推导出了iRMB,并以此构建了类似于ResNet的高效模型(EMO)。
在下面这个图中,我们可以看到EMO模型的结构细节:
左侧是一个抽象统一的元移动块(Meta-Mobile Block),它融合了多头自注意力机制(Multi-Head Self-Attention)、前馈网络(Feed-Forward Network)和反向残差块(Inverted Residual Block)。这个复合模块通过不同的扩展比率和高效的操作符进行具体化。
右侧展示了一个类似于ResNet的EMO模型架构,它完全由推导出的iRMB组成。图中突出了EMO模型中微操作组合(如深度可分卷积、窗口Transformer等)和不同尺度的网络层次,这些都是用于分类(CLS)、检测(Det)和分割(Seg)任务的。这种设计强调了EMO模型在处理不同下游任务时的灵活性和效率。