DL之InceptionV4/ResNet:InceptionV4/Inception-ResNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

简介: DL之InceptionV4/ResNet:InceptionV4/Inception-ResNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

InceptionV4/Inception-ResNet算法的简介(论文介绍)


      InceptionV4和Inception-ResNet是谷歌研究人员,2016年,在Inception基础上进行的持续改进,又带来的两个新的版本。


Abstract

       Very deep convolutional networks have been central to  the largest advances in image recognition performance in  recent years. One example is the Inception architecture that  has been shown to achieve very good performance at relatively  low computational cost. Recently, the introduction  of residual connections in conjunction with a more traditional  architecture has yielded state-of-the-art performance  in the 2015 ILSVRC challenge; its performance was similar  to the latest generation Inception-v3 network. This raises  the question of whether there are any benefit in combining  the Inception architecture with residual connections. Here  we give clear empirical evidence that training with residual  connections accelerates the training of Inception networks  significantly. There is also some evidence of residual Inception  networks outperforming similarly expensive Inception  networks without residual connections by a thin margin. We  also present several new streamlined architectures for both  residual and non-residual Inception networks. These variations  improve the single-frame recognition performance on  the ILSVRC 2012 classification task significantly. We further  demonstrate how proper activation scaling stabilizes  the training of very wide residual Inception networks. With  an ensemble of three residual and one Inception-v4, we  achieve 3.08% top-5 error on the test set of the ImageNet  classification (CLS) challenge.

摘要

       非常深的卷积网络是近年来图像识别性能最大进步的核心。一个例子是Inception 架构,已经证明它在相对较低的计算成本下获得了非常好的性能。最近,在2015年的ILSVRC挑战中,引入residual 连接和更传统的架构带来了最先进的性能;其性能类似于最新一代的Inception-v3网络。这就提出了这样一个问题:在将Inception 架构与residual 连接结合起来时是否有任何好处。在这里,我们给出了清晰的经验证据,证明使用residual 连接的训练显著加速了初始网络的训练。还有一些证据表明,residual Inception 架构网络的表现优于同样昂贵的Inception 网络,而无需residual 连接。我们还为残差和非残差初始网络提供了几种新的简化架构。这些变化显著提高了ILSVRC 2012分类任务的单帧识别性能。我们进一步证明了适当的激活比例如何稳定非常广泛的residual Inception网络的训练。利用三个residual 和一个Inception-v4,的集合,我们在ImageNet分类(CLS)挑战的测试集上实现了3.08% top-5 错误。

Conclusions

      We have presented three new network architectures in detail:

• Inception-ResNet-v1: a hybrid Inception version that has a similar computational cost to Inception-v3 from [15].

• Inception-ResNet-v2: a costlier hybrid Inception version with significantly improved recognition performance.

• Inception-v4: a pure Inception variant without residual connections with roughly the same recognition performance as Inception-ResNet-v2.

      We studied how the introduction of residual connections leads to dramatically improved training speed for the Inception architecture. Also our latest models (with and without residual connections) outperform all our previous networks, just by virtue of the increased model size.

结论

      我们详细介绍了三种新的网络架构:

•Inception-ResNet-v1:一个混合的Inception版本,其计算成本与[15]版本的incep -v3相似。

•Inception-ResNet-v2:一个成本更高的混合Inception版本,显著提高了识别性能。

•Inception-v4:一个没有residual 连接的Inception,与Inception-ResNet-v2的识别性能大致相同。

      我们研究了如何引入residual 连接来显著提高Inception体系结构的训练速度。此外,我们最新的模型(包括和不包括residual 连接)的性能优于所有以前的网络,这仅仅是因为模型的大小有所增加。



1、实验结果


1、Single crop -single model experimental results

Reported on the non-blacklisted subset of the validation set of ILSVRC 2012

单crop -单模型试验结果:在ILSVRC 2012验证集的非黑名单子集上的报告


2、144 crops evaluations -single model experimental results

采用了144个crops比single效果更好。


Reported on the all 50000 images of the validation set of ILSVRC 2012

3、Ensemble results with 144 crops/dense evaluation.

集成学习效果更好!

For Inception-v4(+Residual), the ensemble consists of one pure Inception-v4 and three Inception-ResNet-v2 models and were evaluated both on the validation and on the test-set.

4、训练过程中的速度比较

其中红色的Inception-resnet-v2效果性能最好

(1)、Top-5 error evolution of all four models (single model, single crop)

模型尺寸较大时,性能改进。

尽管残差版本收敛得更快,但最终的准确性似乎主要取决于模型的大小。


(2)、Top-1 error evolution of all four models (single model, single crop)

This paints a similar picture as the top-5 evaluation.

其中红色的Inception-resnet-v2效果性能最好



论文

Christian Szegedy, Sergey Ioffe, Vincent Vanhoucke, Alex Alemi.

Inception-v4, Inception-ResNetand the Impact of Residual Connections on Learning, 2016

https://arxiv.org/abs/1602.07261



Inception-v4算法的架构详解


DL之InceptionV4/ResNet:InceptionV4/Inception-ResNet算法的架构详解之详细攻略



Inception-ResNet算法的架构详解


     Inception-ResNet网络: 改进的Inception模块和残差连接的结合。引入residual connection直连,把Inception和ResNet结合起来,让网络又宽又深。


DL之InceptionV4/ResNet:InceptionV4/Inception-ResNet算法的架构详解之详细攻略




InceptionV4/Inception-ResNet算法的案例应用


后期更新……




相关文章
|
6月前
|
存储 机器学习/深度学习 编解码
双选择性信道下正交啁啾分复用(OCDM)的低复杂度均衡算法研究——论文阅读
本文提出统一相位正交啁啾分复用(UP-OCDM)方案,利用循环矩阵特性设计两种低复杂度均衡算法:基于带状近似的LDL^H分解和基于BEM的迭代LSQR,将复杂度由$O(N^3)$降至$O(NQ^2)$或$O(iNM\log N)$,在双选择性信道下显著提升高频谱效率与抗多普勒性能。
384 0
双选择性信道下正交啁啾分复用(OCDM)的低复杂度均衡算法研究——论文阅读
|
7月前
|
传感器 资源调度 算法
DDMA-MIMO雷达多子带相干累积目标检测算法——论文阅读
本文提出一种多子带相干累积(MSCA)算法,通过引入空带和子带相干处理,解决DDMA-MIMO雷达的多普勒模糊与能量分散问题。该方法在低信噪比下显著提升检测性能,实测验证可有效恢复目标速度,适用于车载雷达高精度感知。
867 4
DDMA-MIMO雷达多子带相干累积目标检测算法——论文阅读
|
6月前
|
人工智能 JavaScript 前端开发
GenSX (不一样的AI应用框架)架构学习指南
GenSX 是一个基于 TypeScript 的函数式 AI 工作流框架,以“函数组合替代图编排”为核心理念。它通过纯函数组件、自动追踪与断点恢复等特性,让开发者用自然代码构建可追溯、易测试的 LLM 应用。支持多模型集成与插件化扩展,兼具灵活性与工程化优势。
518 6
|
7月前
|
人工智能 Cloud Native 中间件
划重点|云栖大会「AI 原生应用架构论坛」看点梳理
本场论坛将系统性阐述 AI 原生应用架构的新范式、演进趋势与技术突破,并分享来自真实生产环境下的一线实践经验与思考。
|
7月前
|
机器学习/深度学习 人工智能 vr&ar
H4H:面向AR/VR应用的NPU-CIM异构系统混合卷积-Transformer架构搜索——论文阅读
H4H是一种面向AR/VR应用的混合卷积-Transformer架构,基于NPU-CIM异构系统,通过神经架构搜索实现高效模型设计。该架构结合卷积神经网络(CNN)的局部特征提取与视觉Transformer(ViT)的全局信息处理能力,提升模型性能与效率。通过两阶段增量训练策略,缓解混合模型训练中的梯度冲突问题,并利用异构计算资源优化推理延迟与能耗。实验表明,H4H在相同准确率下显著降低延迟和功耗,为AR/VR设备上的边缘AI推理提供了高效解决方案。
1297 0
|
7月前
|
机器学习/深度学习 算法 算法框架/工具
256KB内存约束下的设备端训练:算法与系统协同设计——论文解读
MIT与MIT-IBM Watson AI Lab团队提出一种创新方法,在仅256KB SRAM和1MB Flash的微控制器上实现深度神经网络训练。该研究通过量化感知缩放(QAS)、稀疏层/张量更新及算子重排序等技术,将内存占用降至141KB,较传统框架减少2300倍,首次突破设备端训练的内存瓶颈,推动边缘智能发展。
484 6
|
6月前
|
机器学习/深度学习 自然语言处理 算法
48_动态架构模型:NAS在LLM中的应用
大型语言模型(LLM)在自然语言处理领域的突破性进展,很大程度上归功于其庞大的参数量和复杂的网络架构。然而,随着模型规模的不断增长,计算资源消耗、推理延迟和部署成本等问题日益凸显。如何在保持模型性能的同时,优化模型架构以提高效率,成为2025年大模型研究的核心方向之一。神经架构搜索(Neural Architecture Search, NAS)作为一种自动化的网络设计方法,正在为这一挑战提供创新性解决方案。本文将深入探讨NAS技术如何应用于LLM的架构优化,特别是在层数与维度调整方面的最新进展,并通过代码实现展示简单的NAS实验。
326 0
|
8月前
|
人工智能 算法 安全
【博士论文】基于局部中心量度的聚类算法研究(Matlab代码实现)
【博士论文】基于局部中心量度的聚类算法研究(Matlab代码实现)
244 0
|
机器学习/深度学习 PyTorch 测试技术
|
机器学习/深度学习 算法 PyTorch
昇腾910-PyTorch 实现 ResNet50图像分类
本实验基于PyTorch,在昇腾平台上使用ResNet50对CIFAR10数据集进行图像分类训练。内容涵盖ResNet50的网络架构、残差模块分析及训练代码详解。通过端到端的实战讲解,帮助读者理解如何在深度学习中应用ResNet50模型,并实现高效的图像分类任务。实验包括数据预处理、模型搭建、训练与测试等环节,旨在提升模型的准确率和训练效率。
779 54

热门文章

最新文章