DL之Xception:Xception算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

简介: DL之Xception:Xception算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

Xception算法的简介(论文介绍)


     Xception即Extreme version of Inception。Xception是google继Inception后提出的对InceptionV3的另一种改进,主要是采用深度可分离卷积(depthwiseseparable convolution)来替换原来InceptionV3中的卷积操作。在基本不增加网络复杂度的前提下提高了模型的效果。但网络复杂度没有大幅降低。原因是作者加宽了网络,使得参数数量和Inception v3差不多。因此Xception主要目的不在于模型压缩,而是提高性能。



Abstract  

    We present an interpretation of Inception modules in convolutional  neural networks as being an intermediate step  in-between regular convolution and the depthwise separable  convolution operation (a depthwise convolution followed by  a pointwise convolution). In this light, a depthwise separable  convolution can be understood as an Inception module with  a maximally large number of towers. This observation leads  us to propose a novel deep convolutional neural network  architecture inspired by Inception, where Inception modules  have been replaced with depthwise separable convolutions.  We show that this architecture, dubbed Xception, slightly  outperforms Inception V3 on the ImageNet dataset (which  Inception V3 was designed for), and significantly outperforms  Inception V3 on a larger image classification dataset  comprising 350 million images and 17,000 classes. Since  the Xception architecture has the same number of parameters  as Inception V3, the performance gains are not due  to increased capacity but rather to a more efficient use of  model parameters.

摘要

    我们将卷积神经网络中的Inception 模块解释为正规化卷积和深度可分离卷积操作(深度卷积之后是点卷积)之间的中间步骤。从这个意义上讲,深度可分离卷积可以理解为一个具有最大数量towers的Inception 模块。基于此,我们提出了一种新颖的深度卷积神经网络结构,该结构受到Inception的启发,Inception模块被深度可分卷积所取代。我们展示了这个被称为Xception的架构,它在ImageNet数据集上稍微优于Inception V3 (Inception V3是为ImageNet数据集设计的),并且在包含3.5亿张图像和17,000个类的更大的图像分类数据集上显著优于Inception V3。由于Xception体系结构具有与Inception V3相同的参数数量,所以性能的提高不是由于容量的增加,而是由于更有效地使用了模型参数。


Conclusions  

    We showed how convolutions and depthwise separable  convolutions lie at both extremes of a discrete spectrum,  with Inception modules being an intermediate point in between.  This observation has led to us to propose replacing  Inception modules with depthwise separable convolutions in  neural computer vision architectures. We presented a novel  architecture based on this idea, named Xception, which has  a similar parameter count as Inception V3. Compared to  Inception V3, Xception shows small gains in classification  performance on the ImageNet dataset and large gains on the  JFT dataset. We expect depthwise separable convolutions  to become a cornerstone of convolutional neural network  architecture design in the future, since they offer similar  properties as Inception modules, yet are as easy to use as  regular convolution layers.

结论

    我们展示了卷积和深度可分离卷积如何位于离散谱的两个极端,Inception 模块是两者之间的一个中间点。这一发现促使我们提出在神经计算机视觉结构中,用深度可分卷积代替Inception 模块。我们提出了一个基于这种思想的新架构,名为Xception,它的参数计数与Inception V3类似。与Inception V3相比,Xception在ImageNet数据集的分类性能上有小的提升,而在JFT数据集上则有大的提升。我们期望深度可分卷积在未来成为卷积神经网络架构设计的基石,因为它们提供了与Inception 模块类似的特性,但与常规卷积层一样易于使用。



1、Xception架构


Xception架构,是具有残差连接的深度可分离卷积层的线性堆叠。

SeparableConv,是修改后的深度可分离卷积。


image.png



1、论文使用的数据集


Dataset之JFT:JFT/FastEval14k数据集的简介、下载、案例应用之详细攻略


      为了评估在JFT上训练的模型的性能,Xception算法的作者使用辅助数据集FastEval14k。FastEval14k是一个包含14,000个图像的数据集,具有约6,000个类别的密集标注(平均每个图像36.5个标签)。在这个数据集上,使用平均精度对前100个预测(MAP @ 100)评估性能,并且将每个类别对MAP @ 100的贡献加权,并评估该类别在社交媒体图像中的常见性(因此也很重要)。

      此评估过程旨在捕获社交媒体上频繁出现的标签的性能,这对Google的生产模型至关重要。




论文

François Chollet.

Xception: Deep Learning with DepthwiseSeparable Convolutions, CVPR 2017.

https://arxiv.org/abs/1610.02357




Xception算法的架构详解


DL之Xception:Xception算法的架构详解








Xception算法的案例应用


后期更新……


1、DeepLabv3+采用修改的Xception架构


DL之DeepLabv3:DeepLab v3和DeepLabv3+算法的架构详解




相关文章
|
7月前
|
机器学习/深度学习 人工智能 缓存
面向边缘通用智能的多大语言模型系统:架构、信任与编排——论文阅读
本文提出面向边缘通用智能的多大语言模型(Multi-LLM)系统,通过协同架构、信任机制与动态编排,突破传统边缘AI的局限。融合合作、竞争与集成三种范式,结合模型压缩、分布式推理与上下文优化技术,实现高效、可靠、低延迟的边缘智能,推动复杂场景下的泛化与自主决策能力。
626 3
面向边缘通用智能的多大语言模型系统:架构、信任与编排——论文阅读
|
8月前
|
数据采集 机器学习/深度学习 搜索推荐
MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构
MIT与丰田研究院研究发现,扩散模型的“局部性”并非源于网络架构的精巧设计,而是自然图像统计规律的产物。通过线性模型仅学习像素相关性,即可复现U-Net般的局部敏感模式,揭示数据本身蕴含生成“魔法”。
333 3
MIT新论文:数据即上限,扩散模型的关键能力来自图像统计规律,而非复杂架构
|
8月前
|
机器学习/深度学习 人工智能 资源调度
MicroNAS:面向MCU的零样本神经架构搜索——论文阅读
MicroNAS是一种专为微控制器单元(MCU)设计的零样本神经架构搜索(NAS)框架,无需训练即可通过理论驱动的性能指标评估网络架构。相比传统NAS方法,其搜索效率提升高达1104倍,同时兼顾精度与硬件效率,适用于边缘计算场景。该框架结合神经切线核(NTK)条件数、线性区域计数及硬件感知延迟模型,实现快速、高效的架构搜索,为资源受限设备上的AI部署提供了新思路。
461 2
MicroNAS:面向MCU的零样本神经架构搜索——论文阅读
|
7月前
|
人工智能 JavaScript 前端开发
GenSX (不一样的AI应用框架)架构学习指南
GenSX 是一个基于 TypeScript 的函数式 AI 工作流框架,以“函数组合替代图编排”为核心理念。它通过纯函数组件、自动追踪与断点恢复等特性,让开发者用自然代码构建可追溯、易测试的 LLM 应用。支持多模型集成与插件化扩展,兼具灵活性与工程化优势。
540 6
|
8月前
|
人工智能 Cloud Native 中间件
划重点|云栖大会「AI 原生应用架构论坛」看点梳理
本场论坛将系统性阐述 AI 原生应用架构的新范式、演进趋势与技术突破,并分享来自真实生产环境下的一线实践经验与思考。
|
8月前
|
机器学习/深度学习 人工智能 vr&ar
H4H:面向AR/VR应用的NPU-CIM异构系统混合卷积-Transformer架构搜索——论文阅读
H4H是一种面向AR/VR应用的混合卷积-Transformer架构,基于NPU-CIM异构系统,通过神经架构搜索实现高效模型设计。该架构结合卷积神经网络(CNN)的局部特征提取与视觉Transformer(ViT)的全局信息处理能力,提升模型性能与效率。通过两阶段增量训练策略,缓解混合模型训练中的梯度冲突问题,并利用异构计算资源优化推理延迟与能耗。实验表明,H4H在相同准确率下显著降低延迟和功耗,为AR/VR设备上的边缘AI推理提供了高效解决方案。
1361 0
|
7月前
|
机器学习/深度学习 自然语言处理 算法
48_动态架构模型:NAS在LLM中的应用
大型语言模型(LLM)在自然语言处理领域的突破性进展,很大程度上归功于其庞大的参数量和复杂的网络架构。然而,随着模型规模的不断增长,计算资源消耗、推理延迟和部署成本等问题日益凸显。如何在保持模型性能的同时,优化模型架构以提高效率,成为2025年大模型研究的核心方向之一。神经架构搜索(Neural Architecture Search, NAS)作为一种自动化的网络设计方法,正在为这一挑战提供创新性解决方案。本文将深入探讨NAS技术如何应用于LLM的架构优化,特别是在层数与维度调整方面的最新进展,并通过代码实现展示简单的NAS实验。
344 0
|
7月前
|
机器学习/深度学习 算法 机器人
【水下图像增强融合算法】基于融合的水下图像与视频增强研究(Matlab代码实现)
【水下图像增强融合算法】基于融合的水下图像与视频增强研究(Matlab代码实现)
641 0
|
7月前
|
数据采集 分布式计算 并行计算
mRMR算法实现特征选择-MATLAB
mRMR算法实现特征选择-MATLAB
411 2
|
8月前
|
传感器 机器学习/深度学习 编解码
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
345 3

热门文章

最新文章