DL之DenseNet:DenseNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

简介: DL之DenseNet:DenseNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

DenseNet算法的简介(论文介绍)


       DenseNet算法即Densely Connected Convolutional Networks,在某种度上也借鉴了ResNet算法,相关论文获得2017 (CVPR Best Paper Award)。



Abstract  

     Recent work has shown that convolutional networks can  be substantially deeper, more accurate, and efficient to train  if they contain shorter connections between layers close to  the input and those close to the output. In this paper, we  embrace this observation and introduce the Dense Convolutional  Network (DenseNet), which connects each layer  to every other layer in a feed-forward fashion. Whereas  traditional convolutional networks with L layers have L  connections—one between each layer and its subsequent  layer—our network has L(L+1)  2  direct connections. For  each layer, the feature-maps of all preceding layers are  used as inputs, and its own feature-maps are used as inputs  into all subsequent layers. DenseNets have several compelling  advantages: they alleviate the vanishing-gradient  problem, strengthen feature propagation, encourage feature  reuse, and substantially reduce the number of parameters.  We evaluate our proposed architecture on four highly  competitive object recognition benchmark tasks (CIFAR-10,  CIFAR-100, SVHN, and ImageNet). DenseNets obtain significant  improvements over the state-of-the-art on most of  them, whilst requiring less computation to achieve high performance.  Code and pre-trained models are available at  https://github.com/liuzhuang13/DenseNet.


摘要

     最近的研究表明,如果卷积网络在靠近输入和接近输出的层之间包含较短的连接,那么卷积网络可以更深入、更准确和有效地训练。在本文中,我们采用这种观测方法,并引入了紧密卷积网络(densenet),它以一种前馈的方式将每一层连接到另一层。传统的具有L层的卷积网络在每一层和其后续层之间都有L连接,而我们的网络有L(L+1)2个直接连接。对于每个图层,前面所有图层的 feature-maps都用作输入,其自身的 feature-maps也用作后面所有图层的输入。 DenseNets有几个引人注目的优点:它们可以缓解消失梯度问题,加强特征传播,鼓励特征重用,并大幅减少参数数量。我们在四个高度竞争的对象识别基准任务 (CIFAR-10,  CIFAR-100, SVHN, and ImageNet)上评估我们提出的体系结构。DenseNets 在大多数方面都比最先进的技术有了显著的改进,同时需要较少的计算来实现高性能。可在https://github.com/liuzhuang13/DenseNet上获取代码和预训练模型。


Conclusion  

     We proposed a new convolutional network architecture,  which we refer to as Dense Convolutional Network  (DenseNet). It introduces direct connections between any  two layers with the same feature-map size. We showed that  DenseNets scale naturally to hundreds of layers, while exhibiting  no optimization difficulties. In our experiments,DenseNets tend to yield consistent improvement in accuracy  with growing number of parameters, without any signs  of performance degradation or overfitting. Under multiple  settings, it achieved state-of-the-art results across several  highly competitive datasets. Moreover, DenseNets  require substantially fewer parameters and less computation  to achieve state-of-the-art performances. Because we  adopted hyperparameter settings optimized for residual networks  in our study, we believe that further gains in accuracy  of DenseNets may be obtained by more detailed tuning of  hyperparameters and learning rate schedules.

      Whilst following a simple connectivity rule, DenseNets  naturally integrate the properties of identity mappings, deep  supervision, and diversified depth. They allow feature reuse  throughout the networks and can consequently learn more  compact and, according to our experiments, more accurate  models. Because of their compact internal representations  and reduced feature redundancy, DenseNets may be good  feature extractors for various computer vision tasks that  build on convolutional features, e.g., [4, 5]. We plan to  study such feature transfer with DenseNets in future work.

结论

      我们提出了一种新的卷积网络结构,我们称之为密集卷积网络(DenseNet)。它引入了任何两层之间具有相同feature-map大小的直接连接。我们发现 DenseNets可以自然地扩展到数百层,但不存在优化困难。在我们的实验中,随着参数数量的增加, DenseNets的精确度会持续提高,而不会出现性能下降或过度拟合的迹象。在多个设置下,它在多个高度竞争的数据集中实现了最先进的结果。此外, DenseNets需要更少的参数和更少的计算来实现最先进的性能。因为我们在研究中采用了针对剩余网络进行优化的超参数设置,我们相信通过更详细地调整超参数和学习速率时间表,可以进一步提高 DenseNets的精度。

      在遵循简单连接规则的同时, DenseNets自然地整合了身份映射、深度监督和多样化深度的属性。它们允许在整个网络中重复使用功能,因此可以学习更紧凑的,根据我们的实验,更精确的模型。由于其紧凑的内部表示和减少的特征冗余,DenseNets可能是各种计算机视觉任务的很好的特征提取器,这些任务基于卷积特征,例如[4,5]。我们计划在未来的工作中与DenseNets一起研究这种特征转移。


论文

Gao Huang, Zhuang Liu, Laurens van der Maaten, Kilian Weinberger.

Densely connected convolutional networks. CVPR. 2017 (CVPR Best Paper Award)

https://arxiv.org/pdf/1608.06993.pdf



GitHub

https://github.com/liuzhuang13/DenseNet

      DenseNet is a network architecture where each layer is directly connected to every other layer in a feed-forward fashion (within each dense block). For each layer, the feature maps of all preceding layers are treated as separate inputs whereas its own feature maps are passed on as inputs to all subsequent layers. This connectivity pattern yields state-of-the-art accuracies on CIFAR10/100 (with or without data augmentation) and SVHN. On the large scale ILSVRC 2012 (ImageNet) dataset, DenseNet achieves a similar accuracy as ResNet, but using less than half the amount of parameters and roughly half the number of FLOPs.

      Densenet是一种网络架构,其中每一层以前馈方式(在每个密集块内)直接连接到其他每一层。对于每个图层,前面所有图层的要素图都被视为单独的输入,而它自己的要素图则作为输入传递给后面所有图层。这种连接模式在CIFAR10/100(有或无数据扩充)和SVHN上产生最先进的精度。在大规模的ILSVRC 2012(ImageNet)数据集上,DenseNet 实现了与ResNet相似的精度,但使用的参数数量不到一半,而使用的触发器数量大约为一半。


相关文章
|
2月前
|
人工智能 JavaScript 前端开发
GenSX (不一样的AI应用框架)架构学习指南
GenSX 是一个基于 TypeScript 的函数式 AI 工作流框架,以“函数组合替代图编排”为核心理念。它通过纯函数组件、自动追踪与断点恢复等特性,让开发者用自然代码构建可追溯、易测试的 LLM 应用。支持多模型集成与插件化扩展,兼具灵活性与工程化优势。
289 6
|
3月前
|
人工智能 Cloud Native 中间件
划重点|云栖大会「AI 原生应用架构论坛」看点梳理
本场论坛将系统性阐述 AI 原生应用架构的新范式、演进趋势与技术突破,并分享来自真实生产环境下的一线实践经验与思考。
|
3月前
|
机器学习/深度学习 人工智能 vr&ar
H4H:面向AR/VR应用的NPU-CIM异构系统混合卷积-Transformer架构搜索——论文阅读
H4H是一种面向AR/VR应用的混合卷积-Transformer架构,基于NPU-CIM异构系统,通过神经架构搜索实现高效模型设计。该架构结合卷积神经网络(CNN)的局部特征提取与视觉Transformer(ViT)的全局信息处理能力,提升模型性能与效率。通过两阶段增量训练策略,缓解混合模型训练中的梯度冲突问题,并利用异构计算资源优化推理延迟与能耗。实验表明,H4H在相同准确率下显著降低延迟和功耗,为AR/VR设备上的边缘AI推理提供了高效解决方案。
499 0
|
2月前
|
机器学习/深度学习 自然语言处理 算法
48_动态架构模型:NAS在LLM中的应用
大型语言模型(LLM)在自然语言处理领域的突破性进展,很大程度上归功于其庞大的参数量和复杂的网络架构。然而,随着模型规模的不断增长,计算资源消耗、推理延迟和部署成本等问题日益凸显。如何在保持模型性能的同时,优化模型架构以提高效率,成为2025年大模型研究的核心方向之一。神经架构搜索(Neural Architecture Search, NAS)作为一种自动化的网络设计方法,正在为这一挑战提供创新性解决方案。本文将深入探讨NAS技术如何应用于LLM的架构优化,特别是在层数与维度调整方面的最新进展,并通过代码实现展示简单的NAS实验。
|
2月前
|
Cloud Native Serverless API
微服务架构实战指南:从单体应用到云原生的蜕变之路
🌟蒋星熠Jaxonic,代码为舟的星际旅人。深耕微服务架构,擅以DDD拆分服务、构建高可用通信与治理体系。分享从单体到云原生的实战经验,探索技术演进的无限可能。
微服务架构实战指南:从单体应用到云原生的蜕变之路
|
弹性计算 API 持续交付
后端服务架构的微服务化转型
本文旨在探讨后端服务从单体架构向微服务架构转型的过程,分析微服务架构的优势和面临的挑战。文章首先介绍单体架构的局限性,然后详细阐述微服务架构的核心概念及其在现代软件开发中的应用。通过对比两种架构,指出微服务化转型的必要性和实施策略。最后,讨论了微服务架构实施过程中可能遇到的问题及解决方案。
|
5月前
|
缓存 Cloud Native Java
Java 面试微服务架构与云原生技术实操内容及核心考点梳理 Java 面试
本内容涵盖Java面试核心技术实操,包括微服务架构(Spring Cloud Alibaba)、响应式编程(WebFlux)、容器化(Docker+K8s)、函数式编程、多级缓存、分库分表、链路追踪(Skywalking)等大厂高频考点,助你系统提升面试能力。
305 0
|
Cloud Native Devops 云计算
云计算的未来:云原生架构与微服务的革命####
【10月更文挑战第21天】 随着企业数字化转型的加速,云原生技术正迅速成为IT行业的新宠。本文深入探讨了云原生架构的核心理念、关键技术如容器化和微服务的优势,以及如何通过这些技术实现高效、灵活且可扩展的现代应用开发。我们将揭示云原生如何重塑软件开发流程,提升业务敏捷性,并探索其对企业IT架构的深远影响。 ####
361 3
|
Java 开发者 微服务
从单体到微服务:如何借助 Spring Cloud 实现架构转型
**Spring Cloud** 是一套基于 Spring 框架的**微服务架构解决方案**,它提供了一系列的工具和组件,帮助开发者快速构建分布式系统,尤其是微服务架构。
1125 69
从单体到微服务:如何借助 Spring Cloud 实现架构转型