DarkNet-19网络结构介绍

简介: DarkNet-19网络结构介绍

前言


这里将着重介绍网络的结构构成,不涉及原理讲解。




一.与VGG的比较


DarkNet-19卷积神经网络与VGG的不同:


1.激活函数由ReLu转变为Leaky ReLu


2.部分3x3卷积核转变为1x1卷积核,使用到了更小的卷积核


3.新增批量归一化(batchnorm层)


4.不再单一的最大化池化,使用全局平均池化和最大池化组合使用\




二.DarkNet-19组织结构介绍


输入数据(图像:256*256*3)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
最大池化(pool)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
--卷积层(1*1)--
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
批量归一化(batchnorm )
激活函数(Leaky ReLu)
卷积层(3*3)
全局平均池化(avg)
saftmax层
输出数据(output)


通过上述的结构逻辑可以看出基本的卷积构成仍然为:卷积层+激活函数+池化层组成,经过多年的迭代,仍是处于这“三板斧”的构造



三. DarkNet-19内部参数详细表



image.png

image.png

image.png


相关文章
|
3月前
|
机器学习/深度学习 资源调度 自然语言处理
不同类型的循环神经网络结构
【8月更文挑战第16天】
50 0
|
1月前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
|
1月前
|
机器学习/深度学习 算法
神经网络的结构与功能
神经网络是一种广泛应用于机器学习和深度学习的模型,旨在模拟人类大脑的信息处理方式。它们由多层不同类型的节点或“神经元”组成,每层都有特定的功能和责任。
40 0
|
2月前
|
编解码 人工智能 文件存储
卷积神经网络架构:EfficientNet结构的特点
EfficientNet是一种高效的卷积神经网络架构,它通过系统化的方法来提升模型的性能和效率。
60 1
|
3月前
|
机器学习/深度学习 算法 文件存储
【博士每天一篇文献-算法】 PNN网络启发的神经网络结构搜索算法Progressive neural architecture search
本文提出了一种名为渐进式神经架构搜索(Progressive Neural Architecture Search, PNAS)的方法,它使用顺序模型优化策略和替代模型来逐步搜索并优化卷积神经网络结构,从而提高了搜索效率并减少了训练成本。
57 9
|
4月前
|
机器学习/深度学习 自然语言处理
像生物网络一样生长,具备结构可塑性的自组织神经网络来了
【7月更文挑战第24天】Sebastian Risi团队发布的arXiv论文探讨了一种模仿生物神经网络生长与适应特性的新型神经网络。LNDP利用结构可塑性和经验依赖学习,能根据活动与奖励动态调整连接,展现自我组织能力。通过基于图变换器的机制,LNDP支持突触动态增删,预先通过可学习随机过程驱动网络发育。实验在Cartpole等任务中验证了LNDP的有效性,尤其在需快速适应的场景下。然而,LNDP在复杂环境下的可扩展性及训练优化仍面临挑战,且其在大规模网络和图像分类等领域的应用尚待探索
91 20
|
3月前
|
机器学习/深度学习 人工智能 PyTorch
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
79 1
|
3月前
|
机器学习/深度学习 Linux TensorFlow
【Tensorflow+keras】用代码给神经网络结构绘图
文章提供了使用TensorFlow和Keras来绘制神经网络结构图的方法,并给出了具体的代码示例。
59 0
|
4月前
|
机器学习/深度学习 自然语言处理 算法
深度学习的关键概念和网络结构
度学习是人工智能和机器学习的一个重要分支,它通过模拟人脑神经元的工作方式来处理复杂的模式识别和数据分析任务。深度学习已经在许多领域取得了显著的成果,如图像识别、语音识别和自然语言处理。
69 1
|
3月前
|
机器学习/深度学习 API 数据处理
《零基础实践深度学习》2.4手写数字识别之网络结构
这篇文章介绍了手写数字识别任务中网络结构设计的优化,比较了多层全连接神经网络和卷积神经网络两种模型结构,并展示了使用PaddlePaddle框架实现这些网络结构,训练并观察它们在MNIST数据集上的表现。
下一篇
无影云桌面