前言
这里将着重介绍网络的结构构成,不涉及原理讲解。
一.与VGG的比较
DarkNet-19卷积神经网络与VGG的不同:
1.激活函数由ReLu转变为Leaky ReLu
2.部分3x3卷积核转变为1x1卷积核,使用到了更小的卷积核
3.新增批量归一化(batchnorm层)
4.不再单一的最大化池化,使用全局平均池化和最大池化组合使用\
二.DarkNet-19组织结构介绍
输入数据(图像:256*256*3) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 最大池化(pool) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 最大池化(pool) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 最大池化(pool) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 最大池化(pool) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) --卷积层(1*1)-- 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) --卷积层(1*1)-- 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 最大池化(pool) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) --卷积层(1*1)-- 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) --卷积层(1*1)-- 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 批量归一化(batchnorm ) 激活函数(Leaky ReLu) 卷积层(3*3) 全局平均池化(avg) saftmax层 输出数据(output)
通过上述的结构逻辑可以看出基本的卷积构成仍然为:卷积层+激活函数+池化层组成,经过多年的迭代,仍是处于这“三板斧”的构造
三. DarkNet-19内部参数详细表