VGG简要说明
在2014年由牛津大学VGG提出了VGG系列网络并斩获了2014年的ImageNet竞赛定位和识别任务的第一名和第二名。
这里的VGG16是指卷积层+全连接层共计16层,不包含最大池化层。所有层数是共计41层(卷积激活函数池化全连接丢弃输入输出分类) 大家可以对比这下面的这两张图看VGG16网络结构
图1
图2
一.卷积层
在VGG16中的可以通过图一,容易观察到卷积层的卷积核大小为:3x3,步幅为:[1 1],填充为[1 1 1 1]。
可结合leNet-5的5x5卷积核和AlexNet的11x11的卷积核对比出VGG16的3x3的卷积核。
不难发现母体框架还是基于AlexNet更改得到的,这里使用3x3的卷积核相对于,母版具备更多的非线性能够更好的适应非线性数据的判别;同时相比较母版的计算参数更少。
二 全连接层
在softmax前有两个全连接层(fc),他们分别在经过了全连接层后进行激活函数和DROP,这样避免了只经过一个全连接层后计算量过大,造成过拟合现象。
三.整体结构
3.1 图像输入
3.2 卷积层(conv)
3.3 激活函数(Relu)
3.4 卷积层(conv)
3.5 激活函数(Relu)
3.6 最大池化层(maxpool)
3.7 卷积层(conv)
3.8 激活函数(Relu)
3.9 卷积层(conv)
3.10 激活函数(Relu)
3.11 最大池化层(maxpool)
3.12 卷积层(conv)
3.13 激活函数(Relu)
3.14 卷积层(conv)
3.15 激活函数(Relu)
3.16 卷积层(conv)
3.17 激活函数(Relu)
3.18 最大池化层(maxpool)
3.19 卷积层(conv)
3.20 激活函数(Relu)
3.21 卷积层(conv)
3.22 激活函数(Relu)
3.23 卷积层(conv)
3.24 激活函数(Relu)
3.25 最大池化层(maxpool)
3.26 卷积层(conv)
3.27 激活函数(Relu)
3.28 卷积层(conv)
3.29 激活函数(Relu)
3.30 卷积层(conv)
3.31 激活函数(Relu)
3.32 最大池化层(maxpool)
3.33 全连接层(fc)
3.34 激活函数(Relu)
3.35 Drop层(50%)
3.36 全连接层(fc)
3.37 激活函数(Relu)
3.38 Drop层(50%)
3.39 全连接层(fc)
3.40 softmax层
3.41 输出层