鉴定AlexNet、ZFNet、VGG、GoogLeNet等热门卷积神经网络

简介: 本文旨在解析前几年部分经典神经网络的实现结构,需要一些优化算法、全神经网络等储备知识,有不明白的可以向我提问。

经典网络解析

本文旨在解析前几年部分经典神经网络的实现结构,需要一些优化算法、全神经网络等储备知识,有不明白的可以向我提问。

以下介绍的神经网络大体相似,区别只在神经网络的步步优化方面,比如从大卷积核到多次小卷积核卷积、复杂特征卷积核提取增多等等。

AlexNet神经网络

AlexNet神经网络是神经网络逐渐从人们视野中淡化再到复出的一个转折点,它是2012年ImageNet视觉识别挑战赛的冠军模型

主体贡献

  • 提出了一种卷积层加全连接层的卷积神经网络结构(让神经网络从人们视野中复出)
  • 首次使用ReLU函数做为神经网络的激活函数(不会因为输入值的大小而输出接近0或1而断掉特征数值的传递)
  • 首次提出Dropout正则化来控制过拟合(解决了神经网络参数多而容易过拟合的缺点)
  • 使用加入动量的小批量梯度下降算法加速了训练过程的收敛(降低计算量,在优化参数上更快找到最低点)
  • 使用数据增强策略极大地抑制了训练过程的过拟合(数据增强比如说图像反转、放大缩小等,增加样本量)
  • 利用了GPU的并行计算能力,加速了网络的训练与推断(利用显卡优秀的矩阵计算能力进行实现模型)

神经网络模型

CONV1:96个11 * 11卷积核,步长为4,无零填充

MAX POOL1:窗口大小3 * 3,步长为2 降低图像尺寸,重叠有助于对抗过拟合

NORM1:现在不怎么用了,不做解释

CONV2:256个5 * 5卷积核,步长为1,使用零填充p=2

CONV3、CONV4:384个卷积核,步长为1,使用零填充p=1

CONV5:256个3 * 3卷积核,步长为1,使用零填充

卷积神经网络输出为6 6 256,以此输入到全连接神经网络中

  • 用于提取图像特征的卷积层以及用于分类的全连接层是同时学习的

重要技巧:

  • Dropout策略防止过拟合
  • 使用加入动量的随机梯度下降算法,加速收敛
  • 验证集损失不下降时,手动降低10倍的学习率
  • 采用样本增强策略增加训练样本的数量,防止过拟合
  • 集成多个模型,进一步提高精度

理解卷积层

卷积层就像各种偏导核一样,从多种偏导核中提取偏导核对应的特征,不同的是卷积层对应的是高级复杂的特征,甚至不能称之为特征而是结构。

ZFNet神经网络

ZFNet神经网络与AlexNet神经网络结构基本一致

主要改进:

  • 将第一个卷积层的卷积核大小改为了7 * 7
  • 将第二、第三个卷积层的卷积步长都设置为2
  • 增加了第三、第四个卷积层的卷积核个数

改进理解:

  • 减少第一层的卷积核大小,可以提取到更加细致的特征
  • 步长设置为2,多次分批缓慢降低图像大小,不会损失过多信息
  • 增加第三层第四层卷积核,后层的卷积核以及存在语义信息,个数增多能够学习更多复杂语义特征

VGG神经网络

主要以VGG16为例讲解

模型特征:

主要改进:

  • 使用尺度更小的3 * 3卷积核串联来获取更大的感受野
  • 放弃使用11 11和5 5这样的大尺寸卷积核
  • 深度更深、非线性更强,网络参数也越少
  • 去掉了AlexNet中的局部响应归一化层

改进优势:

  • 以多个小卷积核多次卷积代替大卷积核一次卷积,二者的感受野相同但是非线性更强、深度更深且计算量少
  • 池化操作后增加卷积核一倍,池化降低图像大小而卷积核个数有助于学习到更多特征,一增一减平衡识别精度、计算开销提升网络性能

GoogLeNet神经网络

创新改进:

  • 提出了一种Inception结构,它能保留输入信号中的更多特征信息
  • 去掉了AlexNet的前两个全连接层,并采用了平均池化,这一设计使得 GoogLeNet只有500万参数,比AlexNet少了12倍
  • 在网络的中部引入了辅助分类器,克服了训练过程中的梯度消失问题

改进优势:

  • 改变串行结构,串行因为结构后一卷积层只能接受前一卷积层的输出,无可避免会丢失信息,而并行结构分别以1 1卷积核、3 3卷积核、5 * 5卷积核和增强池化层为输入,同时兼顾各式卷积的特征结果提取特征。
  • 标记的红框1 1卷积核作用只为减少运算量,以多个1 1卷积核代替直接使用图像,以卷积核个数维度代替图像大小值,可大量减少计算量,层数更深、 参数更少、 计算效率更高、非线性表达能力也更强
  • 辅助分类器作用:避免激活函数梯度消失问题,使得梯度回传更好训练模型
目录
相关文章
|
22天前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
229 55
|
1月前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
166 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
1月前
|
机器学习/深度学习 资源调度 算法
图卷积网络入门:数学基础与架构设计
本文系统地阐述了图卷积网络的架构原理。通过简化数学表述并聚焦于矩阵运算的核心概念,详细解析了GCN的工作机制。
93 3
图卷积网络入门:数学基础与架构设计
|
26天前
|
机器学习/深度学习 算法 信息无障碍
基于GoogleNet深度学习网络的手语识别算法matlab仿真
本项目展示了基于GoogleNet的深度学习手语识别算法,使用Matlab2022a实现。通过卷积神经网络(CNN)识别手语手势,如"How are you"、"I am fine"、"I love you"等。核心在于Inception模块,通过多尺度处理和1x1卷积减少计算量,提高效率。项目附带完整代码及操作视频。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解深度学习中的卷积神经网络(CNN)##
在当今的人工智能领域,深度学习已成为推动技术革新的核心力量之一。其中,卷积神经网络(CNN)作为深度学习的一个重要分支,因其在图像和视频处理方面的卓越性能而备受关注。本文旨在深入探讨CNN的基本原理、结构及其在实际应用中的表现,为读者提供一个全面了解CNN的窗口。 ##
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN): 从理论到实践
本文将深入浅出地介绍卷积神经网络(CNN)的工作原理,并带领读者通过一个简单的图像分类项目,实现从理论到代码的转变。我们将探索CNN如何识别和处理图像数据,并通过实例展示如何训练一个有效的CNN模型。无论你是深度学习领域的新手还是希望扩展你的技术栈,这篇文章都将为你提供宝贵的知识和技能。
328 7
|
2月前
|
机器学习/深度学习 自然语言处理 算法
深入理解深度学习中的卷积神经网络(CNN)
深入理解深度学习中的卷积神经网络(CNN)
64 1
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
探索深度学习中的卷积神经网络(CNN)及其在现代应用中的革新
探索深度学习中的卷积神经网络(CNN)及其在现代应用中的革新
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN)及其在图像识别中的应用
本文旨在通过深入浅出的方式,为读者揭示卷积神经网络(CNN)的神秘面纱,并展示其在图像识别领域的实际应用。我们将从CNN的基本概念出发,逐步深入到网络结构、工作原理以及训练过程,最后通过一个实际的代码示例,带领读者体验CNN的强大功能。无论你是深度学习的初学者,还是希望进一步了解CNN的专业人士,这篇文章都将为你提供有价值的信息和启发。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解深度学习中的卷积神经网络(CNN)
深入理解深度学习中的卷积神经网络(CNN)

热门文章

最新文章