一文读懂物体分类AI算法:LeNet-5 AlexNet VGG Inception ResNet MobileNet

简介: ## 1 引言 当前深度学习十分火热,深度学习网络模型对于降低错误率的重要作用不言而喻。深度学习应用场景主要分为三类:物体识别与分类,物体检测,自然语言处理。在物体识别与分类领域,随着AlexNet在2012年一炮走红,深度学习重新燃起了一片热情。从Lenet5第一次使用卷积开始,经历了AlexNet VGG Inception ResNet等各种模型,错误率也一再降低。ResNet-152

1 引言

当前深度学习十分火热,深度学习网络模型对于降低错误率的重要作用不言而喻。深度学习应用场景主要分为三类:物体识别与分类,物体检测,自然语言处理。在物体识别与分类领域,随着AlexNet在2012年一炮走红,深度学习重新燃起了一片热情。从Lenet5第一次使用卷积开始,经历了AlexNet VGG Inception ResNet等各种模型,错误率也一再降低。ResNet-152 top-5错误率仅为3%左右,远低于人眼的5.1%。本文主要讲解各种网络模型的结构,他们的特点,以及这些特点为何能减少训练时间和降低错误率。

2 LeNet-5

LeNet-5的出现标志着CNN卷积神经网络在AI领域的出现,CNN以视觉感受野和权值共享的思想,大大减少了模型参数,使得深度学习模型训练成为了可能。但由于诞生于1998年,GPU的概念都还没有提出,CPU的性能又是极其低下,而且LetNet-5只能使用在手写字识别等很简单的应用场景,故一直没有火起来。但作为CNN应用的开山鼻祖,学习CNN势必先从学习LetNet-5开始。LeNet-5网络结构如下图

LeNet-5输入为32x32的二维像素矩阵,由于是灰度图,输入通道为1,其正向传播步骤为

  1. 先经过一层5x5的卷积,feature map为6,也就是输出通道为6。由于没有在图片四周加padding,像素矩阵大小变为了28x28。这一层参数量为(5x5+1)x6 = 156。
  2. 然后经过一层2x2的平均值池化层进行下采样。像素矩阵大小变为了14x14
  3. 再经过一层5x5的卷积,feature map为16。像素矩阵大小变为了10x10。这一层参数量为(5x5x6+1)x16 = 2416
  4. 然后经过一层2x2的最大值池化层。像素矩阵大小变为了5x5
  5. 在经过一层5x5的卷积,feature map为120。像素矩阵大小变为了1x1。这一层参数量为(5x5x16+1)x120 = 48120
  6. 然后经过一层全连接层, 输出为84.故这一层参数量为84x120 = 10080
  7. 最后一层为Gaussian Connections输出层,输出0~9共10个分类。目前主流输出层已经由softmax来代替

LeNet-5的特点如下

  1. 使用了卷积来提取特征,结构单元一般为卷积 - 池化 -非线性激活
  2. 已经加入了非线性激活,激活函数采用了tanh和sigmoid,目前大多数情况下我们使用的是relu
  3. 池化层使用的是平均值池化,目前大多数情况下我们使用最大值池化
  4. 分类器使用了Gaussian Connections,目前已经被softmax替代

3 AlexNet

AlexNet在2012年以16.4%的显著优势问鼎ILSVRC的冠军,重新燃起了人们对于深度学习研究的热情。它第一次采用了relu,dropout,GPU加速等技巧,参数量为6000万,模型大小240M左右。其网络结构如下

AlexNet输入图片为224x224, 输入为RGB三通道。正向传播共5个卷积层和3个全连接层,步骤为

  1. conv1-relu1-pool1-lrn1: 11x11的卷积,步长为4, 输出通道96,也就是96个特征图。分为两组,每组48个通道。然后通过一层relu的非线性激活。在经过一层最大值池化,池化核大小3x3, 步长为2。最后再经过一层LRN,局部响应归一化。第一层运算后图片大小为27x27x96
  2. conv2-relu2-pool2-lrn2: 第二层的输入即为第一层的输出,也就是27x27x96的像素矩阵。96个feature map分成两组,分别在两个GPU中进行运算。卷积核大小为5x5, 步长为1,输出通道为128. 然后进过一层relu非线性激活。再经过一层最大值池化,池化核大小仍然为3x3, 步长为2. 最后再经过一层LRN。第二层运算后为两组13x13x128的图片
  3. conv3-relu3: 第三层的输入为第二层的输出,也就是13x13x128的像素矩阵。先经过卷积核大小为3x3x192的卷积运算,步长为1。然后就是relu非线性激活。注意这一层没有max-pooling和LRN。第三层运算后为两组13x13x192
  4. conv4-relu4: 第四层先经过卷积核大小为3x3, 步长为1的卷积运算,然后经过relu非线性激活。第四层运算后尺寸仍然为两组13x13x192的图片
  5. conv5-relu5-pool5:第五层先经过卷积核大小为3x3, 输出通道128,步长为1的卷积运算,然后经过relu非线性激活。最后经过一层大小为3x3, 步长为2的max-pooling, 第五层运算后为两组6x6x128的图片
  6. fc6-relu6-dropout6: 第六层为全连接层,输入为两组6x6x128, 组合在一起也就是6x6x256。输出通道为4096。经过relu和dropout后输出。输出为4096的一维向量
  7. fc7-relu7-dropout7: 第七层为全连接层,输入为4096的一维向量,输出也为4096的一维向量,也就是4096x4096的全连接。然后通过relu和dropout输出。输出为4096的一维向量。
  8. fc8: 第八层为全连接层,输入为4096的一维向量,输出为1000的一维向量,对应1000个分类的输出。也就是4096x1000的全连接。输出为1000的一维向量。经过这一层后就可以通过softmax得到1000个分类的分类结果了。

AlexNet的结构特点为

  1. 采用relu替代了tanh和sigmoid激活函数。relu具有计算简单,不产生梯度弥散等优点,现在已经基本替代了tanh和sigmoid
  2. 全连接层使用了dropout来防止过拟合。dropout可以理解为是一种下采样方式,可以有效降低过拟合问题。
  3. 卷积-激活-池化后,采用了一层LRN,也就是局部响应归一化。将一个卷积核在(x,y)空间像素点的输出,和它前后的几个卷积核上的输出做权重归一化。
  4. 使用了重叠的最大值池化层。3x3的池化核,步长为2,因此产生了重叠池化效应,使得一个像素点在多个池化结果中均有输出,提高了特征提取的丰富性
  5. 使用CUDA GPU硬件加速。训练中使用了两块GPU进行并行加速,使得模型训练速度大大提高。
  6. 数据增强。随机的从256x256的原始图片中,裁剪得到224x224的图片,从而使一张图片变为了(256-224)^2张图片。并对图片进行镜像,旋转,随机噪声等数据增强操作,大大降低了过拟合现象。

4 VGG

VGG为ILSVRC 2014年第二名,它探索了卷积网络深度和性能,准确率之间的关系。通过反复堆叠3x3卷积和2x2的池化,得到了最大19层的深度。VGG19模型大概508M,错误率降低到7.3%。VGG模型不复杂,只有3x3这一种卷积核,卷积层基本就是卷积-relu-池化的结构,没有使用LRN,结构如下图。

VGG的特点如下

  1. 采用了较深的网络,最多达到19层,证明了网络越深,高阶特征提取越多,从而准确率得到提升。
  2. 串联多个小卷积,相当于一个大卷积。VGG中使用两个串联的3x3卷积,达到了一个5x5卷积的效果,但参数量却只有之前的9/25。同时串联多个小卷积,也增加了使用relu非线性激活的概率,从而增加了模型的非线性特征。
  3. VGG-16中使用了1x1的卷积。1x1的卷积是性价比最高的卷积,可以用来实现线性变化,输出通道变换等功能,而且还可以多一次relu非线性激活。
  4. VGG有11层,13层,16层,19层等多种不同复杂度的结构。使用复杂度低的模型的训练结果,来初始化复杂度高模型的权重等参数,这样可以加快收敛速度。

5 Google Inception

Google Inception是一个大家族,包括inceptionV1 inceptionV2 inceptionV3 inceptionV4等结构。它主要不是对网络深度的探索,而是进行了网络结构的改进。inceptionV1击败了VGG,夺得2014年ILSVRC冠军。之后Google又对其网络结构进行了诸多改进,从而形成了一个大家族。

5.1 InceptionV1

inceptionV1是一个设计十分精巧的网络,它有22层深,只有500万左右的参数量,模型大小仅为20M左右,但错误率却只有6.7%。它的网络结构特点如下

  1. 去除了最后的全连接层,而使用全局平均池化来代替。这是模型之所以小的原因。AlexNet和VGG中全连接几乎占据了90%的参数量。而inceptionV1仅仅需要1000个参数,大大降低了参数量
  2. inception module的使用。借鉴与Network in Network的思想,提出了inception module的概念,允许通道并联来组合特征。其结构如下

inception module分为并联的四路,分别为单独的1x1卷积,1x1并联3x3, 1x1并联5x5, 池化后1x1卷积。使用不同的卷积结构来提取不同特征,然后将他们组合在一起来输出。

  1. 使用了1x1,3x3,5x5等不同尺寸的卷积,增加了提取特征面积的多样性,从而减小过拟合

5.2 inceptionV2

inceptionV2和V1网络结构大体相似,其模型大小为40M左右,错误率仅4.8%,低于人眼识别的错误率5.1%。主要改进如下

  1. 使用两个串联3x3卷积来代替5x5卷积,从而降低参数量,并增加relu非线性。这一点参考了VGG的设计
  2. 提出了Batch Normalization。在卷积池化后,增加了这一层正则化,将输出数据归一化到0~1之间,从而降低神经元分布的不一致性。这样训练时就可以使用相对较大的学习率,从而加快收敛速度。在达到之前的准确率之后还能继续训练,从而提高准确率。V2达到V1的准确率时,迭代次数仅为V1的1/14, 从而使训练时间大大减少。最终错误率仅4.8%

5.3 inceptionV3

inceptionV3的网络结构也没太大变化,其模型大小96M左右。主要改进如下

  1. 使用非对称卷积。用1x3+3x1的卷积来代替一个3x3的卷积,降低了参数的同时,提高了卷积的多样性
  2. 分支中出现了分支。如下图

5.4 inceptionV4

inceptionV4主要是借鉴了resNet残差网络的思想,可以看做是inceptionV3和resNet的结合。inceptionV4模型大小163M,错误率仅仅为3.08%。主要在ResNet网络中讲解

6 ResNet

6.1 ResNetV1

ResNet由微软提出,并夺得了2015年ILSVRC大赛的冠军。它以152层的网络深度,将错误率降低到只有3.57%,远远低于5.1%的人眼识别错误率。它同样利用全局平均池化来代替全连接层,使得152层网络的模型不至于太大。网络中使用了1x1 3x3 5x5 7x7等不同尺寸的卷积核,从而提高卷积的多样性。resNetV1_152模型大小为214M,不算太大。

ResNet提出了残差思想,将输入中的一部分数据不经过神经网络,而直接进入到输出中。这样来保留一部分原始信息,防止反向传播时的梯度弥散问题,从而使得网络深度一举达到152层。当前有很多人甚至训练了1000多层的网络,当然我们实际使用中100多层的就远远足够了。残差网络如下图

ResNet的主要特点,就一个字,深!

6.2 ResNetV2

ResNetV2相对于V1的最大变化,就是借鉴了inceptionV2的BN归一化思想,这样来减少模型训练时间。

7 MobileNet

为了能将模型部署在终端上,需要在保证准确率的前提下,减小模型体积,并降低预测时的计算时间,以提高实时性。为了能到达这一目的,Google提出了mobileNet框架。最终mobileNetV1_1.0_224模型以16M的大小,可以达到90%的top-5准确率。模型甚至可以压缩得更小,mobileNetV1_0.25_128只有10M左右,仍然能达到80%的准确率。

7.1 mobileNet depthwise原理

mobileNet模型的核心是,将一个普通的卷积拆分成了一个depthwise卷积和一个1x1的普通卷积(也叫pointwise卷积)。depthwise卷积层的每个卷积只和输入的某一个channel进行计算,而combining则由1x1的卷积来负责。如下图

对于卷积核dk*dk,输入通道为M,输出通道为N的普通卷积,每个输出通道都是由M个卷积分别和输入通道做计算,然后累加出来,所以需要的参数量为dk x dk x M x N。而对于depthwise卷积,每个卷积只和输入通道的某一个通道发生计算,并且不需要累加操作,其卷积后的输出通道和输入通道相等,仍然为M。然后再经过一层1x1的普通卷积。故其参数为dk x dk x M + 1 x 1 x M x N。

mobileNet参数量比原来减少了多少呢,我们由下面的计算可以得出

​ (dk x dk x M + 1 x 1 x M x N) / (dk x dk x M x N) = 1/N + 1/(dk^2)

由于输出通道一般都比较大,为48 96 甚至4096, 故一般取1/(dk^2), 对于最常见的3x3卷积,mobileNet参数量可以降低为原来的1/9.

7.2 mobileNet网络结构

mobileNet一共包含28层,第一层的卷积为普通卷积,之后的卷积为分解的3x3 depthwise卷积和1x1 pointwise卷积。另外,最后有一个全局平均池化层和全连接层。并利用softmax得到分类结果。如下图所示

7.3 mobileNet可裁剪化

为了得到更小的模型,mobileNet还可以进行输入通道和分辨率的剪裁,称为Width Multiplier 和 Resolution Multiplier。Width Multiplier 表示输入通道变为baseline的多少倍, Resolution Multiplier表示输入图像缩小为多少。经过剪裁后的mobileNetV1_0.25_128模型,只有10M左右,准确率仍然可达到80%左右。作为端上图像预处理完全足够。下面是Width Multiplier 和 Resolution Multiplier的结果

8 总结

CNN已经广泛应用在物体识别和分类领域,短短几年间就出现了AlexNet VGG inception ResNet等优秀的神经网络结构,并且每隔几个月就问世一种优秀网络结构,可以说是百花齐放。这要归功于TensorFlow等框架的成熟和GPU等硬件性能的提升,使得网络结构的设计和验证日趋平民化。各种网络结构,其实本质上也是在解决神经网络的几大痛点问题,如下

  1. 减少模型参数量,降低模型体积
  2. 加快训练收敛速度,减少训练耗时
  3. 加快模型预测计算时间,提高实时性。这主要还是通过减少参数量来达到
  4. 减少过拟合问题
  5. 减少网络层级过深时的梯度弥散问题

学习网络模型,不应该去死记硬背,因为有源源不断的网络结构涌现。我们应该重点掌握每个模型的特点,以及他们是如何来解决上面列举的这些神经网络痛点的。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
5天前
|
传感器 人工智能 监控
智慧电厂AI算法方案
智慧电厂AI算法方案通过深度学习和机器学习技术,实现设备故障预测、发电运行优化、安全监控和环保管理。方案涵盖平台层、展现层、应用层和基础层,具备精准诊断、智能优化、全方位监控等优势,助力电厂提升效率、降低成本、保障安全和环保合规。
智慧电厂AI算法方案
|
5天前
|
机器学习/深度学习 人工智能 监控
智慧交通AI算法解决方案
智慧交通AI算法方案针对交通拥堵、违法取证难等问题,通过AI技术实现交通管理的智能化。平台层整合多种AI能力,提供实时监控、违法识别等功能;展现层与应用层则通过一张图、路口态势研判等工具,提升交通管理效率。方案优势包括先进的算法、系统集成性和数据融合性,应用场景涵盖车辆检测、道路环境检测和道路行人检测等。
|
5天前
|
传感器 人工智能 监控
智慧化工厂AI算法方案
智慧化工厂AI算法方案针对化工行业生产过程中的安全风险、效率瓶颈、环保压力和数据管理不足等问题,通过深度学习、大数据分析等技术,实现生产过程的实时监控与优化、设备故障预测与维护、安全预警与应急响应、环保监测与治理优化,全面提升工厂的智能化水平和管理效能。
智慧化工厂AI算法方案
|
4月前
|
机器学习/深度学习 人工智能 算法
「AI工程师」算法研发与优化-工作指导
**工作指导书摘要:** 设计与优化算法,提升性能效率;负责模型训练及测试,确保准确稳定;跟踪业界最新技术并应用;提供内部技术支持,解决使用问题。要求扎实的数学和机器学习基础,熟悉深度学习框架,具备良好编程及数据分析能力,注重团队协作。遵循代码、文档和测试规范,持续学习创新,优化算法以支持业务发展。
210 0
「AI工程师」算法研发与优化-工作指导
|
1月前
|
机器学习/深度学习 人工智能 算法
"拥抱AI规模化浪潮:从数据到算法,解锁未来无限可能,你准备好迎接这场技术革命了吗?"
【10月更文挑战第14天】本文探讨了AI规模化的重要性和挑战,涵盖数据、算法、算力和应用场景等方面。通过使用Python和TensorFlow的示例代码,展示了如何训练并应用一个基本的AI模型进行图像分类,强调了AI规模化在各行业的广泛应用前景。
31 5
|
2月前
|
机器学习/深度学习 人工智能 算法
鸟类识别系统Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+ResNet50算法模型+图像识别
鸟类识别系统。本系统采用Python作为主要开发语言,通过使用加利福利亚大学开源的200种鸟类图像作为数据集。使用TensorFlow搭建ResNet50卷积神经网络算法模型,然后进行模型的迭代训练,得到一个识别精度较高的模型,然后在保存为本地的H5格式文件。在使用Django开发Web网页端操作界面,实现用户上传一张鸟类图像,识别其名称。
108 12
鸟类识别系统Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+ResNet50算法模型+图像识别
|
1月前
|
机器学习/深度学习 人工智能 开发框架
【AI系统】AI 学习方法与算法现状
在人工智能的历史长河中,我们见证了从规则驱动系统到现代机器学习模型的转变。AI的学习方法基于深度神经网络,通过前向传播、反向传播和梯度更新不断优化权重,实现从训练到推理的过程。当前,AI算法如CNN、RNN、GNN和GAN等在各自领域取得突破,推动技术进步的同时也带来了更大的挑战,要求算法工程师与系统设计师紧密合作,共同拓展AI技术的边界。
79 1
|
1月前
|
人工智能 算法 前端开发
无界批发零售定义及无界AI算法,打破传统壁垒,累积数据流量
“无界批发与零售”是一种结合了批发与零售的商业模式,通过后端逻辑、数据库设计和前端用户界面实现。该模式支持用户注册、登录、商品管理、订单处理、批发与零售功能,并根据用户行为计算信用等级,确保交易安全与高效。
|
1月前
|
人工智能 算法 JavaScript
无界SaaS与AI算力算法,链接裂变万企万商万物互联
本文介绍了一种基于无界SaaS与AI算力算法的商业模式的技术实现方案,涵盖前端、后端、数据库及AI算法等关键部分。通过React.js构建用户界面,Node.js与Express搭建后端服务,MongoDB存储数据,TensorFlow实现AI功能。提供了项目结构、代码示例及部署建议,强调了安全性、可扩展性和性能优化的重要性。
|
2月前
|
机器学习/深度学习 人工智能 测试技术
AI计算机视觉笔记二十五:ResNet50训练部署教程
该项目旨在训练ResNet50模型并将其部署到RK3568开发板上。首先介绍了ResNet50网络,该网络由何恺明等人于2015年提出,解决了传统卷积神经网络中的退化问题。项目使用车辆分类数据集进行训练,并提供了数据集下载链接。环境搭建部分详细描述了虚拟环境的创建和所需库的安装。训练过程中,通过`train.py`脚本进行了15轮训练,并可视化了训练和测试结果。最后,项目提供了将模型转换为ONNX和PT格式的方法,以便在RK3568上部署。