卷积神经网络(二)

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: 卷积神经网络(二)

开发者学习笔记【阿里云人工智能工程师ACA认证(2023版):卷积神经网络(二)

课程地址:https://edu.aliyun.com/course/3112108/lesson/19268

 

卷积神经网络(二)


三、经典卷积神经网络

图片526.png

下面我们来了解几个经典的卷积神经网络。经典的卷积神经网络主要介绍第一个网络。这个网络是开创性的,最早提出的卷积神经网络之一。

开山之作--LeNet-5

.于上世纪90年代提出,第一个卷积神经网络;共包含7层网络结构,分别为2个卷积层、2个池化层、2个全连接层和1个输出层;

卷积核大小全部为5*5。

王者归来--AlexNet

在2012年的ImageNetILSVRC竞赛中以Top5错误率16.4%夺

得冠军;共包含8层网络结构,分别为5层卷积层和3层全连接层;

卷积核大小分别为11*11.5*5和3*3。

里程碑式创新--ResNet

残差网络(Residual Network)是ILSVRC2015的胜利者;共包含152层网络结构,分别为151层卷积层和1层全连接层;它使用了跳跃链接,并大量使用了批量归一化。

这个网络最早在2012年取得了突破性的成功。它在一个图像分类竞赛中获得了冠军,并且由于其出色的性能,开始引起了广泛的关注。

对于分类问题,输出层的每个节点代表一个类别的标签。这个网络在早期被广泛应用于手写数字识别等任务,其输入是经过预处理的32x32图像,输出是10个类别中每个类别的概率。网络的输出表示了输入图像属于每个类别的概率。对于目标检测问题,输出层的输出可能包括目标的位置、大小和所属类别。如果是图像分割任务,输出层的每个像素都可以表示为属于哪个类别,这取决于具体的应用场景和网络设计。

希望这些解释能帮助您更好地理解卷积神经网络的结构和功能。如果您需要更多信息或有其他问题,请随时提出。

图片527.png


当然,这个网络也是卷积神经网络,与之前我们讨论的网络相比,实际上有许多共通之处,可以看作是一个更大、更复杂的卷积神经网络的扩展。然而,尽管这么说,但实际上,它具有独特之处,因为它的规模非常大,解决的问题也更加复杂,思路也有所不同。下面我们来看一些它的介绍。

首先,它采用了许多现代卷积神经网络的技术方法,比如使用GPU进行并行训练,使用非线性激活函数,以及采用防止过拟合的方法,同时也使用了数据增强来提高模型的准确性。这些都是现代深度学习网络常用的技术方法。与之前的网络相比,它的训练方法和技术更加先进。

然而,它面临的问题也更为复杂,因为它处理的数据集规模更大。相对于之前的手写数字识别数据集,这个网络面对的数据集规模庞大,包含数百万张图像,而且识别任务更加复杂。此外,它采用了先进的卷积技术和更深的全连接层,使得网络更加复杂。

这个网络的突破对深度学习领域产生了深远的影响,它启发了许多后续的研究工作,推动了深度学习的发展。因此,从某种意义上说,它代表了深度学习领域不断前行的方向,不断创新和进步。

现在让我们更详细地了解一下这个网络的结构。它使用了一个包含152层的深度神经网络,这个数字代表了网络的深度。这个网络的设计和训练是一项庞大的工程,但它的结果表明,深度神经网络在处理复杂问题和大规模数据集方面具有巨大的潜力。

图片528.png


在某种程度上,这个问题的解决要从一开始谈起。自从深度学习开始兴起以来,人们开始认识到神经网络的深度对其性能有着重要影响。深度的增加可以提高性能,但并不是层数越多就一定效果越好。一旦层数增加到一定程度,网络容量实际上会下降,导致学习速度减慢,甚至在更深层次时,准确率可能下降。这有点像一个学生在上补习班之前,学习成绩还不错,但随着补习班的堆积,效果可能反而会下降。因此,我们不能无限地增加网络的层数,否则效果会受到影响。

然而,通过使用renet技术,这个问题得以解决。深度学习的深度可以不断增加而不会出现这种问题。renet的特点是能够优化网络并增加相当深的层数,从而提高准确率。在进行训练和测试时,网络的深度可以增加到数百层。尽管深度很大,但效果并不一定很好,百多层的深度可能更适中,以避免过拟合等问题。

综上所述,通过renet技术,网络的深度可以扩大,使深度学习真正成为可能。这一原理通过超越连接得以实现,有助于克服增加深度时可能出现的问题。这个方法虽然看起来简单,但具有重大意义,尤其在机器视觉领域已经达到了超越人眼水平的性能水平。

 

四、卷积神经网络的应用


图片529.png


卷积神经网络在各个领域都有广泛的应用。首先,它在图像分类方面表现出色。通过卷积操作,它能够有效地提取图像中的特征,使得图像分类任务更为精确。

此外,卷积神经网络在语音识别和机器翻译方面也发挥着重要作用。尽管它最初是为处理二维数据而设计的,但它也适用于不同维度的数据,具有广泛的应用领域。当处理一维数据时,通常用于序列模型,例如自然语言处理任务。在文本处理方面,卷积神经网络可用于文本分类和情感分析,同时也可以应用于语音识别,例如将会议中的实时音频转化为文本,以提高会议效率并记录会议内容。

总的来说,卷积神经网络的应用涵盖了多个领域,包括图像处理、自然语言处理和语音识别,为这些领域的问题提供了有效的解决方案。

图片530.png


二维卷积神经网络在图像处理和计算机视觉领域有广泛的应用,包括图像分类、目标识别以及垃圾分类等任务。例如,它可以用于垃圾分类技术,通过视觉识别判断垃圾属于哪一类。另一个应用是车牌识别,通过识别车牌号码来实现自动化管理。

图像搜索也是一个重要的应用领域,例如阿里的淘宝和天猫产品中的图像搜索功能,允许用户通过拍摄想要购买的商品,然后迅速搜索出相似的商品。

此外,卷积神经网络在医学领域和视频处理领域也有广泛应用。在医学领域,它可以协助医生快速进行CT图像的病情检测,提高医疗诊断效率。在视频处理领域,考虑到视频是三维数据,还包含时间维度,卷积神经网络可以用于检测用户的动作或行为,例如阿里提供的智能识别功能。

图片531.png


在家庭监控中,可以使用卷积神经网络进行识别。如果有人出现在监控画面中,可以使用这种技术,就像没有保安一样。此外,还可以进行表情识别,利用AI来提高安全价值。

 

本节回顾

通过本节的学习,我们学到了:

1、卷积神经网络的概述

一种带有毒积结构的深度神经网络,通过特证提取和分类识制完成对转入数据产

2、卷积神经网络的层级结构

输入层即接收数据的输入,可以处理多维数获,也能对输入特征进行标准化处理,有利于提升卷积种经网络的学习效零和表现

卷机层提取一个民部区域的特征,不同的程行核相当于不同的特征提取器

池化层对政据进行降值,减少数统特征,减少网络参数和运算次数,避免过拟合,常用方法有最大值池化和均值

全连接层神经元排成一列,这些神经元与前一层神经元通过权值互连,星全链接结构

输出层通常是是全连接层,因此其结机和工作原理与传统前馈神经网结中的域出层相同通过本节的学习

3、经典卷积神经网络

开山之作-LeNet-5

王者归来--AlexNet

里程碑式创新--ResNet

4、卷积神经网络的应用

一维卷积序列模型、自然语处理模型

二维卷积图像处理、计算机视觉领域

三维卷积医学领域、视频处理领域

相关文章
|
7天前
|
机器学习/深度学习 编解码 自动驾驶
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
31 3
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
5天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
41 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
11天前
|
机器学习/深度学习 编解码 自动驾驶
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
39 16
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
11天前
|
机器学习/深度学习 存储
YOLOv11改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
YOLOv11改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
37 15
YOLOv11改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
|
9天前
|
机器学习/深度学习
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
40 8
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
|
7天前
|
机器学习/深度学习 编解码 移动开发
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
26 5
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
|
11天前
|
机器学习/深度学习 编解码 移动开发
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
23 7
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
|
7天前
|
机器学习/深度学习
RT-DETR改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
RT-DETR改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
35 11
|
7天前
|
机器学习/深度学习 存储
RT-DETR改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
RT-DETR改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
23 0
RT-DETR改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
|
1月前
|
机器学习/深度学习 算法 计算机视觉
基于CNN卷积神经网络的金融数据预测matlab仿真,对比BP,RBF,LSTM
本项目基于MATLAB2022A,利用CNN卷积神经网络对金融数据进行预测,并与BP、RBF和LSTM网络对比。核心程序通过处理历史价格数据,训练并测试各模型,展示预测结果及误差分析。CNN通过卷积层捕捉局部特征,BP网络学习非线性映射,RBF网络进行局部逼近,LSTM解决长序列预测中的梯度问题。实验结果表明各模型在金融数据预测中的表现差异。
116 10