一篇文章搞懂CNN(卷积神经网络)及其所含概念

简介: 一篇文章搞懂CNN(卷积神经网络)及其所含概念


当下,计算机视觉在人工智能领域中扮演着至关重要的角色。而卷积神经网络(Convolutional Neural Network,CNN)则是计算机视觉任务中最为常用且高效的模型之一。本文将介绍CNN的基本原理、架构和一些经典网络模型。并且解释上面这幅图。

1. 什么是卷积神经网络:

卷积神经网络 = 神经网络 + 其他层次

看到了吗,上图中只有绿色的部分是全连接神经网络,其余都是CNN加入的其他层次

2. 应用领域:

主要应用与计算机视觉领域(视频等于一张张图片)(一般用gpu(图像处理单元)比CPU快几百倍)

  1. 检测任务
  2. 分类与检索
  3. 超分辨率重构
  4. 人脸识别

3. 架构:

我们正式开始介绍CNN的架构,包括四个部分:

  1. 输入层

输入图像(h×w×c)

  1. 卷积层(CONV)

新概念:

卷积核(filter W)(权重参数矩阵)

过程:

通道的每个像素点(起初是 图像颜色通道:RGB(R channel,G channel,B channel))与每个卷积核维度卷积(与卷积核内积)后得到一个特征值

对每个颜色通道都要做卷积(这三个卷积核可以不一样),算完之后这三个通道结果加起来再加上偏置b,得到一个特征图(可以用多个卷积核卷积得到多个特征图)

总结就是:卷积核把箱子拍扁成一个一维度的更小的纸(等于 内积之和+偏置)

  1. 池化层(POOL)(压缩、下采样)

池化方法:

最大池化(MAX POOLING):提取最大值代替

不改特征图个数c,只缩减高h和宽w

  1. 全连接层(FC)

全连接开始前 卷积、激活函数(非线性变换 激活函数 RELU)、池化 循环使用,把最后结果拉成一条特征向量后交给全连接层

全连接层结构在这里就不多赘述了

4. 卷积层的参数和名词

参数:

  1. 边缘填充(pad):在最外层添加一圈数字(一般是0,因为0×任何数字都是0,防止干扰数据)从而防止对边缘的计算过少
  2. 卷积核个数:有多少个则得到多少个特征值
  3. 步长(S):卷积核移动的步长

卷积结果计算公式:

如果输入数据是32*32*3的图像,用10个5*5*3的filter来进行卷积操作指定步长为1,边界填充为2,最终输入的规模为?

(32-5+22)/1+1=32,所以输出规模为3232*10经过卷积操作后也可以保持特征图长度、宽度不变。

名词:

感受野:卷积后的一个像素点是由原来多少个像素计算得到的(比如上图的感受野就是3*3)

5. 注意:

带参数计算的(有w和b的、要根据设定更新东西的)层叫做一层,只有卷积层和全连接层被叫做层

堆叠小的卷积核比用一个大的卷积核需要的参数少(可以自己计算)

6. 经典网络:

在计算机视觉领域,有几个经典的CNN模型:

AlexNet:是2012年ImageNet竞赛的冠军,它引入了深度学习在计算机视觉中的重要性,并采用了多层卷积和全连接层的架构。

VGG:由牛津大学的研究团队提出,其特点是网络结构非常深,使用了连续的小卷积核进行卷积操作,参数量较大。

ResNet:引入了残差连接的思想,解决了深层网络训练中的梯度消失和梯度爆炸问题,使得网络可以更深。

目录
打赏
0
0
0
0
27
分享
相关文章
基于GA遗传优化TCN时间卷积神经网络时间序列预测算法matlab仿真
本内容介绍了一种基于遗传算法优化的时间卷积神经网络(TCN)用于时间序列预测的方法。算法运行于 Matlab2022a,完整程序无水印,附带核心代码、中文注释及操作视频。TCN通过因果卷积层与残差连接学习时间序列复杂特征,但其性能依赖超参数设置。遗传算法通过对种群迭代优化,确定最佳超参数组合,提升预测精度。此方法适用于金融、气象等领域,实现更准确可靠的未来趋势预测。
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
害虫识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了12种常见的害虫种类数据集【"蚂蚁(ants)", "蜜蜂(bees)", "甲虫(beetle)", "毛虫(catterpillar)", "蚯蚓(earthworms)", "蜚蠊(earwig)", "蚱蜢(grasshopper)", "飞蛾(moth)", "鼻涕虫(slug)", "蜗牛(snail)", "黄蜂(wasp)", "象鼻虫(weevil)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Djan
87 1
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
126 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
基于WOA鲸鱼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB 2022a实现时间序列预测,采用CNN-GRU-SAM网络结构,结合鲸鱼优化算法(WOA)优化网络参数。核心代码含操作视频,运行效果无水印。算法通过卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征,全连接层整合输出。数据预处理后,使用WOA迭代优化,最终输出最优预测结果。
基于GA遗传优化TCN-LSTM时间卷积神经网络时间序列预测算法matlab仿真
本项目基于MATLAB 2022a实现了一种结合遗传算法(GA)优化的时间卷积神经网络(TCN)时间序列预测算法。通过GA全局搜索能力优化TCN超参数(如卷积核大小、层数等),显著提升模型性能,优于传统GA遗传优化TCN方法。项目提供完整代码(含详细中文注释)及操作视频,运行后无水印效果预览。 核心内容包括:1) 时间序列预测理论概述;2) TCN结构(因果卷积层与残差连接);3) GA优化流程(染色体编码、适应度评估等)。最终模型在金融、气象等领域具备广泛应用价值,可实现更精准可靠的预测结果。
基于GA遗传优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目使用MATLAB 2022a实现时间序列预测算法,完整程序无水印。核心代码包含详细中文注释和操作视频。算法基于CNN-LSTM-SAM网络,融合卷积层、LSTM层与自注意力机制,适用于金融市场、气象预报等领域。通过数据归一化、种群初始化、适应度计算及参数优化等步骤,有效处理非线性时间序列,输出精准预测结果。
基于WOA鲸鱼优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本内容介绍了一种基于CNN-LSTM-SAM网络与鲸鱼优化算法(WOA)的时间序列预测方法。算法运行于Matlab2022a,完整程序无水印并附带中文注释及操作视频。核心流程包括数据归一化、种群初始化、适应度计算及参数更新,最终输出最优网络参数完成预测。CNN层提取局部特征,LSTM层捕捉长期依赖关系,自注意力机制聚焦全局特性,全连接层整合特征输出结果,适用于复杂非线性时间序列预测任务。
基于GWO灰狼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a,展示了时间序列预测算法的运行效果(无水印)。核心程序包含详细中文注释和操作视频。算法采用CNN-GRU-SAM网络,结合灰狼优化(GWO),通过卷积层提取局部特征、GRU处理长期依赖、自注意力机制捕捉全局特征,最终实现复杂非线性时间序列的高效预测。

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等