瞎聊深度学习——卷积神经网络

简介: 瞎聊深度学习——卷积神经网络

什么是卷积神经网络

卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 它主要包括卷积层、池化层和全连接层等。相比于传统的神经网络他们在结构上具有一定的相似性,只不过卷积神经网络相较于传统神经网络来说多了一些层级


对比与传统的神经网络卷积神经网络具有如下的结构:

image.png

数据输入层

该层和传统的输入层没有过多的差别,对于图像处理来说该层主要用于对原始图像进行预处理操作:


  • 去均值:把输入数据各个维度都中心化为0,其目的就是把样本的中心拉回到坐标系原点上。
  • 归一化:幅度归一化到同样的范围,即减少各维度数据取值范围的差异而带来的干扰,比如,我们有两个维度的特征A和B,A范围是0到10,而B范围是0到10000,如果直接使用这两个特征是有问题的,好的做法就是归一化,即A和B的数据都变为0到1的范围。
  • PCA/白化:用PCA降维;白化是对数据各个特征轴上的幅度归一化。

卷积层

该层是卷积神经网络中最重要的一个层次,我们本文所讲的卷积神经网络就来源于该层。


在卷积层中我们将每个神经元都看做是一个滤波器(filter),对于输入到卷积层的数据(假设为一张图片数据),滤波器在图片上划过最终得到一个新的特征图。


只用语言表达可能还不够直观的去理解卷积层的概念,下面用一张动态图来演示一下卷积层的工作过程:


我们知道图片是有一个一个像素点构成的,现在假设有一张5*5像素的图片(0表示白色,1表示黑色),我们将这张图片经过一个带有3*3filter的卷积层,得到新的特征图就如下所示:

看完了这张动图你可能已经大致了解了卷积层的工作过程,我们可以称该过程为一个filter滑动的过程,由于每次都移动了一个像素单位,所以对上图来说可以称它的步长为1,同时我们知道在神经网络中每一个网络层中都包含着很多的神经元,卷积层也不例外,在每个卷积层中有几个神经元我们就可以称作卷积层的深度是几。


那么思考一个问题,对于同样的一个5*5像素的图片,有一个2*2的滤波器,每次滑动的步长为2会产生怎样的后果呢?


就像这样,黄色的方块就是我们filter初始的位置,蓝色的方块是一次滑动后的位置,那么不难发现对于这个图片将会有一个维度的像素点没有被获取到,这样显然是不行的,此时就出现了填充值


我们对该图片横向纵向都填充一列像素,组成6*6的像素就可以解决这个问题,就像下图这样:

对于填充值,如果用上述动态图同样的策略来表示图片,在填充的时候我们要保证填充值为0才能保证原始图片的特征不会被改变。


激活函数

CNN采用的激励函数一般为ReLU(The Rectified Linear Unit/修正线性单元),它的特点是收敛快,求梯度简单,但较脆弱,图像如下。


池化层

池化层夹在连续的卷积层中间, 用于压缩数据和参数的量,减小过拟合。

简而言之,如果输入是图像的话,那么池化层的最主要作用就是压缩图像。


池化层主要有以下的作用

1. 特征不变性,也就是我们在图像处理中经常提到的特征的尺度不变性,池化操作就是图像的resize,平时一张狗的图像被缩小了一倍我们还能认出这是一张狗的照片,这说明这张图像中仍保留着狗最重要的特征,我们一看就能判断图像中画的是一只狗,图像压缩时去掉的信息只是一些无关紧要的信息,而留下的信息则是具有尺度不变性的特征,是最能表达图像的特征。


2. 特征降维,我们知道一幅图像含有的信息是很大的,特征也很多,但是有些信息对于我们做图像任务时没有太多用途或者有重复,我们可以把这类冗余信息去除,把最重要的特征抽取出来,这也是池化操作的一大作用。


3. 在一定程度上防止过拟合,更方便优化。


池化层通常分为最大池化和平均池化两种,具体表述如下:

全连接层

这个层是位于之前一层和激活函数之间的全连接层,两层之间所有神经元都有权重连接,通常全连接层在卷积神经网络尾部。它和神经网络是类似的。


卷积神经网络的优缺点

优点

 • 共享卷积核,对高维数据处理无压力

 • 无需手动选取特征,训练好权重,即得特征分类效果好

缺点

 • 需要调参,需要大样本量,训练最好要GPU

 • 物理含义不明确


相关文章
|
5月前
|
机器学习/深度学习 PyTorch TensorFlow
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic,深度学习探索者。深耕TensorFlow与PyTorch,分享框架对比、性能优化与实战经验,助力技术进阶。
|
9月前
|
机器学习/深度学习 人工智能 运维
网管不再抓头发:深度学习教你提前发现网络事故
网管不再抓头发:深度学习教你提前发现网络事故
238 2
|
5月前
|
机器学习/深度学习 数据采集 人工智能
深度学习实战指南:从神经网络基础到模型优化的完整攻略
🌟 蒋星熠Jaxonic,AI探索者。深耕深度学习,从神经网络到Transformer,用代码践行智能革命。分享实战经验,助你构建CV、NLP模型,共赴二进制星辰大海。
|
6月前
|
机器学习/深度学习 人工智能 算法
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic带你深入卷积神经网络(CNN)核心技术,从生物启发到数学原理,详解ResNet、注意力机制与模型优化,探索视觉智能的演进之路。
610 11
|
8月前
|
机器学习/深度学习 人工智能 算法
Wi-Fi老是卡?不如试试让“深度学习”来当网络管家!
Wi-Fi老是卡?不如试试让“深度学习”来当网络管家!
372 68
|
6月前
|
机器学习/深度学习 传感器 数据采集
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
446 0
|
8月前
|
机器学习/深度学习 人工智能 PyTorch
零基础入门CNN:聚AI卷积神经网络核心原理与工业级实战指南
卷积神经网络(CNN)通过局部感知和权值共享两大特性,成为计算机视觉的核心技术。本文详解CNN的卷积操作、架构设计、超参数调优及感受野计算,结合代码示例展示其在图像分类、目标检测等领域的应用价值。
488 7
|
7月前
|
机器学习/深度学习 算法 数据库
基于GoogleNet深度学习网络和GEI步态能量提取的步态识别算法matlab仿真,数据库采用CASIA库
本项目基于GoogleNet深度学习网络与GEI步态能量图提取技术,实现高精度步态识别。采用CASI库训练模型,结合Inception模块多尺度特征提取与GEI图像能量整合,提升识别稳定性与准确率,适用于智能安防、身份验证等领域。
|
9月前
|
机器学习/深度学习 数据采集 监控
基于CNN卷积神经网络和GEI步态能量提取的步态识别算法matlab仿真,对比不同角度下的步态识别性能
本项目基于CNN卷积神经网络与GEI步态能量提取技术,实现高效步态识别。算法使用不同角度(0°、45°、90°)的步态数据库进行训练与测试,评估模型在多角度下的识别性能。核心流程包括步态图像采集、GEI特征提取、数据预处理及CNN模型训练与评估。通过ReLU等激活函数引入非线性,提升模型表达能力。项目代码兼容Matlab2022a/2024b,提供完整中文注释与操作视频,助力研究与应用开发。
|
9月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于WOA鲸鱼优化的TCN-GRU时间卷积神经网络时间序列预测算法matlab仿真
本内容包含时间序列预测算法的相关资料,涵盖以下几个方面:1. 算法运行效果预览(无水印);2. 运行环境为Matlab 2022a/2024b;3. 提供部分核心程序,完整版含中文注释及操作视频;4. 理论概述:结合时间卷积神经网络(TCN)与鲸鱼优化算法(WOA),优化TCN超参数以提升非线性时间序列预测性能。通过因果卷积层与残差连接构建TCN模型,并用WOA调整卷积核大小、层数等参数,实现精准预测。适用于金融、气象等领域决策支持。

热门文章

最新文章