卷积为何有效

简介: 要回答卷积为何有效,恐怕大家都要去看看这篇论文《Visualizing and Understanding Convolutional Networks》,它将每个卷积层的输出反卷积然后展示出来,让我们知道每一层的卷积到底是学习到了什么特征。

要回答卷积为何有效,恐怕大家都要去看看这篇论文《Visualizing and Understanding Convolutional Networks》,它将每个卷积层的输出反卷积然后展示出来,让我们知道每一层的卷积到底是学习到了什么特征。这是这篇论文的翻译。然后,我去知乎搜了一下关于卷积网络的理解,这是链接,看第一名的答案即可。
写在前面的一点,滤波器就是权重。而我们以前全连接网络的权重是隐层的结点(m)和上一层的结点(n)组成的矩阵(m\timesn),这就是不同。


简单来说,训练CNN在相当意义上是在训练每一个卷积层的滤波器。让这些滤波器对特定的模式有高的激活,以达到CNN网络的分类或检测等目的。
卷积神经网络的第一个卷积层的滤波器用来检测低阶特征,比如边、角、曲线等。随着卷积层的增加,对应滤波器检测的特征就更加复杂。比如第二个卷积层的输入实际上是第一层的输出,这一层的滤波器是用来接触低阶特征的组合等情况(半圆、四边形)等,如此累积,以检测越来越复杂的特征。
所以,在某种意义上,构建卷积神经网络的任务在于构建这些滤波器。也就是,将这些滤波器变成这样(改变滤波器矩阵的值,也就是Weight)---- 能识别特定的特征。这个过程叫做训练。
在训练开始之时,卷积层的滤波器完全是随机的,他们不会有任何特征激活。把一个空白的滤波器,修改其权重(weights)使他能检测特定的模式,整个过程就像工程的反馈机制。

目录
相关文章
|
9月前
|
机器学习/深度学习 存储 自然语言处理
卷积神经元网络CNN基础
卷积神经元网络CNN基础
86 1
|
9月前
|
机器学习/深度学习 PyTorch 算法框架/工具
多卷积和卷积,
多卷积和卷积,
|
7月前
|
机器学习/深度学习 计算机视觉
【YOLOv10改进-卷积Conv】RFAConv:感受野注意力卷积,创新空间注意力
【YOLO目标检测专栏】探索空间注意力局限,提出感受野注意力(RFA)机制,解决卷积核参数共享问题。RFAConv增强大尺寸卷积核处理能力,不增加计算成本,提升网络性能。已在YOLOv8中实现,详情见YOLO目标检测创新改进与实战案例专栏。
|
6月前
|
机器学习/深度学习 编解码 计算机视觉
CNN 中卷积层和池化层的作用
【8月更文挑战第15天】
475 0
|
7月前
|
机器学习/深度学习 测试技术 网络架构
【YOLOv10改进-注意力机制】MSCAAttention多尺度卷积注意力
YOLOv10专栏介绍了一种新的卷积网络架构SegNeXt,它在语义分割任务中展现出优于Transformer模型的效率和效果。SegNeXt通过名为Multi-Scale Convolutional Attention (MSCA)的组件,结合局部信息聚合、多尺度上下文捕获和通道关系模拟,提升了性能。在多个数据集上,SegNeXt以较少参数实现了超过现有SOTA的性能,特别是在Pascal VOC 2012上,以1/10的参数量达到90.6%的mIoU。YOLOv10引入了MSCA模块,用于增强目标检测的上下文关注。相关代码和配置详情可在链接中找到。
|
8月前
|
机器学习/深度学习 计算机视觉
技术心得:卷积自编码器CAEs
技术心得:卷积自编码器CAEs
106 0
|
机器学习/深度学习 算法框架/工具 决策智能
DCGAN-深度卷积生成对抗网络-转置卷积
DCGAN-深度卷积生成对抗网络-转置卷积
139 0
|
9月前
|
机器学习/深度学习 计算机视觉 Ruby
【池化层】基础回顾:带你认识神经网络中的池化层
【池化层】基础回顾:带你认识神经网络中的池化层
982 0
【池化层】基础回顾:带你认识神经网络中的池化层
|
机器学习/深度学习 自然语言处理 PyTorch
卷积(Convolution
机器学习中的卷积(Convolution)是一种特殊的数学运算,主要应用于信号处理和图像处理领域。在卷积神经网络(Convolutional Neural Network,简称 CNN)中,卷积操作用于提取图像或其他数据的特征,从而实现分类、回归等任务。卷积的基本思想是将一个函数(信号或图像)与一个卷积核(一个小的函数)进行组合
188 3
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch: 池化-线性-激活函数层
PyTorch: 池化-线性-激活函数层
196 0