LeNet-5实现的过程

简介: 【7月更文挑战第28天】LeNet-5实现的过程。

LeNet-5实现的过程
(1) 输入层。输入图像的原始像素,大小为32×32×1,即长、宽为32像素,1通道(Channels),即32×32的灰度照片。
(2)卷积层(第一层)。与输入层相连,接收32×32×1的矩阵数据,卷积核(Convolutions)大小为5×5×6,大小为5,深度为6,填充方式为“VALID”,卷积步长为1,所以根据公式(其中,w为输入尺寸;k为卷积核尺寸;p为填充数量,填充方式为“VALID”时不填充,填充方式为“SAME”时使用全0填充;s为卷积步长),可得这一层的输出尺寸为,深度为6,本层的输出矩阵大小为28×28×6。
(3)池化层(第二层)。前接第一个卷积层,接收28×28×6的矩阵数据,卷积核大小为2×2,即长和宽都是2,步长为2,填充方式为“SAME”。在原始的LeNet-5中,采用的是平均值池化,本层的输出矩阵大小为14×14×6。
(4)卷积层(第三层)。前接第一个池化层,接收14×14×6的矩阵数据,卷积核大小为5×5,深度为16,填充方式为“VALID”,步长为1。本层的输出矩阵大小为10×10×16。
(5)池化层(第四层)。前接第二个卷积层,接收10×10×16的矩阵数据,卷积核大小为2×2,即长和宽都是2,步长为2,填充方式为“SAME”。本层的输出矩阵大小为5×5×16。
(6)全连接层(第五层)。前接第二个池化层,接收5×5×16的矩阵数据,在LeNet-5原始论文中称它为卷积层,但是由于卷积核的大小也是5×5,所以其和全连接层没有区别,本层的输出节点是120个。
(7)全连接层(第六层)。前接第一个全连接层,接收120个节点输入,本层的输出节点是84个。
(8)全连接层,输出层(第七层)。前接第二个全连接层,接收84个节点输入,本层的输出节点是10个。

相关文章
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【PyTorch实战演练】AlexNet网络模型构建并使用Cifar10数据集进行批量训练(附代码)
【PyTorch实战演练】AlexNet网络模型构建并使用Cifar10数据集进行批量训练(附代码)
534 0
|
5月前
LeNet-5实现的过程
【7月更文挑战第25天】LeNet-5实现的过程。
53 12
|
PyTorch 算法框架/工具
ShuffleNet v2网络结构复现(Pytorch版)
ShuffleNet v2网络结构复现(Pytorch版)
ShuffleNet v2网络结构复现(Pytorch版)
|
机器学习/深度学习 Web App开发 人工智能
ConvNeXt网络介绍,搭建以及训练
ConvNeXt网络介绍,搭建以及训练
|
机器学习/深度学习
LeNet讲解以及搭建训练过程
LeNet讲解以及搭建训练过程
|
机器学习/深度学习 算法 数据处理
Backbone 在神经网络中意味着什么?
Backbone 在神经网络中意味着什么?
135 0
|
机器学习/深度学习 计算机视觉 异构计算
AlexNet网络模型讲解搭建以及训练
AlexNet网络模型讲解搭建以及训练
|
机器学习/深度学习 数据采集 PyTorch
我用 PyTorch 复现了 LeNet-5 神经网络(自定义数据集篇)!
详细介绍了卷积神经网络 LeNet-5 的理论部分和使用 PyTorch 复现 LeNet-5 网络来解决 MNIST 数据集和 CIFAR10 数据集。然而大多数实际应用中,我们需要自己构建数据集,进行识别。因此,本文将讲解一下如何使用 LeNet-5 训练自己的数据。
298 0
|
机器学习/深度学习
LeNet5模型与全连接模型的差异
LeNet5模型与全连接模型的差异
119 0
|
机器学习/深度学习
VGG网络与LeNet5网络的对比分析
VGG网络与LeNet5网络的对比分析
116 0