深度学习中的卷积神经网络

简介: 深度学习中的卷积神经网络

2012年,AlexNet横空出世,卷积神经网络从此火遍大江南北。此后无数人开始研究,卷积神经网络终于在图像识别领域超过人类,那么卷积神经网络有什么神奇?下面我们来了解了解。


卷积神经网络基本结构


与最早的神经网络不同,除了全连接之外,卷积神经网络加入了卷积层和池化层。卷积层和我们在传统计算机视觉中的卷积极为相似,而池化层主要用于减少参数的数量,防止过拟合。


54cb050da2678dac3663e41aa68be372_93c3bb5efa7a4dbeb782ed0c1f811643.jpeg


卷积层


卷积层,英文名convolution layer,卷积层是卷积神经网络的核心,每个卷积层由多个卷积核组成。当输入图像经过卷积核时,每个通道的图像会与每个卷积核进行卷积操作。



07c0f9b024369b30a31b3b08bdb9bd8.png


41917457df20200f58ea9b6b87802659_fe0f0233b35e432b9709317b618e15ae.jpeg


输入图片经过卷积层后变为多通道输出。具体操作如下图:


7e289810c41829af3d91557e9ed162c0_f6be141cfacd4f86995a7953ba61ca23.jpeg


下面这张图片可能更加清楚:


def32ddfd37a611065939c8b3e761d06_fd3e95ba76e641fd87c1b506d5717c3a.gif


一般的情况下,如果输入图像的大小为n1*n2,卷积核的大小为m1*m2,(mi<ni).卷积后,卷积核水平滑动距离为s1,竖直滑动距离为s2,则输出图像大小为k1*k2,


1684406931837.png


这里需要注意的是,当卷积核滑动到 图片末尾时,当剩余的像素数量不够一次滑动时,会自动忽略剩余的像素。由于这种卷积方式会忽略边缘的像素(边缘的像素只计算一次,而中心的像素被计算多次),所以有了第二种卷积方式,我们称之为填充(padding),很简单,在边缘之外加入像素值为0的行和列。这样,新的像素值为0的行和列变为新的边缘,而旧的边缘则变为内部的像素,从而可以被计算多次。


02a40590cd8c6bd26f73979c2c19c88d_1742f2fe52c040758882f8b8b15934af.jpeg


padding操作卷积后特征大小为:



1684406945786.png



Floor表示向下取整,p1和p2表示padding补充单列0的行和列。


最后,如果卷积核的数量为n,则输出特征图片共有n个通道。如果输入图像通道数为c,则每个卷积核的通道数为c,卷积层的参数个数为:每个卷积核大小×c×n。


池化层


池化层,英文名(pooling layer),将图片分成一个一个池子,每个池子输出一个值。池化层可以扩大或者缩小图像的大小,而且还能保证图片的像素不发生变化。常用的池化层:


1684406975790.png


假设池化层的参数为m1*m2,输入图像大小为n1*n2,则输出图像大小为 ,输入图像和输出图像的通道相同。池化层也有stride和padding操作,同卷积层的操作规则一样。


0aa9552e9def9ac1024d285111386644_49211d1162b848e0b6a2961af579df2e.jpeg


全连层


全连接层与最早的人工神经网络的线性层一样。但是,图象是二维的,我们常用的全连接层是一维的,所以我们想要将其“压扁”为一维:


1684406990288.png


全连接层的作用相当于对输入向量左乘矩阵,假设输入向量为x,全连接层对应矩阵为W,输出为'x':



075d122dfce685224ff7c50a0f9ddb13_576e5aeda8554fbf870cc58ab5289549.jpeg



Softmax激活函数


在卷积神经网络的最后一层,激活函数与之前每一层的的激活函数不同。由于最后一层要作为分类的结果,我们希望输出结果(一维向量的值)为各分类的概率,那么概率最大的那个分类就是我们得到的预测结果。例如输出为[0.2,0.3,0.4,0.1,0.1],那么我们就以第三类为预测结果。


如何使输出的结果为概率值?这里就需要用到Softmax激活函数。为了使得输出结果为概率值,首先我们需要将每一个值限制在0~1.其次是需要一个向量所有值的和为1,最后函数应该为单调递增的函数。所以我们选用归一化的指数函数作为激活函数式:


4fb08eebc8754ba53790e0383ea2768c_85df97a309a840b48cf62b424d419462.jpeg




交叉熵损失


最后,我们使用交叉熵损失作为损失函数,主要是因为这种损失使得我们一开始的训练速度很快。交叉熵的概念从熵的概念引申而来,所以计算公式非常相似。假设我们的输出直播为X=[x1,x2,x3,x4,x5,,,,xn],标签为Y=[y1,y2,y3,,,yn],则损失函数的值为:


1684407015395.png


AlexNet详解


我们现在来解析一下AlexNet的结构。首先输入图像大小为227x227x3.


第一层为卷积层,卷积核大小为11x11,共96个卷积核,由两个GPU分别训练,滑动步长为4,激活函数为ReLU,所以输出图像的特征大小为55x55x96.
第二层为池化层,核大小为3x3,每次滑动步长为2,所以图片大小为27x27x96((55-3)/2+1)
第三层为卷积层,卷积核大小为5x5,共256个卷积核,每次滑动步长为1,对图像做两个像素的填充,激活函数为ReLU,所以输出特征图为27x27x256(其中27+2x2-5+1).
第四层为池化层,核大小为3x3,每次滑动步长为2,所以输出图像大小为13x13x256((27-3)/2+1)。
第五层为卷积层,卷积核大小为3x3,共384个卷积核,每次滑动步长为1,对图像做一个像素的填充,激活函数为ReLU,所以输出特征图为13x13x384(其中13+1x2-3+1=13).
第六层为卷积层,卷积核大小为3x3,共384个卷积核,每次滑动步长为1,对图像做一个像素的填充,激活函数为ReLU,所以输出特征图为13x13x384(其中13+1x2-3+1=13).
第七层为卷积层,卷积核大小为3x3,共256个卷积核,每次滑动步长为1,对图像做一个像素的填充,激活函数为ReLU,所以输出特征图为13x13x256(其中13+1x2-3+1=13).
第四层为池化层,核大小为3x3,每次滑动步长为2,所以输出图像大小为6x6x256((13-3)/2+1=6).
之后将特征图重构为至一维:9216x1.
第九层为全连接层,输出为4096x1,激活函数为ReLU。
第十层为Dropout层,神经元激活的概率为0.5.
第十一层为全连接层,输出为4096x1,激活函数为ReLU。
第十二层为Droupout层,神经元激活的概率为0.5.
第十三层,也是最后一层为全连接层,输出为1000x1,激活函数为Softmax。
最后使用交叉熵损失进行多分类训练。


前面说了,图像最好是227x227大小,这是因为经过所有的处理,他们的除都是整数,比较方便处理,所以最好设定为227x227x3大小。


总共的参数个数就为:62367776(59.5M)。


卷积神经网络的优点


卷积神经网络现在比全连接神经网络更获得原因:


第一,减少了网络参数,例如大小为28x28x3的图像,经过3x3x32的卷积层,输出为28x28x32的特征图,卷积层的参数为3x3x3x32=864,而如果使用一个全连接层,参数数量为28x28x3x28x28x32=59006976,大了几个数量级,由于减少了网络参数,大大减少了过拟合的可能,从而增加了网络的准确率。


第二,保留了局部特征,由于卷积层比起全连接层更注重局部特征,更能对较小的物体进行识别,而图像中的物体往往占整个图像的比例不高,所以物体的局部特征更重要。


第三,卷积层具有平移不变性。就是说,相同的两个图片,无论卷积层怎么移动,他们的输出值是一样的,不会变。


好了,本节内容就到此结束了,下一节我们学习Tensorflow深度学习,拜拜了你嘞!


相关文章
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习的奥秘:探索神经网络的核心原理
本文将深入浅出地介绍深度学习的基本概念,包括神经网络的结构、工作原理以及训练过程。我们将从最初的感知机模型出发,逐步深入到现代复杂的深度网络架构,并探讨如何通过反向传播算法优化网络权重。文章旨在为初学者提供一个清晰的深度学习入门指南,同时为有经验的研究者回顾和巩固基础知识。
25 11
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习的魔法:如何用神经网络解锁数据的奥秘
在人工智能的璀璨星空中,深度学习犹如一颗最亮的星,它以其强大的数据处理能力,改变了我们对世界的认知方式。本文将深入浅出地介绍深度学习的核心概念、工作原理及其在不同领域的应用实例,让读者能够理解并欣赏到深度学习技术背后的奇妙和强大之处。
15 3
|
5天前
|
机器学习/深度学习 人工智能 算法
深度学习的奥秘:探索神经网络的魔法
在本文中,我们将一起踏上一场奇妙的旅程,探索深度学习背后的科学奥秘。通过简单易懂的语言和有趣的比喻,我们将解锁神经网络的强大力量,并了解它们如何改变我们的世界。无论你是科技爱好者还是对人工智能充满好奇的朋友,这篇文章都将为你打开一扇通往未来的大门。
|
2天前
|
机器学习/深度学习 自然语言处理 自动驾驶
CNN的魅力:探索卷积神经网络的无限可能
卷积神经网络(Convolutional Neural Networks, CNN)作为人工智能的重要分支,在图像识别、自然语言处理、医疗诊断及自动驾驶等领域展现了卓越性能。本文将介绍CNN的起源、独特优势及其广泛应用,并通过具体代码示例展示如何使用TensorFlow和Keras构建和训练CNN模型。
|
2天前
|
机器学习/深度学习 数据采集 数据可视化
深度学习实践:构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行分类
本文详细介绍如何使用PyTorch构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行图像分类。从数据预处理、模型定义到训练过程及结果可视化,文章全面展示了深度学习项目的全流程。通过实际操作,读者可以深入了解CNN在图像分类任务中的应用,并掌握PyTorch的基本使用方法。希望本文为您的深度学习项目提供有价值的参考与启示。
|
3天前
|
编解码 人工智能 文件存储
卷积神经网络架构:EfficientNet结构的特点
EfficientNet是一种高效的卷积神经网络架构,它通过系统化的方法来提升模型的性能和效率。
9 1
|
2天前
|
机器学习/深度学习 人工智能 监控
深度学习浪潮中的轻舟:探索卷积神经网络的奥秘
在这个数据泛滥的时代,深度学习如同一艘巨轮,在知识的海洋中破浪前行。然而,在这艘巨轮上,有一个小小的角落常常被人忽视—那就是卷积神经网络(CNN)。本文将带领读者一探究竟,从CNN的核心概念到其在实际中的应用,我们将用通俗易懂的语言,揭开这一技术神秘面纱,让每一位对深度学习感兴趣的朋友都能轻松理解并应用CNN。
10 0
|
2天前
|
机器学习/深度学习 人工智能
深度学习中的正则化技术及其应用
【9月更文挑战第8天】在深度学习的探索之旅中,正则化技术如同指南针,引导我们穿越过拟合的迷雾。本文将深入浅出地介绍几种常见的正则化方法,并通过实际代码示例揭示它们如何在模型训练中发挥作用。从L1和L2正则化的基本概念出发,到Dropout技术的随机性之美,再到数据增强的多样性魅力,我们将一起见证这些技术如何提升模型的泛化能力。你将发现,正则化不仅是防止过拟合的技术手段,更是深度学习艺术的一部分。让我们开始这段探索之旅,解锁深度学习中正则化的奥秘。
21 10
|
1天前
|
机器学习/深度学习 人工智能 监控
深度学习在图像识别中的应用与挑战
随着人工智能的迅猛发展,深度学习技术在多个领域展现出强大的潜力和价值。特别是在图像识别方面,深度学习不仅推动了技术的边界,也带来了新的商业机会和社会效益。本文将探讨深度学习在图像识别领域的应用,分析其面临的主要挑战,并提出未来可能的发展方向。通过实例和数据支持,我们将深入了解这项技术如何改变我们的工作和生活方式。
|
8天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
深度学习在图像识别中的应用与挑战
【9月更文挑战第2天】本文将探讨深度学习技术如何在图像识别领域大放异彩,并分析其面临的主要挑战。我们将通过一个实际的代码示例,展示如何利用深度学习模型进行图像分类任务,从而让读者对深度学习在图像识别中的应用有一个直观的理解。
45 22