深度学习教程 | 卷积神经网络解读

简介: 本节介绍卷积神经网络,覆盖以下内容要点:卷积计算、填充,卷积神经网络单层结构,池化层结构,卷积神经网络典型结构,CNN特点与优势。

ShowMeAI研究中心

作者:韩信子@ShowMeAI
教程地址http://www.showmeai.tech/tutorials/35
本文地址http://www.showmeai.tech/article-detail/221
声明:版权所有,转载请联系平台与作者并注明出处
收藏ShowMeAI查看更多精彩内容


第4门课 卷积神经网络,第1周:卷积神经网络


本系列为吴恩达老师《深度学习专项课程(Deep Learning Specialization)》学习与总结整理所得,对应的课程视频可以在 这里查看。

引言

ShowMeAI前一篇文章 AI应用实践策略(下) 中我们对以下内容进行了介绍:

  • 错误分析(error analysis)
  • 错误标签情况及修正
  • 数据分布和数据不匹配问题及解决办法
  • 迁移学习
  • 多任务学习
  • 端到端学习

本篇开始,我们对吴恩达老师第4门课《Convolutional Neural Networks》(卷积神经网络) 做总结梳理。内容主要覆盖卷积神经网络(CNN)的基本概念、模型和具体应用等。

1.计算机视觉

计算机视觉 Computer Vision


计算机视觉(Computer Vision)的高速发展标志着新型应用产生的可能,例如自动驾驶、人脸识别、创造新的艺术风格。人们对于计算机视觉的研究也催生了很多计算机视觉与其他领域的交叉成果。如下是一些典型的计算机视觉场景应用场景:

计算机视觉的应用


后面部分ShowMeAI会根据吴恩达老师的课程给大家讲到以下CV应用:

  • 图片分类(Image Classification)
  • 目标检测(Object detection)
  • 神经风格转换(Neural Style Transfer)


使用传统神经网络处理机器视觉面临的一个挑战是数据的输入可能会非常大。例如一张 equation?tex=1000%20%5Ctimes%201000%20%5Ctimes%203 的图片,神经网络输入层的维度将高达三百万,使得网络权重 equation?tex=W 非常庞大。这样会造成两个后果:

  • 神经网络结构复杂,数据量相对较少,容易出现过拟合。
  • 所需内存和计算量巨大。

因此,一般的神经网络很难处理海量图像数据。解决这一问题的方法就是使用特殊结构的神经网络:卷积神经网络(Convolutional Neural Network, CNN)

2.卷积运算

前面的文章里讲到过,神经网络由浅层到深层,分别可以检测出不同层次的信息,在计算机视觉中我们依托深度卷积神经网络,来依次学习理解图片的边缘特征、局部特征(例如眼睛、鼻子等),直至最后一层综合前面检测的特征来识别整体图像内容。

卷积神经网络初步


卷积运算(Convolutional Operation)是卷积神经网络最基本的组成部分。我们以边缘检测为例,来解释卷积是怎样运算的。

2.1 边缘检测

边缘检测示例 Edge Detection Example


如下图所示,以人脸识别为例,神经网络由浅层到深层,分别可以检测出图片的边缘特征 、局部特征(例如眼睛、鼻子等)、整体面部轮廓等。

模型层次与作用


图片最常做的边缘检测有两类:垂直边缘(Vertical Edges)检测水平边缘(Horizontal Edges)检测

边缘检测算子


图片的边缘检测可以通过与相应滤波器进行卷积来实现。以垂直边缘检测为例,原始图片尺寸为 equation?tex=6%20%5Ctimes%206 ,中间的矩阵被称作滤波器(filter),尺寸为 equation?tex=3%20%5Ctimes%203 ,卷积后得到的图片尺寸为 equation?tex=4%20%5Ctimes%204 ,得到结果如下(数值表示灰度,以左上角和右下角的值为例):

垂直边缘检测卷积运算


上图只显示了卷积后的第一个值和最后一个值。卷积运算的求解过程是从左到右,由上到下,每次在原始图片矩阵中取与滤波器同等大小的一部分,每一部分中的值与滤波器中的值对应相乘后求和,将结果组成一个矩阵。

下图对应一个垂直边缘检测的例子:

垂直边缘检测卷积运算


如果将最右边的矩阵当作图像,那么中间一段亮一些的区域对应最左边的图像中间的垂直边缘。

这里有另一个卷积运算的动态的例子,方便理解:

卷积运算


图中的 * 表示卷积运算符号。在计算机中这个符号表示一般的乘法,而在不同的深度学习框架中,卷积操作的API定义可能不同:

  • Python中,卷积用 conv_forward() 表示;
  • Tensorflow中,卷积用 tf.nn.conv2d() 表示;
  • Keras中,卷积用 Conv2D() 表示。

2.2 更多边缘检测的例子

更多边缘检测内容 More Edge Detection


如果将灰度图左右的颜色进行翻转,再与之前的滤波器进行卷积,得到的结果也有区别。实际应用中,这反映了由明变暗和由暗变明的两种渐变方式。可以对输出图片取绝对值操作,以得到同样的结果。

更多边缘检测算子-卷积运算


垂直边缘检测滤波器水平边缘检测滤波器如下所示,其他常用的滤波器还有Sobel滤波器Scharr滤波器,它们增加了中间行的权重,以提高结果的稳健性。

更多边缘检测算子


滤波器中的值还可以设置为参数,通过模型训练来得到。这样,神经网络使用反向传播算法可以学习到一些低级特征,从而实现对图片所有边缘特征的检测,而不仅限于垂直边缘和水平边缘。

3.填充padding

Padding


观察上述卷积图片,我们假设输入图片的大小为 equation?tex=n%20%5Ctimes%20n ,而滤波器的大小为 equation?tex=f%20%5Ctimes%20f (注意 equation?tex=f 一般为奇数),则卷积后的输出图片大小为 equation?tex=%28n-f%2B1%29%20%5Ctimes%20%28n-f%2B1%29

这样的处理会带来两个问题:

  • 每次卷积运算后,输出图片的尺寸缩小。
  • 原始图片的角落、边缘区像素点在输出中采用较少,输出图片丢失边缘位置的很多信息。

填充 padding


为了解决这些问题,可以在进行卷积操作前,对原始图片在边界上进行填充(Padding),以增加矩阵的大小,保证输出的尺寸以及边缘位置信息的有效利用。我们通常用 equation?tex=0 进行填充。

设每个方向扩展像素点数量为 equation?tex=p ,则填充后原始图片的大小为 equation?tex=%28n%2B2p%29%20%5Ctimes%20%28n%2B2p%29 ,滤波器大小保持 equation?tex=f%20%5Ctimes%20f 不变,则输出图片大小为 equation?tex=%28n%2B2p-f%2B1%29%20%5Ctimes%20%28n%2B2p-f%2B1%29

填充 padding


有两种对于 equation?tex=p 的设置是最常见的:

  • Valid卷积:不进行填充,直接卷积。结果大小为 equation?tex=%28n-f%2B1%29%20%5Ctimes%20%28n-f%2B1%29
  • Same卷积:进行填充,并保证卷积后结果大小与输入一致,此时 equation?tex=p%20%3D%20%5Cfrac%7Bf-1%7D%7B2%7D

在计算机视觉领域, equation?tex=f 通常为奇数。原因包括 Same 卷积中 equation?tex=p%20%3D%20%5Cfrac%7Bf-1%7D%7B2%7D 能得到自然数结果,并且滤波器有一个便于表示其所在位置的中心点。

4.卷积步长

卷积步长 Strided Convolutions


卷积过程中,有时需要通过填充来避免信息损失,有时也需要通过设置步长(Stride)来压缩一部分信息。

步长表示滤波器在原始图片的水平方向和垂直方向上每次移动的距离。之前,步长被默认为 equation?tex=1。而如果我们设置步长为2,则卷积过程如下图所示:

卷积步长


卷积步长


设步长stride为 equation?tex=s ,padding填充大小为 equation?tex=p ,输入图片大小为 equation?tex=n%20%5Ctimes%20n ,滤波器大小为 equation?tex=f%20%5Ctimes%20f ,则卷积后图片的尺寸为:

equation?tex=%5Cbiggl%5Clfloor%20%5Cfrac%7Bn%2B2p-f%7D%7Bs%7D%2B1%20%5Cbiggr%5Crfloor%20%5Ctimes%20%5Cbiggl%5Clfloor%20%5Cfrac%7Bn%2B2p-f%7D%7Bs%7D%2B1%20%5Cbiggr%5Crfloor

上述公式中有一个向下取整的符号,用于处理商不为整数的情况。

我们前面看到的「卷积」实际上是互相关(cross-correlation),而非数学意义上的卷积。真正的卷积操作在做元素乘积求和之前,要将滤波器沿水平和垂直轴翻转(相当于旋转180度)

卷积步长


因为这种翻转对一般为水平或垂直对称的滤波器影响不大,按照机器学习的惯例,我们通常不进行翻转操作,在简化代码的同时使神经网络能够正常工作。

5.高维卷积

三维卷积 Convolutions over Volumes


如果我们想要对三通道的RGB图片进行卷积运算,那么其对应的滤波器组也同样是三通道的。过程是将每个单通道 equation?tex=%28R%2CG%2CB%29 与对应的滤波器进行卷积运算求和,然后再将三个通道的和相加,将这27个乘积的和作为输出图片的一个像素值。

高维卷积

实际的计算过程也同样会滑动覆盖所有输入通道和图片全部输入像素,如下动图所示:

高维卷积


不同通道的滤波器可以不相同。例如只检测 equation?tex=R 通道的垂直边缘, equation?tex=G 通道和 equation?tex=B 通道不进行边缘检测,则 equation?tex=G 通道和 equation?tex=B 通道的滤波器全部置零。

当输入有特定的高、宽和通道数时,滤波器可以有不同的高和宽,但通道数必须和输入一致。

如果想同时检测垂直和水平边缘,或者更多的边缘检测,可以增加更多的滤波器组。例如第1个滤波器组实现垂直边缘检测,第2个滤波器组实现水平边缘检测。

高维卷积


设输入图片的尺寸为 equation?tex=n%20%5Ctimes%20n%20%5Ctimes%20n_c ( equation?tex=n_c 为通道数),滤波器尺寸为 equation?tex=f%20%5Ctimes%20f%20%5Ctimes%20n_c ,则卷积后的输出图片尺寸为 equation?tex=%28n-f%2B1%29%20%5Ctimes%20%28n-f%2B1%29%20%5Ctimes%20n%5Cprime_cequation?tex=n%20%5Cprime_c 为滤波器组的个数。

如下动图为2个滤波器对输入进行卷积计算得到输出的过程。

高维卷积


6.卷积神经网络单层结构

单层卷积网络 One Layer of a Convolutional Network

6.1 CNN单层结构

卷积神经网络的单层结构如下所示:与上面提到的卷积过程相比较,卷积神经网络的单层结构多了激活函数(上图使用的ReLU)和偏置量b;

卷积神经网络单层结构


对比标准神经网络:

equation?tex=Z%5E%7B%5Bl%5D%7D%20%3D%20W%5E%7B%5Bl%5D%7DA%5E%7B%5Bl-1%5D%7D%2Bb

equation?tex=A%5E%7B%5Bl%5D%7D%20%3D%20g%5E%7B%5Bl%5D%7D%28Z%5E%7B%5Bl%5D%7D%29

卷积神经网络把上式中 equation?tex=W%5E%7B%5Bl%5D%7Dequation?tex=A%5E%7B%5Bl-1%5D%7D 的乘积运算换成了卷积运算,滤波器的取值对应着权重 equation?tex=W%5E%7B%5Bl%5D%7D ,激活函数选择ReLU。

我们重点来看一下上图中参数的数目:每个滤波器组有 equation?tex=3%20%5Ctimes%203%20%5Ctimes%203%20%3D%2027 个参数,还有1个偏移量b,则每个滤波器组有 equation?tex=27%2B1%3D28 个参数,两个滤波器组总共包含 equation?tex=28%20%5Ctimes%202%20%3D%2056 个参数。

而且大家会发现,一旦确定滤波器组,则参数数量就确定了,它与输入图片尺寸无关。大尺寸的图片也并不会在卷积层带来巨大的参数量。

一张 equation?tex=1000%20%5Ctimes%201000%20%5Ctimes%203 的图片,标准神经网络输入层的维度将达到3百万,而在CNN中,参数数目只由滤波器组决定,数目相对来说要少得多,在如上的卷积神经网络层结构中,依旧只需要 equation?tex=56 个参数。

6.2 CNN标记符号梳理总结

为了更规范,我们来约定一下CNN单层结构标记符号,设 equation?tex=l 层为卷积层:

  • equation?tex=f%5E%7B%5Bl%5D%7D :滤波器的高(或宽)
  • equation?tex=p%5E%7B%5Bl%5D%7D :填充长度
  • equation?tex=s%5E%7B%5Bl%5D%7D :步长
  • equation?tex=n%5E%7B%5Bl%5D%7D_c :滤波器组的数量
  • 输入维度: equation?tex=n%5E%7B%5Bl-1%5D%7D_H%20%5Ctimes%20n%5E%7B%5Bl-1%5D%7D_W%20%5Ctimes%20n%5E%7B%5Bl-1%5D%7D_c


其中 equation?tex=n%5E%7B%5Bl-1%5D%7D_H 表示输入图片的高, equation?tex=n%5E%7B%5Bl-1%5D%7D_W 表示输入图片的宽。之前的示例中输入图片的高和宽都相同,但是实际中可以是不同的,我们在这里加上下标予以区分。

  • 每个滤波器组的维度: equation?tex=f%5E%7B%5Bl%5D%7D%20%5Ctimes%20f%5E%7B%5Bl%5D%7D%20%5Ctimes%20n%5E%7B%5Bl-1%5D%7D_c。其中 equation?tex=n%5E%7B%5Bl-1%5D%7D_c 为输入图片通道数(也称深度)。
  • 权重维度equation?tex=f%5E%7B%5Bl%5D%7D%20%5Ctimes%20f%5E%7B%5Bl%5D%7D%20%5Ctimes%20n%5E%7B%5Bl-1%5D%7D_c%20%5Ctimes%20n%5E%7B%5Bl%5D%7D_c
  • 偏置维度equation?tex=1%20%5Ctimes%201%20%5Ctimes%201%20%5Ctimes%20n%5E%7B%5Bl%5D%7D_c
  • 输出维度: equation?tex=n%5E%7B%5Bl%5D%7D_H%20%5Ctimes%20n%5E%7B%5Bl%5D%7D_W%20%5Ctimes%20n%5E%7B%5Bl%5D%7D_c

其中

equation?tex=n%5E%7B%5Bl%5D%7D_H%20%3D%20%5Cbiggl%5Clfloor%20%5Cfrac%7Bn%5E%7B%5Bl-1%5D%7D_H%2B2p%5E%7B%5Bl%5D%7D-f%5E%7B%5Bl%5D%7D%7D%7Bs%5E%7B%5Bl%5D%7D%7D%2B1%20%5Cbiggr%5Crfloor

equation?tex=n%5E%7B%5Bl%5D%7D_W%20%3D%20%5Cbiggl%5Clfloor%20%5Cfrac%7Bn%5E%7B%5Bl-1%5D%7D_W%2B2p%5E%7B%5Bl%5D%7D-f%5E%7B%5Bl%5D%7D%7D%7Bs%5E%7B%5Bl%5D%7D%7D%2B1%20%5Cbiggr%5Crfloor

对于m个样本的向量化运算,相应的输出维度为: equation?tex=m%20%5Ctimes%20n%5E%7B%5Bl%5D%7D_H%20%5Ctimes%20n%5E%7B%5Bl%5D%7D_W%20%5Ctimes%20n%5E%7B%5Bl%5D%7D_c

7.简单卷积网络示例

简单卷积网络示例 A Simple Convolution Network Example


下图为1个简单的CNN模型,我们来分析一下它的结构:

简单卷积网络示例

图示网络中, equation?tex=a%5E%7B%5B3%5D%7D 的维度为 equation?tex=7%20%5Ctimes%207%20%5Ctimes%2040 ,将其平展成1960维的单列形式,然后连接最后的输出层。输出层可以是一个神经元,即二元分类(logistic);也可以是多个神经元,即多分类(Softmax)。最后得到预测输出 equation?tex=%5Chat%20y

在典型的CNN结构里,随着神经网络计算深度不断加深,输入的高度和宽度 equation?tex=n%5E%7B%5Bl%5D%7D_Hequation?tex=n%5E%7B%5Bl%5D%7D_W 一般逐渐减小,而 equation?tex=n%5E%7B%5Bl%5D%7D_c 在增加。

卷积神经网络包含有三种典型的层结构:

  • 卷积层(Convolution layer)
  • 池化层(Pooling layer,也有译作「汇合层」)
  • 全连接层(Fully Connected layer)

仅用卷积层也有可能构建出很好的神经网络,但很多神经网络还是会添加池化层和全连接层,它们更容易设计。

8.池化层

池化层 Pooling Layers

很多CNN中都会包含Pooling layers池化层,池化层的作用是缩减模型的大小,提高计算速度,同时减小噪声提高所提取特征的稳健性。

8.1 最大池化Max Pooling

有不同的池化操作,比较常见的一种叫做最大池化(Max Pooling)。将输入拆分成不同的区域,输出的每个元素都是对应区域中元素的最大值,如下图所示:

池化层/汇聚层 Pooling Layer


类比卷积过程,上图所示的池化过程中相当于使用了一个大小 equation?tex=f%3D2 的滤波器,且池化步长 equation?tex=s%3D2 。卷积过程中的几个计算大小的公式也都适用于池化过程。如果有多个通道,那么就对每个通道分别执行计算过程。

最大池化


对最大池化的一种直观解释是,元素值较大可能意味着池化过程之前的卷积过程提取到了某些特定的特征,池化过程中的最大化操作使得只要在一个区域内提取到某个特征,它都会保留在最大池化的输出中。但是,没有足够的证据证明这种直观解释的正确性,而最大池化被使用的主要原因是它在很多实验中的效果都很好。

8.2 平均池化Average Pooling

还有一种大家可能会见到的池化过程是平均池化(Average Pooling),它会对对应区域求平均值输出:

池化层/汇聚层


平均池化


8.3 池化层总结

池化过程的特点之一是,它有一组超参数,但是并没有参数需要学习。池化过程的超参数包括滤波器的大小 equation?tex=f 、步长 equation?tex=s ,以及选用最大池化还是平均池化。而填充 equation?tex=p 则很少用到。

池化过程的输入维度为: equation?tex=n_H%20%5Ctimes%20n_W%20%5Ctimes%20n_c

输出维度为: equation?tex=%5Cbiggl%5Clfloor%20%5Cfrac%7Bn_H-f%7D%7Bs%7D%2B1%20%5Cbiggr%5Crfloor%20%5Ctimes%20%5Cbiggl%5Clfloor%20%5Cfrac%7Bn_W-f%7D%7Bs%7D%2B1%20%5Cbiggr%5Crfloor%20%5Ctimes%20n_c

9.卷积神经网络示例

卷积神经网络示例 Convolutional Neural Network Example


卷积神经网络示例


在计算神经网络的层数时,通常只统计具有权重和参数的层,因此池化层通常和之前的卷积层共同计为一层。图中的FC3和FC4为全连接层,与标准的神经网络结构一致。整个神经网络各层的尺寸与参数如下表所示:

层次 输出维度 输出大小 参数量
Input (32, 32, 3) 3072 0
CONV1(f=5, s=1) (28, 28, 6) 4704 158
POOL1 (14, 14, 6) 1176 0
CONV2(f=5, s=1) (10, 10, 16) 1600 416
POOL2 (5, 5, 16) 400 0
FC3 (120, 1) 120 48120
FC4 (84, 1) 84 10164
Softmax (10, 1) 10 850

推荐大家通过 直观感受卷积神经网络的网站 对CNN进行调试和可视化。

10.使用卷积的原因

为什么使用卷积?


根据前面的知识学习,大家知道,CNN相比于标准神经网络,能更好地适应高维度的大输入,其卷积设计有效地减少了CNN的参数数量。总结如下:

  • 参数共享(Parameter sharing):特征检测如果适用于图片的某个区域,那么它也可能适用于图片的其他区域。即在卷积过程中,不管输入有多大,一个特征探测器(滤波器)就能对整个输入的某一特征进行探测。
  • 稀疏连接(Sparsity of connections):在每一层中,由于滤波器的尺寸限制,输入和输出之间的连接是稀疏的,每个输出值只取决于输入在局部的一小部分值。

池化的设计,在卷积之后很好地聚合了特征,通过降维来减少运算量。

另外,吴恩达老师也说明了,由于CNN参数数量较小,所需的训练样本就相对较少,因此在一定程度上不容易发生过拟合现象。并且CNN比较擅长捕捉区域位置偏移。即进行物体检测时,不太受物体在图片中位置的影响,增加检测的准确性和系统的健壮性。

参考资料

ShowMeAI系列教程推荐

推荐文章

ShowMeAI用知识加速每一次技术成长

目录
相关文章
|
4天前
|
机器学习/深度学习 自然语言处理 PyTorch
使用Python实现循环神经网络(RNN)的博客教程
使用Python实现循环神经网络(RNN)的博客教程
23 1
|
3天前
|
机器学习/深度学习 算法 TensorFlow
Python深度学习基于Tensorflow(6)神经网络基础
Python深度学习基于Tensorflow(6)神经网络基础
16 2
Python深度学习基于Tensorflow(6)神经网络基础
|
5天前
|
机器学习/深度学习 PyTorch 算法框架/工具
使用Python实现卷积神经网络(CNN)
使用Python实现卷积神经网络(CNN)的博客教程
30 1
|
5天前
|
机器学习/深度学习 并行计算 算法
深度学习之解构卷积
本文介绍了卷积神经网络(CNN)的基本组成和各种卷积操作。CNN在机器视觉任务中扮演重要角色,其组件包括卷积层、pooling层、激活函数和全连接层。卷积层通过卷积核提取特征,pooling层降低维度,参数共享减少计算量。主要讨论了六种卷积类型:空洞卷积用于增加感受野,1x1卷积用于维度调节和通道融合,反卷积实现上采样,深度可分离卷积减少参数,可变形卷积适应不规则特征,3D卷积处理视频等四维数据。这些卷积操作在现代深度学习模型中广泛应用,提高了效率和性能。5月更文挑战第4天
21 2
|
9天前
|
机器学习/深度学习 并行计算 测试技术
BiTCN:基于卷积网络的多元时间序列预测
该文探讨了时间序列预测中模型架构的选择,指出尽管MLP和Transformer模型常见,但CNN在预测领域的应用较少。BiTCN是一种利用两个时间卷积网络来编码历史和未来协变量的模型,提出于《Parameter-efficient deep probabilistic forecasting》(2023年3月)。它包含多个由扩张卷积、GELU激活函数、dropout和全连接层组成的临时块,有效地处理序列数据。实验表明,BiTCN在具有外生特征的预测任务中表现优于N-HiTS和PatchTST。BiTCN的效率和性能展示了CNN在时间序列预测中的潜力。
21 1
|
10天前
|
机器学习/深度学习 人工智能 算法
【AI 初识】什么是卷积神经网络 (CNN)?
【5月更文挑战第2天】【AI 初识】什么是卷积神经网络 (CNN)?
|
11天前
|
机器学习/深度学习 自然语言处理 搜索推荐
|
12天前
|
机器学习/深度学习 PyTorch TensorFlow
【Python机器学习专栏】卷积神经网络(CNN)的原理与应用
【4月更文挑战第30天】本文介绍了卷积神经网络(CNN)的基本原理和结构组成,包括卷积层、激活函数、池化层和全连接层。CNN在图像识别等领域表现出色,其层次结构能逐步提取特征。在Python中,可利用TensorFlow或PyTorch构建CNN模型,示例代码展示了使用TensorFlow Keras API创建简单CNN的过程。CNN作为强大深度学习模型,未来仍有广阔发展空间。
|
12天前
|
机器学习/深度学习 自然语言处理 语音技术
【Python 机器学习专栏】Python 深度学习入门:神经网络基础
【4月更文挑战第30天】本文介绍了Python在深度学习中应用于神经网络的基础知识,包括神经网络概念、基本结构、训练过程,以及Python中的深度学习库TensorFlow和PyTorch。通过示例展示了如何使用Python实现神经网络,并提及优化技巧如正则化和Dropout。最后,概述了神经网络在图像识别、语音识别和自然语言处理等领域的应用,并强调掌握这些知识对深度学习的重要性。随着技术进步,神经网络的应用将持续扩展,期待更多创新。
|
13天前
|
机器学习/深度学习 人工智能 自然语言处理
工智能基础:神经网络与深度学习
【4月更文挑战第30天】本文探讨了神经网络和深度学习在AI中的核心作用。深度学习,特别是CNN和RNN/LSTM,用于图像和序列数据处理。训练过程涉及前向传播、损失函数和反向传播。关键技术包括梯度下降、正则化和批量归一化。应用广泛,如图像识别、自然语言处理、推荐系统和游戏。随着技术发展,深度学习的应用将持续增长。