第三周:浅层神经网络

简介: 前面的课程中,我们已经使用计算图的方式介绍了逻辑回归梯度下降算法的正向传播和反向传播两个过程。如下图所示。神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层/中间层。

1. 神经网络综述


首先,我们从整体结构上来大致看一下神经网络模型。


前面的课程中,我们已经使用计算图的方式介绍了逻辑回归梯度下降算法的正向传播和反向传播两个过程。如下图所示。神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层/中间层。这样从计算上来说,神经网络的正向传播和反向传播过程只是比逻辑回归多了一次重复的计算。正向传播过程分成两层,第一层是输入层到隐藏层,用上标[1]来表示:


2a4fb612169543298faa1595d2112369.png


第二层是隐藏层到输出层,用上标[2]来表示:


bacc4a1cbb3e418b8c38589690467140.png


在写法上值得注意的是,方括号上标[i]表示当前所处的层数;圆括号上标(i)表示第i个样本。


同样,反向传播过程也分成两层。第一层是输出层到隐藏层,第二层是隐藏层到输入层。


20170927081053565.png


2. 神经网络表示


单隐藏层神经网络就是典型的浅层(shallow)神经网络如下图所示。


20170927081305727.png


结构上,从左到右,可以分成三层:输入层(Input layer),隐藏层(Hidden layer)和输出层(Output layer)。输入层和输出层,顾名思义,对应着训练样本的输入和输出,很好理解。隐藏层是抽象的非线性的中间层。


在写法上,我们通常把输入矩阵X记为9091de93309243b9a6d6a6f54ff23219.png,把隐藏层输出记为f126fb72765143e4a7e9dc3a3924e964.png,上标从0开始。用下标表示第几个神经元,注意下标从1开始。例如00fa9699b392441ba382ba955d037f7d.png表示隐藏层第1个神经元,f322964d10624b9b9a49cb4ebb845ad0.png表示隐藏层第2个神经元。这样,隐藏层有4个神经元就可以将其输出写成矩阵的形式:


f9fe6338be854aa1a4b9994729fc15d9.png


最后,相应的输出层记为623747b078a44741b89d6ec0c4189f76.png,即y^。这种单隐藏层神经网络也被称为两层神经网络(2 layer NN)。之所以叫两层神经网络是因为,通常我们只会计算隐藏层输出和输出层的输出,输入层是不用计算的。这也是我们把输入层层数上标记为0的原因(ec5ee87a368f44358eeb2f378d3e0ce1.png)。

bab6f77c5e4b47bdaa2a70857b179b58.png


3. 计算神经网络的输出


接下来我们开始详细推导神经网络的计算过程。两层神经网络可以看成是逻辑回归再重复计算一次。如下图所示,逻辑回归的正向计算可以分解成计算z和a的两部分:


f80a5dc865bd4d0e96348397ea9f0744.png


20170927081331442.png


对于两层神经网络,从输入层到隐藏层对应一次逻辑回归运算;从隐藏层到输出层对应一次逻辑回归运算。每层计算时,要注意对应的上标和下标,一般我们记上标方括号表示layer,下标表示第几个神经元。例如表示第l层的第i个神经元。注意,i从1开始,l从0开始。


下面,我们将从输入层到输出层的计算公式列出来:


581c327bf58c426bb564dc7c5a42dfaa.png


然后,从隐藏层到输出层的计算公式为:


3e7053c9a8ac4d80901901a56575f85d.png


其中a[1]为:


962635056aa9455ea24c1bc10483bd18.png


上述每个节点的计算都对应着一次逻辑运算的过程,分别由计算z和a两部分组成。


为了提高程序运算速度,我们引入向量化和矩阵运算的思想,将上述表达式转换成矩阵运算的形式:


905ccce1747a4a778b6453a308880bb0.png

20170927081521144.png


之前也介绍过,这里顺便提一下,W[1]的维度是(4,3),b[1]的维度是(4,1),W[2]的维度是(1,4),b[2]的维度是(1,1)。这点需要特别注意。


4. 多个变量进行矢量化


上一部分我们只是介绍了单个样本的神经网络正向传播矩阵运算过程。而对于m个训练样本,我们也可以使用矩阵相乘的形式来提高计算效率。而且它的形式与上一部分单个样本的矩阵运算十分相似,比较简单。


8df202fabfca4741a6a2009b3ce0afd9.png


不使用for循环,利用矩阵运算的思想,输入矩阵X的维度为(nx,m)。这样,我们可以把上面的for循环写成矩阵运算的形式:


b3c5cba7a9bc45a89fc519fbbacec9db.png



其中,d749d2eaddb74ec2a9673dbbb71a420a.png的维度是(4,m),4是隐藏层神经元的个数;5b3d1849dd354eb6b15a246468d2a023.png的维度与4738e767c24646068d25c4a093668d07.png相同;ee8473051a4f49c3992ee92ed5171fb0.png1f5cd90d31014615929e6921742f284e.png的维度均为(1,m)。


对上面这四个矩阵来说,均可以这样来理解:行表示神经元个数,列表示样本数目m。


5. 矢量化实现的解释


这部分Andrew用图示的方式解释了m个样本的神经网络矩阵运算过程。其实内容比较简单,只要记住上述四个矩阵的行表示神经元个数,列表示样本数目m就行了。


值得注意的是输入矩阵X也可以写成9c9db1e3eb6140e886b300e0b7e0592c.png


6. 激活函数


神经网络隐藏层和输出层都需要激活函数(activation function),在之前的课程中我们都默认使用Sigmoid函数σ(x)σ(x)作为激活函数。其实,还有其它激活函数可供使用,不同的激活函数有各自的优点。下面我们就来介绍几个不同的激活函数g(x)。


sigmoid函数


20170920120759651.png


tanh函数


20170919091551404.png


ReLU函数


20170919091933651.png


Leaky ReLU函数


20170919092253605.png


如上图所示,不同激活函数形状不同,a的取值范围也有差异。


如何选择合适的激活函数呢?首先我们来比较sigmoid函数和tanh函数。对于隐藏层的激活函数,一般来说,tanh函数要比sigmoid函数表现更好一些。因为tanh函数的取值范围在[-1,+1]之间,隐藏层的输出被限定在[-1,+1]之间,可以看成是在0值附近分布,均值为0。这样从隐藏层到输出层,数据起到了归一化(均值为0)的效果。因此,隐藏层的激活函数,tanh比sigmoid更好一些。


而对于输出层的激活函数,因为二分类问题的输出取值为{0,+1},所以一般会选择sigmoid作为激活函数。


观察sigmoid函数和tanh函数,我们发现有这样一个问题,就是当|z|很大的时候,激活函数的斜率(梯度)很小。因此,在这个区域内,梯度下降算法会运行得比较慢。在实际应用中,应尽量避免使z落在这个区域,使|z|尽可能限定在零值附近,从而提高梯度下降算法运算速度。


为了弥补sigmoid函数和tanh函数的这个缺陷,就出现了ReLU激活函数。ReLU激活函数在z大于零时梯度始终为1;在z小于零时梯度始终为0;z等于零时的梯度可以当成1也可以当成0,实际应用中并不影响。


对于隐藏层,选择ReLU作为激活函数能够保证z大于零时,梯度始终为1,从而提高神经网络梯度下降算法运算速度。但当z小于零时,存在梯度为0的缺点,实际应用中,这个缺点影响不是很大。为了弥补这个缺点,出现了Leaky ReLU激活函数,能够保证z小于零是梯度不为0。


最后总结一下,


如果是分类问题,输出层的激活函数一般会选择sigmoid函数。但是隐藏层的激活函数通常不会选择sigmoid函数,tanh函数的表现会比sigmoid函数好一些。实际应用中,通常会会选择使用ReLU或者Leaky ReLU函数,保证梯度下降速度不会太小。其实,具体选择哪个函数作为激活函数没有一个固定的准确的答案,应该要根据具体实际问题进行验证(validation)。


7. 为什么需要非线性激活函数


我们知道上一部分讲的四种激活函数都是非线性(non-linear)的。那是否可以使用线性激活函数呢?答案是不行!下面我们就来进行简要的解释和说明。


假设所有的激活函数都是线性的,为了简化计算,我们直接令激活函数g(z)=zg,即a=z。那么,浅层神经网络的各层输出为:


995ecc7d1b6d457695a05b3f03063911.png


我们对上式中a[2]进行化简计算:


5f40dfd785e44dea8c5e60e8e38fa7aa.png


经过推导我们发现a[2]仍是输入变量x的线性组合。这表明,使用神经网络与直接使用线性模型的效果并没有什么两样。即便是包含多层隐藏层的神经网络,如果使用线性函数作为激活函数,最终的输出仍然是输入x的线性模型。这样的话神经网络就没有任何作用了。因此,隐藏层的激活函数必须要是非线性的。


另外,如果所有的隐藏层全部使用线性激活函数,只有输出层使用非线性激活函数,那么整个神经网络的结构就类似于一个简单的逻辑回归模型,而失去了神经网络模型本身的优势和价值。


值得一提的是,如果是预测问题而不是分类问题,输出y是连续的情况下,输出层的激活函数可以使用线性函数。如果输出y恒为正值,则也可以使用ReLU激活函数,具体情况,具体分析。


8. 激活函数的导数-梯度


在梯度下降反向计算过程中少不了计算激活函数的导数即梯度。


我们先来看一下sigmoid函数的导数:


4873634160a04035a2c707c71edd2161.png


对于tanh函数的导数:


f9ab51dda48641918036a8243ad59d7c.png


对于ReLU函数的导数:


445f131a19274e92a130725d2b7c810a.png



对于Leaky ReLU函数:


8007b4c2b0dd4692ba9284645e644bbc.png


9. 神经网络的梯度下降法


接下来看一下在神经网络中如何进行梯度计算。


0dc334c1d6164524a05ff946c51d83bb.png


该神经网络正向传播过程为:


46027760896342cba09170eeac3c3360.png



其中,g(⋅)g(⋅)表示激活函数。


反向传播是计算导数(梯度)的过程,这里先列出来Cost function对各个参数的梯度:


e050ee5f2c9847feadec7d5bdcd3fe13.png


反向传播的具体推导过程我们下一部分再进行详细说明。


10. 神经网络反向传播过程(optional)


我们仍然使用计算图的方式来推导神经网络反向传播过程。记得之前介绍逻辑回归时,我们就引入了计算图来推导正向传播和反向传播,其过程如下图所示:


20170927082308231.png


由于多了一个隐藏层,神经网络的计算图要比逻辑回归的复杂一些,如下图所示。对于单个训练样本,正向过程很容易,反向过程可以根据梯度计算方法逐一推导。


623e47d709fd4f909136922ad6a9df5f.png

20170927082510979.png


总结一下,浅层神经网络(包含一个隐藏层),m个训练样本的正向传播过程和反向传播过程分别包含了6个表达式,其向量化矩阵形式如下图所示:


20170927082924477.png


11. Random Initialization


神经网络模型中的参数权重W是不能全部初始化为零的,接下来我们分析一下原因。


举个简单的例子,一个浅层神经网络包含两个输入,隐藏层包含两个神经元。如果权重W[1]和W[2]都初始化为零,即:


9059caf4bccb4de3a7a182e70f16be43.png

5688ea4d84b740b1a7cd93c4c3a7727f.png


我们把这种权重W全部初始化为零带来的问题称为symmetry breaking problem。解决方法也很简单,就是将W进行随机初始化(b可初始化为零)。python里可以使用如下语句进行W和b的初始化:


W_1 = np.random.randn((2,2))*0.01
b_1 = np.zero((2,1))
W_2 = np.random.randn((1,2))*0.01
b_2 = 0


这里我们将b26dc6672ff741c6a4aedd2af7ee7734.png658f9cdac427426bbc927348ae876363.png乘以0.01的目的是尽量使得权重W初始化比较小的值。之所以让W比较小,是因为如果使用sigmoid函数或者tanh函数作为激活函数的话,W比较小,得到的|z|也比较小(靠近零点),而零点区域的梯度比较大,这样能大大提高梯度下降算法的更新速度,尽快找到全局最优解。如果W较大,得到的|z|也比较大,附近曲线平缓,梯度较小,训练过程会慢很多。


当然,如果激活函数是ReLU或者Leaky ReLU函数,则不需要考虑这个问题。但是,如果输出层是sigmoid函数,则对应的权重W最好初始化到比较小的值。


12. 总结


本节课主要介绍了浅层神经网络。


首先,我们简单概述了神经网络的结构:包括输入层,隐藏层和输出层。然后,我们以计算图的方式推导了神经网络的正向输出,并以向量化的形式归纳出来。


接着,介绍了不同的激活函数并做了比较,实际应用中根据不同需要选择合适的激活函数。激活函数必须是非线性的,不然神经网络模型起不了任何作用。


然后,我们重点介绍了神经网络的反向传播过程以及各个参数的导数推导,并以矩阵形式表示出来。


最后,介绍了权重随机初始化的重要性,必须对权重W进行随机初始化操作。

目录
相关文章
|
2月前
|
机器学习/深度学习 存储 自然语言处理
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习还不如浅层网络?RL教父Sutton持续反向传播算法登Nature
【9月更文挑战第24天】近年来,深度学习在人工智能领域取得巨大成功,但在连续学习任务中面临“损失可塑性”问题,尤其在深度强化学习中更为突出。加拿大阿尔伯塔大学的研究人员提出了一种名为“持续反向传播”的算法,通过选择性地重新初始化网络中的低效用单元,保持模型的可塑性。该算法通过评估每个连接和权重的贡献效用来决定是否重新初始化隐藏单元,并引入成熟度阈值保护新单元。实验表明,该算法能显著提升连续学习任务的表现,尤其在深度强化学习领域效果明显。然而,算法也存在计算复杂性和成熟度阈值设置等问题。
46 2
|
机器学习/深度学习 人工智能
二、浅层神经网络
二、浅层神经网络
二、浅层神经网络
|
机器学习/深度学习 人工智能 自然语言处理
深度学习教程 | 浅层神经网络
本文从浅层神经网络入手,讲解神经网络的基本结构(输入层,隐藏层和输出层),浅层神经网络前向传播和反向传播过程,神经网络参数的梯度下降优化,不同的激活函数的优缺点及非线性的原因
346 1
深度学习教程 | 浅层神经网络
|
机器学习/深度学习 算法
浅层神经网络
浅层神经网络
140 0
浅层神经网络
|
机器学习/深度学习
第三周浅层神经网络
第三周浅层神经网络
119 0
第三周浅层神经网络
|
机器学习/深度学习 算法 Python
吴恩达《神经网络与深度学习》精炼笔记(4)-- 浅层神经网络
上节课我们主要介绍了向量化、矩阵计算的方法和python编程的相关技巧。
253 0
吴恩达《神经网络与深度学习》精炼笔记(4)-- 浅层神经网络
|
机器学习/深度学习 资源调度 Python
|
机器学习/深度学习 数据采集 人工智能
搭建浅层神经网络"Hello world"
作为图像识别与机器视觉界的 "hello world!" , MNIST ("Modified National Institute of Standards and Technology") 数据集有着举足轻重的地位。基本上每本人工智能、机器学习相关的书上都以它作为开始。
1082 0
|
机器学习/深度学习 算法 Python
DeepLearning.ai学习笔记(一)神经网络和深度学习--Week3浅层神经网络
介绍 DeepLearning课程总共五大章节,该系列笔记将按照课程安排进行记录。 另外第一章的前两周的课程在之前的Andrew Ng机器学习课程笔记(博客园)&Andrew Ng机器学习课程笔记(CSDN)系列笔记中都有提到,所以这里不再赘述。
1235 0