Andrew Ng机器学习课程笔记--week5(上)

简介: Neural Networks: Learning内容较多,故分成上下两篇文章。一、内容概要Cost Function and BackpropagationCost FunctionBackpropagation AlgorithmBackpropagation Intuitio...

Neural Networks: Learning
内容较多,故分成上下两篇文章。

一、内容概要

  • Cost Function and Backpropagation

    • Cost Function
    • Backpropagation Algorithm
    • Backpropagation Intuition
  • Backpropagation in Practice

    • Implementation Note:Unroll Parameters
    • Gradient Checking
    • Random Initialization
    • Putting it Together
  • Application of Neural Networks

    • Autonomous Driving

二、重点&难点

1.Cost Function and Backpropagation

1) Cost Function

首先定义一下后面会提到的变量

L: 神经网络总层数
Sl:l层单元个数(不包括bias unit)
k:输出层个数

回顾正则化逻辑回归中的损失函数:

\[J(\theta) = - \frac{1}{m} \sum_{i=1}^m [ y^{(i)}\ \log (h_\theta (x^{(i)})) + (1 - y^{(i)})\ \log (1 - h_\theta(x^{(i)}))] + \frac{\lambda}{2m}\sum_{j=1}^n \theta_j^2\]

在神经网络中损失函数略微复杂了些,但是也比较好理解,就是把所有层都算进去了。
\[ \begin{gather*} J(\Theta) = - \frac{1}{m} \sum_{i=1}^m \sum_{k=1}^K \left[y^{(i)}_k \log ((h_\Theta (x^{(i)}))_k) + (1 - y^{(i)}_k)\log (1 - (h_\Theta(x^{(i)}))_k)\right] + \frac{\lambda}{2m}\sum_{l=1}^{L-1} \sum_{i=1}^{s_l} \sum_{j=1}^{s_{l+1}} ( \Theta_{j,i}^{(l)})^2\end{gather*} \]

2)BackPropagation反向传播

更详细的公式推导可以参考http://ufldl.stanford.edu--反向传导算法

下面给出我自己对BP算法的理解以及ufldl上的推导:

img_6c7a067e384a77bbe8b689c20d37bbfc.png

假设神经网络结构如下

神经网络结构

- 1. FP

  1. 利用前向传导公式(FP)计算\(2,3……\) 直到 \({n_l}\)层(输出层)的激活值。
    计算过程如下:

前向传导公式(FP)

- 2. BP


  • 权值更新

首先需要知道的是BP算法是干嘛的?它是用来让神经网络自动更新权重\(W\)的。
这里权重\(W\)与之前线性回归权值更新形式上是一样:

img_f837dcfe452939f137e1bc8687069b16.png

那现在要做的工作就是求出后面的偏导,在求之前进一步变形:

img_30dbf3f983ab627c149b5dd148d59208.png

注意\(J(W,b;x^{(i)},y^{(i)})\)表示的是单个样例的代价函数,而\(J(W,b)\)表示的是整体的代价函数。

所以接下来的工作就是求出\(\frac{∂J(W,b;x,y)}{∂W_{ij^{(l)}}}\),求解这个需要用到微积分中的链式法则,即

\[ \begin{align*} \frac{∂J(W,b;x,y)}{∂W_{ij^{(l)}}} = \frac{∂J(W,b;x,y)}{∂a_{i^{(l)}}} \frac{∂a_{i^{(l)}}}{∂z_{i^{(l)}}} \frac{∂z_{i^{(l)}}}{∂w_{ij^{(l)}}} = a_j^{(l)}δ_i^{(l+1)} \end{align*} \]

img_f828af0397e173bbe1a4e9d18221abeb.jpe

img_4c66b7cb7c13fc0d34392e306a234083.jpe

img_c962369e91a986c47d032e7b00791da2.jpe

更加详细运算过程可以参考[一文弄懂神经网络中的反向传播法——BackPropagation],这篇文章详细的介绍了BP算法的每一步骤。

上面的公式中出现了\(δ\)(误差error),所以后续的目的就是求出每层每个node的\(δ\),具体过程如下:

  • 计算δ

对于第 \(n_l\)层(输出层)的每个输出单元\(i\),我们根据以下公式计算残差:

img_910233ef62481e2f95b2d2f2a71d3a96.png

\(l = n_l-1, n_l-2, ……,3,2\)的各个层,第 \(l\) 层的第 \(i\) 个节点的残差计算方法如下:

img_2054b36b2882d7eabac606ca518f7628.png

将上面的结果带入权值更新的表达式中便可顺利的执行BackPropagation啦~~~

但是!!!需要注意的是上面式子中反复出现的 \(f '(z_i^{(l)})\) ,表示激活函数的导数。这个在刚开始的确困惑到我了,因为视频里老师在演示计算\(δ\)的时候根本就乘以这一项,难道老师错了?其实不是的,解释如下:
常用的激活函数有好几种,但使用是分情况的:

  • 线性情况下:f(z) = z
  • 非线性情况下:(只举一些我知道的例子)
    • sigmoid
    • tanh
    • relu

所以这就是为什么老师在视频中没有乘以 \(f '(z_i^{(l)})\) 的原因了,就是因为是线性的,求导后为1,直接省略了。

另外sigmoid函数表达式为\(f(z)=\frac{1}{1+e^{-z}}\),很容易知道\(f'(z)=\frac{-e^{-z}}{ (1+e^{-z}) ^2 } = f(z)·(1-f(z))\)这也就解释了Coursera网站上讲义的公式是这样的了:

img_6ca0c6140bba3474801c0147794eb250.png


所以现在总结一下BP算法步骤

  1. 进行前馈传导计算,利用前向传导公式,得到\(L_2, L_3, \ldots\)直到输出层 \(\textstyle L_{n_l}\)的激活值。
  2. 对输出层(第 \(\textstyle n_l\)层),计算:
    \(\delta^{(n_l)}= - (y - a^{(n_l)}) \bullet f'(z^{(n_l)})\)
  3. 对于 \(\textstyle l = n_l-1, n_l-2, n_l-3, \ldots, 2\) 的各层,计算:
    \(\delta^{(l)} = \left((W^{(l)})^T \delta^{(l+1)}\right) \bullet f'(z^{(l)})\)
  4. 计算最终需要的偏导数值:
    \[ \begin{align} \nabla_{W^{(l)}} J(W,b;x,y) &= \delta^{(l+1)} (a^{(l)})^T, \\ \nabla_{b^{(l)}} J(W,b;x,y) &= \delta^{(l+1)}. \end{align} \]

使用批量梯度下降一次迭代过程:

  1. 对于所有\(\textstyle l\),令 \(\textstyle \Delta W^{(l)} := 0 , \textstyle \Delta b^{(l)} := 0\) (设置为全零矩阵或全零向量)
  2. 对于\(\textstyle i = 1\)\(\textstyle m\)
    使用反向传播算法计算\(\textstyle \nabla_{W^{(l)}} J(W,b;x,y)\)\(\textstyle \nabla_{b^{(l)}} J(W,b;x,y)\)
    计算\(\textstyle \Delta W^{(l)} := \Delta W^{(l)} + \nabla_{W^{(l)}} J(W,b;x,y)\)
    计算\(\textstyle \Delta b^{(l)} := \Delta b^{(l)} + \nabla_{b^{(l)}} J(W,b;x,y)\)
  3. 更新权重参数:
    \[ \begin{align} W^{(l)} &= W^{(l)} - \alpha \left[ \left(\frac{1}{m} \Delta W^{(l)} \right) + \lambda W^{(l)}\right] \\ b^{(l)} &= b^{(l)} - \alpha \left[\frac{1}{m} \Delta b^{(l)}\right] \end{align} \]

3) Backpropagation Intuition

本小节演示了具体如何操作BP,不再赘述。

具体可参考Coursera讲义

img_aff08017036854c7231798ccdf9e858b.png







MARSGGBO原创





2017-8-3



目录
相关文章
|
机器学习/深度学习 算法 Python
Andrew Ng经典机器学习课程的Python实现2
本文讲述逻辑回归,以及如何克服过度拟合的问题。
2925 0
|
机器学习/深度学习 数据可视化 Python
Andrew Ng经典机器学习课程的Python实现(第1部分)
本文讲述了如何用Python实现Andrew Ng经典机器学习课程。
3281 0
|
机器学习/深度学习 算法 测试技术
Andrew Ng深度学习课程笔记
本文对Andrew Ng深度学习课程进行了大体的介绍与总结,共包括21个课程。
2523 0
|
机器学习/深度学习 算法 自动驾驶
Andrew Ng机器学习课程笔记--week5(下)
Neural Networks: Learning 内容较多,故分成上下两篇文章。 一、内容概要 Cost Function and Backpropagation Cost Function Backpropagation Algorithm Backpropagation Intuitio...
803 0
|
机器学习/深度学习 算法 搜索推荐
Andrew Ng机器学习课程笔记--汇总
笔记总结,各章节主要内容已总结在标题之中 Andrew Ng机器学习课程笔记–week1(机器学习简介&线性回归模型) Andrew Ng机器学习课程笔记--week2(多元线性回归&正规公式) Andrew Ng机器学习课程笔记--week3(逻辑回归&正则化参数) Andrew Ng机器学...
1416 0
|
机器学习/深度学习 分布式计算 算法
Andrew Ng机器学习课程笔记--week10(优化梯度下降)
本周主要介绍了梯度下降算法运用到大数据时的优化方法。 一、内容概要 Gradient Descent with Large Datasets Stochastic Gradient Descent Mini-Batch Gradient Descent Stochastic Gradient ...
950 0
|
机器学习/深度学习 数据挖掘
Andrew Ng机器学习课程笔记--week4(神经网络)
Neural Networks: Representation 一、 内容概要 Neural Network Model Representation 1 Model Representation 2 Applications Examples and Intuitions 1 Examples and Intuitions 2 Multiclass Classification 二、重点&难点 1. Neural Network 1)Model Representation 1 首先需要明确一些符号的意思,以方便后面的阅读。
1059 0
|
机器学习/深度学习 算法 搜索推荐
Andrew Ng机器学习课程笔记--week9(下)(推荐系统&协同过滤)
本周内容较多,故分为上下两篇文章。 本文为下篇。 一、内容概要 1. Anomaly Detection Density Estimation Problem Motivation Gaussian Distribution Algorithm Building an Anomaly D...
1199 0