【学习记录】《DeepLearning.ai》第四课:深层神经网络(Deep L-layer neural network)

简介: 2121/9/4第四课结束

第四课:深层神经网络(Deep L-layer neural network)

4.1 深层神经网络

主要需要掌握一些符号,如下图:

image


4.2 前向传播和反向传播(Forward and backward propagation)

​ 反向传播的向量化实现:

image


4.3 深层网络中的前向传播(Forward propagation in a Deep Network)

对于前项传播向量化实现过程可以归纳为多次迭代如下公式:

$$ Z^{[l]}=W^{[l]}A^{[l-1]}+b{[l]}(l表示层数)\\ A^{[l]}=g^{[l]}(Z^{[l]})其中(A^{[0]}=X) $$

该过程是在整个训练集上进行的,而且要遍历每一层,需要用到一个显式for循环,从1到L进行遍历。


4.4 核对矩阵的维度(Getting your matrix dimensions right)

对于单个训练样本:

$$ z^{[l]}=w^{[l]}a^{[l-1]}+b{[l]}(l表示层数)\\ a^{[l]}=g^{[l]}(z^{[l]})其中(a^{[0]}=x) $$

其中对应矩阵的维度如下:

$$ z^{[l]}或a^{[l]}:(n^{[l]},1)\\ w^{[l]}或dw^{[l]}:(n^{[l]},n^{[l-1]})\\ b^{[l]}或db^{[l]}:(n^{[l]},1) $$

对于向量化m个样本后的矩阵:

$$ Z^{[l]}=W^{[l]}A^{[l-1]}+b{[l]}(l表示层数)\\ A^{[l]}=g^{[l]}(Z^{[l]})其中(A^{[0]}=X) $$

其中对应矩阵的维度如下:

$$ Z^{[l]}、dZ^{[l]}、A^{[l]}、dA^{[l]}:(n^{[l]},m)\\ W^{[l]}或dW^{[l]}:(n^{[l]},n^{[l-1]})\\ b^{[l]}或db^{[l]}:(n^{[l]},m)\\ l=0时,A^{[0]}=X=(n^{[l]},m) $$


4.5 为什么使用深层表示?

PASS


4.6 搭建神经网络块

介绍整个传播步骤:

image

如上图,上面一行蓝色箭头表示正向传播的过程,其中得到了缓存$cache z^{[l]}$​​​​用于反向传播,红色箭头表示反向传播的过程,方框中的参数是整个过程中所需要的参数,整个绿色箭头表示了整个神经网络的过程,得到:

$$ W^{[l]}=W^{[l]}-\alpha{d}W^{[l]}\\ b^{[l]}=b^{[l]}-\alpha{d}b^{[l]} $$


4.7 参数 VS 超参数(Parameters Vs Hyperparameters)

要想使得神经网络起到很好的效果,必须规划参数以及超参数。

参数:

$W^{[l]},b^{[l]}$

超参数:

算法中的学习率($\alpha$​​),梯度下降法循环的迭代次数,隐藏层的数目(L),隐藏层单元数目($n^{[l]}$​,激活函数的选择,这些参数控制着最后的参数$W,b$的值,因此称为超参数。

如何寻找超参数的最优值:

image

走Idea—Code—Experiment—Idea这个循环 尝试各种不同的参数 实现模型并观察是
否成功,然后再迭代。


4.8 深度学习和大脑的关联性

毫无关联!

OVER!

相关文章
|
1月前
|
监控 网络协议 Linux
网络学习
网络学习
132 68
|
5天前
|
网络协议 网络架构
网络协议介绍与学习
网络协议介绍与学习
18 4
|
5天前
|
网络协议 网络安全 数据安全/隐私保护
网络基础知识学习
如果你打算深入学习网络技术,建议从上述基础知识入手,并逐渐扩展到更高级的主题,如网络编程、网络安全、网络管理等。同时,实践是学习网络技术的关键,可以通过搭建自己的小型网络环境来进行实验和探索。
10 2
|
1月前
|
网络协议 安全 网络安全
网络基础知识学习
【9月更文挑战第1天】
47 0
|
2月前
|
前端开发 算法 网络协议
如何学习计算机基础知识,打好前端和网络安全的基础
如何学习计算机基础知识,打好前端和网络安全的基础
38 4
|
2月前
|
网络协议
详解VXLAN网络中报文是如何转发的?值得收藏学习!
详解VXLAN网络中报文是如何转发的?值得收藏学习!
详解VXLAN网络中报文是如何转发的?值得收藏学习!
|
1月前
|
安全 Linux 网络安全
网络安全学习
【9月更文挑战第1天】
53 0
|
2月前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
33 1
|
2月前
|
运维 网络协议 API
入门网络,少不了这份详细的网络基础学习指南!
入门网络,少不了这份详细的网络基础学习指南!
下一篇
无影云桌面