作者从神经网络简单的数学定义开始,沿着损失函数、激活函数和反向传播等方法进一步描述基本的优化算法。在理解这些基础后,本文详细描述了动量法等当前十分流行的学习算法。此外,本系列将在后面介绍 Adam 和遗传算法等其它重要的神经网络训练方法。
I. 简介
本文是作者关于如何「训练」神经网络的一部分经验...
作者:Matthew Stewart
文章来源:微信公众号 数据派THU
翻译:车前子
校对:陈丹
----
本文的知识将提供一个强有力的基础,带你入门神经网络的性能,应用于深度学习应用。
“你的大脑并不产生思想。你的思想塑造了神经网络。”——Deepak Chopra
引文
J. Noceda...
文章初商
2019-08-28
1350浏览量
带你读《基于浏览器的深度学习 》之一:深度学习
智能系统与技术丛书 点击查看第二章点击查看第三章基于浏览器的深度学习 Deep Learning in the Browser
[ 法 ] 泽维尔·布里(Xavier Bourry) [ 美 ] 佐佐木凯(Kai Sasaki) [ 奥地利 ] 克里斯托夫·科纳( Christoph K.r...
文章温柔的养猫人
2019-11-12
397浏览量
吴恩达导师Michael I.Jordan学术演讲:如何有效避开鞍点(视频+PPT)
机器学习中,非凸优化中的一个核心问题是鞍点的逃逸问题。梯度下降法(GD,Gradient Descent)一般可以渐近地逃离鞍点,但是还有一个未解决的问题——效率,即梯度下降法是否可以加速逃离鞍点。
加州大学伯克利分校教授Michael I. Jordan(吴恩达的导师)就此做了研究,即,使用合理...