误差反向传播算法-3|学习笔记

简介: 快速学习误差反向传播算法-3

开发者学堂课程【神经网络概览及算法详解:误差反向传播算法-3】学习笔记与课程紧密联系,让用户快速学习知识

课程地址https://developer.aliyun.com/learning/course/40/detail/931


误差反向传播算法-3

 

内容介绍:

一、 损失函数优化:梯度下降法

二、 BP算法:梯度下降法

 

一、 损失函数优化:梯度下降法

确定了损失函数,就需要对损失函数进行优化,求最小值,以平方损失函数(QuadraticLF)为例:L(y,f(x))=(y -f(x))2

求L的梯度:

image.png

假设激活函数选用了sigmoid函数

image.png

求出此时L的梯度;

image.png

//如果激活函数选用了sigmoid函数sigmoid函数本身有一个特点,sigmoid函数本身乘以1减sigmoid函数形式非常优美。

 

二、 BP算法:梯度下降法

image.png

输入向量:X=(x1,x2…xn)T

隐层输出:Y=(y1,y2…ym)T

输出向量:O=(o1,o2…ol)T

期望输出:D=(d1,d2…dl)T

权重矩阵:V=(v1,v2…vm)T

W=(W1,W2…wl)T

//输入层到隐藏层的权重矩阵是v,隐藏层y到最终输入层o的权重矩阵是w,

向前传导的过程:

image.png

//向前传播的过程,从输入层到隐藏层,净输出是image.png求和,隐藏层的实际输出yj=f(netj ),j=1,2...,m作用到净输出上。

隐藏层到最终输出层,首先是净输出用w乘y,最终的输出oj=f(netk),k=1,2...,I函数作用一下。

误差反向传导过程:

image.png

//E等于2分之1,d减o的平方,d是期望输出,o是实际输出,把它带进去。d是已知的,o可以用

oj=f(netk),k=1,2...,I函数表示,netk等于w乘y带入,y可以用yj=f(netj ),j=1,2...,m表示,把y带进去,得到最终误差。

权重更新公式如下:

image.png

//对隐藏层到输出层的权重更新是,等于负η,η是学习率或者学习补偿或者更新补偿,E对w求偏导,E是误差,v等于E对v求偏导。

为了表示起来方便,记:

image.png

//netk是输出层的代数和就是w乘y,激活函数没作用的净输出。

有:

image.png

//E首先对netk  求偏导,netk 在对w求偏导,做一个符号的代换。

image.png

//E首先对netk  求偏导等于E对o求偏导,o在对netk  求偏导,带进去,E等于(d-o)2,对o求偏导,image.png求偏导以后成(dk-ok)。

image.pngimage.png

//同样再去求image.png同样的道理,也是先E对y求偏导,在y对netj 求偏导,y本身是netj的函数,所以image.png转换成image.png。在求前面部分,因为是对y求偏导,刚才应该是ok可以表示成y的函数就等于

image.png平方2乘上来和2分之1消掉,就是(dk-ok),在用image.png这项对y乘偏导,在做一次连续求导,首先这个函数本身求导数,在对应里面求和的一项再对y求导就等于wk就可以了,image.pngimage.png带进去就是

image.png

image.png

//更新权重的时候,直接算出Δwkj和Δvji。Δwkj中η是已知常量,dk是已知期望数据,ok是算出来的,yi是已知的。Δvji也一样,多了个xi,xi也是已知的。O,y都是数据传播中算出来的,才得到误差,才可以算Δw。Δv也一样,像权重w,y等等在数据正向传播中都可以算出来的值,在反向传播中求Δv。用Δw和Δv更新权重。

相关文章
|
3天前
|
机器学习/深度学习 算法 网络架构
什么是神经网络学习中的反向传播算法?
什么是神经网络学习中的反向传播算法?
9 2
|
3天前
|
机器学习/深度学习 算法
大模型开发:解释反向传播算法是如何工作的。
反向传播算法是训练神经网络的常用方法,尤其适用于多层前馈网络。它包括前向传播、计算损失、反向传播和迭代过程。首先,输入数据通过网络层层传递至输出层,计算预测值。接着,比较实际输出与期望值,计算损失。然后,从输出层开始,利用链式法则反向计算误差和权重的梯度。通过梯度下降等优化算法更新权重和偏置,以降低损失。此过程反复进行,直到损失收敛或达到预设训练轮数,优化模型性能,实现对新数据的良好泛化。
|
3天前
|
算法 搜索推荐 测试技术
python排序算法及优化学习笔记1
python实现的简单的排序算法,以及算法优化,学习笔记1
35 1
|
3天前
|
机器学习/深度学习 人工智能 算法
神经网络算法——反向传播 Back Propagation
神经网络算法——反向传播 Back Propagation
31 0
|
3天前
|
机器学习/深度学习 算法
反向传播原理的梯度下降算法
反向传播原理的梯度下降算法
|
3天前
|
机器学习/深度学习 算法 关系型数据库
反向传播原理的反向传播算法
反向传播原理的反向传播算法
|
3天前
|
机器学习/深度学习 算法 数据挖掘
反向传播算法
反向传播算法
|
3天前
|
机器学习/深度学习 数据采集 算法
【深度学习基础】反向传播BP算法原理详解及实战演示(附源码)
【深度学习基础】反向传播BP算法原理详解及实战演示(附源码)
79 0
|
3天前
|
机器学习/深度学习 算法 TensorFlow
【Python机器学习】神经网络中误差反向传播(BP)算法详解及代码示例(图文解释 附源码)
【Python机器学习】神经网络中误差反向传播(BP)算法详解及代码示例(图文解释 附源码)
50 0
|
3天前
|
机器学习/深度学习 自然语言处理 算法
【深度学习】常用算法生成对抗网络、自编码网络、多层感知机、反向传播等讲解(图文解释 超详细)
【深度学习】常用算法生成对抗网络、自编码网络、多层感知机、反向传播等讲解(图文解释 超详细)
48 0