手推公式之“层归一化”梯度

简介: 手推公式之“层归一化”梯度

昨天推导了一下交叉熵的反向传播梯度,今天再来推导一下层归一化(LayerNorm),这是一种常见的归一化方法。

“交叉熵”反向传播推导

前向传播

假设待归一化的维向量为,均值和标准差分别是和,LayerNorm的参数是和,那么层归一化后的输出为:

1685433242933.png

这里的极小量是为了防止标准差为0导致溢出。为了简单起见,我们不加上这一项,原公式也就变成了:

1685433251684.png

反向传播

假设损失函数对输出的梯度是,那么这里需要求三个梯度:、和。

令,那么原公式就变成了:

1685433230349.png

两个参数的梯度非常简单:

1685433217604.png

对输入的梯度等于:

1685433207434.png

推导过程

对输入的梯度可以写成:

1685433196242.png

这里只需要计算最后一项就行了:

1685433181920.png

其中只有当的时候才会等于1,否则都等于0。这里只需要求出均值和标准差对的梯度就行了。直接给出结论,证明比较简单,放在了文末:

1685433168796.png

代入可以得到:

1685433157503.png

最后带入梯度中可以得到:

1685433146251.png

均值和标准差的梯度

1685433132141.png

相关文章
|
6月前
|
机器学习/深度学习 缓存 自然语言处理
PyTorch使用Tricks:梯度裁剪-防止梯度爆炸或梯度消失 !!
PyTorch使用Tricks:梯度裁剪-防止梯度爆炸或梯度消失 !!
554 0
|
6月前
|
传感器 移动开发 测试技术
通过卷积公式学习声速重建的成像模型
【1月更文挑战第1篇】通过卷积公式学习声速重建的成像模型
82 2
|
自然语言处理 算法
手推公式之“层归一化”梯度
昨天推导了一下交叉熵的反向传播梯度,今天再来推导一下层归一化(LayerNorm),这是一种常见的归一化方法
361 0
手推公式之“层归一化”梯度
|
机器学习/深度学习 传感器 缓存
可分离高斯神经网络:结构、分析和函数逼近
可分离高斯神经网络:结构、分析和函数逼近
170 0
|
机器学习/深度学习 编解码 数据可视化
深度学习基础入门篇[9.2]:卷积之1*1 卷积(残差网络)、2D/3D卷积、转置卷积数学推导、应用实例
深度学习基础入门篇[9.2]:卷积之1*1 卷积(残差网络)、2D/3D卷积、转置卷积数学推导、应用实例
深度学习基础入门篇[9.2]:卷积之1*1 卷积(残差网络)、2D/3D卷积、转置卷积数学推导、应用实例
|
运维 算法
【故障诊断】基于最小熵反卷积、最大相关峰度反卷积和最大二阶环平稳盲反卷积等盲反卷积方法在机械故障诊断中的应用研究(Matlab代码实现)
【故障诊断】基于最小熵反卷积、最大相关峰度反卷积和最大二阶环平稳盲反卷积等盲反卷积方法在机械故障诊断中的应用研究(Matlab代码实现)
195 0
|
机器学习/深度学习 算法
十一、神经网络的成本函数和误差反向传播算法
十一、神经网络的成本函数和误差反向传播算法
十一、神经网络的成本函数和误差反向传播算法
|
机器学习/深度学习 算法
深度之眼(六)——矩阵的逆(附:logistic模型一些想法)
深度之眼(六)——矩阵的逆(附:logistic模型一些想法)
深度之眼(六)——矩阵的逆(附:logistic模型一些想法)
|
机器学习/深度学习 人工智能 数据可视化
F(x)构建方程 ,梯度下降求偏导,损失函数确定偏导调整,激活函数处理非线性问题
F(x)构建方程 ,梯度下降求偏导,损失函数确定偏导调整,激活函数处理非线性问题
153 0
F(x)构建方程 ,梯度下降求偏导,损失函数确定偏导调整,激活函数处理非线性问题
|
机器学习/深度学习 定位技术
如何推导高斯过程回归以及深层高斯过程详解
如何推导高斯过程回归以及深层高斯过程详解
551 0
如何推导高斯过程回归以及深层高斯过程详解