深度学习:动量梯度下降法

简介: 深度学习:动量梯度下降法

深度学习:动量梯度下降法

前置知识

1.1随机梯度下降与梯度下降

1.2梯度下降法与最小二乘法的差异

1.3为什么需要梯度下降法

1.4梯度方向为什么是函数下降最快的反方向

1.5 指数加权平均

假设有10个数,$x_i$ :=0 1 2 3 4 5 6 7 8 9 ,想求这组数据的平均值,我们所知的方法一般是算是平均法:$$\overline{x}=\dfrac{0+1+2+3+4+5+6+7+8+9}{10}$$
还有一种方法是指数加权平均法,定义一个超参数$\beta$(大部分情况$\beta=0.9$):
$$\begin{aligned}x_{0}=0\\ x_{1}=x_{0}\cdot \beta +x_{1}\cdot \left( 1-\beta \right) \\ x_{2}=x_1\cdot \beta +x_{2}\cdot \left( 1-\beta \right) \\ \vdots \\ x_{10}=x_9\cdot \beta +x_{10}\left( 1-\beta \right) \end{aligned}$$
这种方法是好处是可以节约空间,算数平均法需要保留所有值才可以求平均,而指数加权平均只需要保留当前的平均值与当前时刻的值即可,在深度学习含量数据的背景下,可以节约内存并加速运算。

理论讲解

在这里插入图片描述

我们在使用随机梯度下降法(SGD)时,由于噪声与步长不能精准把控的情况存在,下降的过程实在震荡中实现的,如上图。我们想优化SGD考虑从下降路径上做文章。我们知道梯度是向量,导数与偏导数是标量,而每一次下降的方向都是沿着梯度方向进行的,于是我们把下降的方向分解成水平方向与竖直方向,如下图:
在这里插入图片描述
现在,我们就又了优化的方向了,如果把竖直方向削弱,水平方向增强,我们的优化速度会事半功倍。如下图:
在这里插入图片描述
SGD的原本的公式是:
$$\begin{aligned}w_{2}=w_{1}-\alpha \dfrac{\partial loss}{\partial w_{1}}\\ b_{2}=b_1-\alpha \dfrac{\partial loss}{\partial w_{1}}\end{aligned}$$
其中偏导数代表了这个维度上移动的方向,学习率代表步长,我们把偏导数在每次优化参数时替换成加权平均的偏导数,这样考虑可以考虑前面的方向,因为当前方向前面的竖直方向是相反的,水平方向是相同的,于是就可以让函数值下降的震荡减小,速度加快。公式如下:
$$\dfrac{\partial loss}{\partial W_{2}}=\dfrac{\partial loss}{\partial W_{1}}.\beta +\dfrac{\partial Loss}{\partial W2}\left( 1-\beta \right) $$

代码实现

import torch
from torch import optim
optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)
目录
相关文章
|
17天前
|
机器学习/深度学习 人工智能 自然语言处理
梯度下降求极值,机器学习&深度学习
梯度下降求极值,机器学习&深度学习
24 0
|
17天前
|
机器学习/深度学习 人工智能 分布式计算
R和Python机器学习:广义线性回归glm,样条glm,梯度增强,随机森林和深度学习模型分析
R和Python机器学习:广义线性回归glm,样条glm,梯度增强,随机森林和深度学习模型分析
|
17天前
|
机器学习/深度学习 资源调度 算法
深度学习模型数值稳定性——梯度衰减和梯度爆炸的说明
深度学习模型数值稳定性——梯度衰减和梯度爆炸的说明
26 0
|
10月前
|
机器学习/深度学习 自然语言处理 算法
TabR:检索增强能否让深度学习在表格数据上超过梯度增强模型?
这是一篇7月新发布的论文,他提出了使用自然语言处理的检索增强*Retrieval Augmented*技术,目的是让深度学习在表格数据上超过梯度增强模型。
101 0
|
机器学习/深度学习 人工智能 算法
具有生物启发训练方法的物理深度学习:物理硬件的无梯度方法
具有生物启发训练方法的物理深度学习:物理硬件的无梯度方法
443 0
|
机器学习/深度学习 人工智能
做时间序列预测有必要用深度学习吗?事实证明,梯度提升回归树媲美甚至超越多个DNN模型
做时间序列预测有必要用深度学习吗?事实证明,梯度提升回归树媲美甚至超越多个DNN模型
200 0
|
机器学习/深度学习 算法
深度学习相关概念:动量法与自适应梯度
在梯度下降的每一步中,我们都用到了所有的训练样本,我们需要进行求和运算,在梯度下降中,在计算微积随机梯度下降(SGD)
128 0
|
机器学习/深度学习 数据挖掘 PyTorch
# 【深度学习】:《PyTorch入门到项目实战》第10天:梯度爆炸、梯度消失、梯度检验
训练神经网络时,尤其是深度神经网络所面临的一个重要问题就是梯度爆炸或梯度消失,也就是我们训练神经网络的时候,导数或梯度有时会变得非常大,或者非常小,甚至于以指数方式变小,这加大了训练的难度。接下来我们介绍一些什么是梯度爆炸和梯度消失。
# 【深度学习】:《PyTorch入门到项目实战》第10天:梯度爆炸、梯度消失、梯度检验
|
机器学习/深度学习 算法 数据可视化
深度学习中“消失的梯度”
在上图中,神经元上的条可以理解为神经元的学习速率。这个网络是经过随机初始化的,但是从上图不难发现,第二层神经元上的条都要大于第一层对应神经元上的条,即第二层神经元的学习速率大于第一层神经元学习速率。那这可不可能是个巧合呢?其实不是的,在书中,Nielsen通过实验说明这种现象是普遍存在的。
深度学习中“消失的梯度”
|
机器学习/深度学习 PyTorch 算法框架/工具
【pytorch深度学习实践】笔记—03.2.随机梯度下降
【pytorch深度学习实践】笔记—03.2.随机梯度下降
116 0
【pytorch深度学习实践】笔记—03.2.随机梯度下降