连载|梯度下降

简介: 连载|梯度下降

梯度下降

梯度下降是什么

简单的说梯度下降就是对于一个函数f(x)不断的去猜想使得f(x)的值最小的自变量x在哪,猜的大了就让这个值小一点,猜的小了就让这个值大一点。它的主要猜想依据就是根据“梯度”去猜的,那么梯度又是什么呢?简单的我们可以直接把梯度理解为导数,当导数大于0(单调递增)或者小于0(单调递减)的时候,我们就有了一个调整自变量的方向。


再让我们用一个更形象的下山场景去理解一下梯度下降,假设我们现在站在山顶处A的位置,现在有急事需要我们下山,正常的思路我们需要找到能见范围内方向最陡的那条路,每隔一段距离寻找一次,一直沿用该方法,最终到达山脚F时便是下山速度最快的一种方式。这种方式就可以称作梯度下降法。

90.png

梯度下降是怎么做的、

image.png

批量梯度下降(BGD)

批量梯度下降(Batch Gradient Descent,BGD),也称之为最速下降法,误差损失函数由全部训练数据的误差构成,当我们的数据量很大的时候,速度会非常的慢,同时当我们有新的元素加入的时候,需要对全量的数据进行更新,效率会变得很低,所以目前我们所使用的梯度下降法一般都不会采用BGD的策略。


随机梯度下降(SGD)

随机梯度下降(Stochastic Gradient Descent,SGD),SGD是对BGD的一种改进,在SGD中每进行一次更新,只考虑一个样本数据的误差损失,这也是提高它速度的主要原因所在,同样当新元素加入的时候,SGD也能够继续进行更新。但是SGD的缺点在于,由于单个样本会出现重复或者相似的情况,这会导致我们对数据的更新产生冗余;并且单个数据之间的差异会比较大,从而造成每一次迭代的损失函数会出现较大的波动。如下图所示:

91.png

小批量梯度下降(MBGD)

小批量梯度下降(Mini-Batch Gradient Descent,MBGD),MBGD的策略是每次的参数更新都是由n个样本数据构成的,通常n的取值比较小,一般取10-500之间的数字,MBGD有如下的几个优点:


  • 每一批的数据量较小,特别适合高效的矩阵运算,尤其是在GPU的并行加速上。
  • MBGD每一次计算的时候考虑了更多的样本数据,数据整体之间的差异会更小,更平均,也就避免了SGD中的波动的出现。
  • 与BGD相比,MBGD适合于对于新元素加入时的参数更新。


通常情况下对于梯度下降,我们都会采用MBGD的策略。


从传统到动量

对于传统的梯度下降,我们假设参数向量是θ ,梯度为d ( θ ) ,学习率(步长)为η \etaη则此时参数更新的策略为:

image.png

上文中我们一直在讨论数据的大小对于梯度下降的影响,现在再让我们来考虑一下步长带来的影响:


  • 当步长过小的时候,会导致算法收敛速度过慢;当步长过大的时候会,容易在迭代的过程中出现震荡的现象,甚至无法收敛。步长过大时的效果如下图所示:
  • 14.jpeg
  • 当遇到较为平坦的区域的时候,由于梯度接近于0,因此每一次迭代的变化都非常小,会造成学习率的下降,甚至有可能会被误判为最优解而提前终止迭代。效果如下图所示:
  • 92.png
  • 对于上述的种种问题,我们有一种思考,是不是可以把上一次更新的方向保留,结合下一次更新的方向一起去做更更新呢?来看一下下面的策略。


动量更新(momentum)

动量更新是借助了物理学的思想来进行参数的更新,我们都知道一个运动的物体往往都具有惯性(动量),我们把惯性的思想放到梯度下降中去,也就可以使得更新时在保留了之前的更新方image.png向的同时,也能利用当前的梯度方向进行相应的调整,这样的做法能够让更新的方向根据实际的数据变化做出相应的调整。


具体一点我们可以认为我们每一次的迭代更新中,迭代方向都是由两部分组成的。具体的图示如下:

93.png

第一部分就是上一个时刻的迭代方向,即动量,可以记作image.png就是上一时刻的迭代方向,而μ 就是动量系数(和我们之前所说的步长一样)。

第二部分是当前的梯度方向,和之前一样我们记作η d ( θ ) 。

所以对于当前的迭代我们就可以写成:

image.png

这样做的好处在于,当我们上一次的迭代方向与当前的梯度方向相反时,动量能起到一个减速的作用,防止走偏;相反当上一次的迭代方向与当前的梯度方向相同时,动量能起到一个加速的作用,避免在平坦的曲面上迭代过慢。


改进的动量更新(NAG)

对于上一小节中提到的动量更新,我们还可以有优化的策略,对于momentum来说我们同时计算了当前梯度的方向和上一时刻迭代的方向,对于这种同时计算的方式,我们也可以把迭代的方向分为两步走,第一步是沿着上次更新的方向继续前进image.png到达点image.png即:

image.png

image.png

image.png

我们可以发现对比momentum来说我们第二步中的当前点已经不再是image.png而是新的image.png很自然的我们可以想到,我们在第二步是不是可以去求点image.png的梯度呢?此时的策略图示如下:

image.png

此时我们可以得到NAG的计算形态如下:

image.png

这种做法,从向量加法的角度来看和momentum是相同的,而从细微的角度来看,这种做法的效率其实要高于momentum(具体的验证过程较复杂,不在这里呈现)。


自适应梯度策略(AdaGrad)

上面我们讲到的种种算法,都是针对梯度下降的方向进行了优化,而步长却一直是固定的,也就是说对于所有的参数都共享了相同的学习率,然而这种不考虑步长的做法很容易导致算法卡在鞍点处,本节再让我们来了解一个可以自动调节步长的算法AdaGrad。

这次先让我们来看一下公式:

image.png

其中η 依旧是学习率(步长),image.png是一个很小的常数,为了防止分母为0。根据公式我们的可以发现此时的方向依旧是由image.png来决定的,但是步长却不再是固定的了,具体的策略如下:

  • 当迭代的时间越长,则累加的梯度acc越大,使得下式中的学习率会随着迭代次数的增加而减少,此时当接近目标函数的最小值时,不会因为学习率过大而走过头。
  • 对于不同的参数之间可以有不同的学习率,与前面的算法相比,不容易卡在鞍点的位置。
  • 根据表达式我们可以发现,如果参数的梯度累加比较小,则学习率会变得比较大,此时我们参数迭代的步长也会比较大,反之,如果参数梯度累加比较大,则学习率会比较小,参数的步长也会比较小。


除了文中提到的梯度下降算法,常用的还有Adadelta、RMSprop、Adam等,后面有机会我们再来讨论这些算法的原理~

相关文章
WK
|
2月前
|
机器学习/深度学习 算法
什么是损失函数和损失函数关于参数的梯度
损失函数是机器学习中评估模型预测与真实值差异的核心概念,差异越小表明预测越准确。常见损失函数包括均方误差(MSE)、交叉熵损失、Hinge Loss及对数损失等。通过计算损失函数关于模型参数的梯度,并采用梯度下降法或其变种(如SGD、Adam等),可以优化参数以最小化损失,提升模型性能。反向传播算法常用于神经网络中计算梯度。
WK
66 0
|
5月前
|
算法
梯度下降算法(二)
梯度下降法中,学习率选择至关重要。0.3的学习率导致无法找到最小值且产生震荡,而0.01则使结果接近最优解(2.99998768)。当学习率进一步减小至0.001,点远离最低点。通过迭代次数增加至1000次,可更接近最低点(2.999999999256501)。梯度下降用于最小化损失,学习率控制参数更新步长,需平衡收敛速度和稳定性。迭代次数和初始点也影响模型性能,合适的初始化能加速收敛并避开局部极小值。
|
5月前
|
机器学习/深度学习 存储 算法
梯度下降算法(一)
梯度下降是一种迭代优化算法,用于找到多变量函数的最小值。它不直接求解方程,而是从随机初始点开始,沿着梯度(函数增大幅度最大方向)的反方向逐步调整参数,逐步逼近函数的最小值。在单变量函数中,梯度是导数,而在多变量函数中,梯度是一个包含所有变量偏导数的向量。通过计算梯度并乘以学习率,算法更新参数以接近最小值。代码示例展示了如何用Python实现梯度下降,通过不断迭代直到梯度足够小或达到预设的最大迭代次数。该过程可以类比为在雾中下山,通过感知坡度变化来调整前进方向。
|
6月前
|
机器学习/深度学习 算法 调度
多元线性回归梯度下降法
梯度下降法是一种通用的优化算法,尤其适用于机器学习中找到最优解。与解析解法不同,它不局限于特定情况,能在数据规模较大时依然有效。该方法通过迭代逐步接近最优解,每次迭代利用损失函数的梯度信息调整参数。学习率是控制参数更新幅度的关键因素,太大会导致发散,太小则收敛慢。全量梯度下降每次使用所有样本更新,收敛稳定但速度慢;随机梯度下降每次仅用一个样本,速度快但可能产生较大波动;小批量梯度下降取两者之间,以一定的样本批量进行更新,兼顾速度和稳定性。
72 1
|
6月前
|
机器学习/深度学习 算法
反向传播原理的梯度下降算法
反向传播原理的梯度下降算法
|
6月前
|
算法 Python
梯度下降法
梯度下降法
66 0
|
机器学习/深度学习 算法 PyTorch
Lesson 4.4 随机梯度下降与小批量梯度下降
Lesson 4.4 随机梯度下降与小批量梯度下降
|
机器学习/深度学习 数据可视化 PyTorch
使用梯度下降训练线性模型
使用梯度下降训练线性模型
104 0
使用梯度下降训练线性模型
|
机器学习/深度学习 算法 数据挖掘
梯度下降【无约束最优化问题】(一)
本文属于 线性回归算法【AIoT阶段三】(尚未更新),这里截取自其中一段内容,方便读者理解和根据需求快速阅读。本文通过公式推导+代码两个方面同时进行,因为涉及到代码的编译运行,如果你没有NumPy,Pandas,Matplotlib的基础,建议先修文章:数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解),本文是梯度下降的第一部分,后续还会有:三种梯度下降方法与代码实现,梯度下降优化,梯度下降优化进阶 (暂未更新)
183 0
梯度下降【无约束最优化问题】(一)
|
算法 数据可视化 数据挖掘
梯度下降【无约束最优化问题】(二)
本文属于 线性回归算法【AIoT阶段三】(尚未更新),这里截取自其中一段内容,方便读者理解和根据需求快速阅读。本文通过公式推导+代码两个方面同时进行,因为涉及到代码的编译运行,如果你没有NumPy,Pandas,Matplotlib的基础,建议先修文章:数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解),本文是梯度下降的第一部分,后续还会有:三种梯度下降方法与代码实现,梯度下降优化,梯度下降优化进阶 (暂未更新)
132 0
梯度下降【无约束最优化问题】(二)