Machine Learning - Gradient Descent (梯度下降)

简介: 为了减少数学知识的引入,先默认有以下几个结论(具体证明可见多元函数微分学中的方向导数与梯度部分):1. 方向导数是一种单向导数,而偏导数是一种双向导数,即ΔX取正或负时,方向导数变号,而偏导数不变号。

为了减少数学知识的引入,先默认有以下几个结论(具体证明可见多元函数微分学中的方向导数与梯度部分):

1. 方向导数是一种单向导数,而偏导数是一种双向导数,即ΔX取正或负时,方向导数变号,而偏导数不变号。

2. 对多元函数求偏导得到一个向量,这个向量在空间中表示的方向上的方向导数(即梯度所指方向)是所有方向上的方向导数的最大值,与这个方向相反方向上的方向导数取得最小值,两者绝对值相同,符号不同。

由以上两点基本可以得到,方向与梯度指向(可由偏导数组成的向量表示)相同时,方向导数取得最大值,即在该方向上,函数值的变化率正向最大(增加最多),在与该方向相反的方向上,函值变化率负向最大,所以当求出梯度后,我们将当前的自变量减去(加上)各自方向上的偏导数即可取得函数值变化负向最大/减少最多(正向最大/增加最多)。


梯度下降法中涉及到的符号,输入X(x1, x2, ... ... , xn),输出Y(y1, y2, ... ... , yn),xi表示第i个样本,是向量形式,由一组特征表示,。。。



在梯度下降法中,我们关注的是函数的参数,其余都是已知的,因此换个角度,将待估计的参数作为自变量,损失函数作为函数值,则此时的梯度即对各个参数求偏导,要使函数值(损失函数)减少最快,就要从当前点按照梯度方向移动,做移动,就相当于各个自变量分别减去对于自变量的偏导,而移动的步子大小,我们可以由一个参数α控制,因此梯度下降法的核心是使损失函数最小,而自变量应该移动的方向有各个点的梯度(偏导数)决定,移动大小由参数α决定,梯度的性质保证我们每次移动的方向都是损失函数值减少最多的方向。(未完待续。。。)

目录
相关文章
|
22天前
|
机器学习/深度学习 数据采集 算法
Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)
Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)
|
8月前
|
机器学习/深度学习 并行计算 算法
梯度下降(Gradient Descent)
梯度下降(Gradient Descent)是一种常用的优化算法,用于最小化(或最大化)函数的目标值。它是一种迭代的优化方法,通过沿着目标函数的负梯度方向更新参数,逐步接近最优解。
76 1
|
8月前
|
机器学习/深度学习 算法 PyTorch
Gradient Descent Algorithm 梯度下降算法
Gradient Descent Algorithm 梯度下降算法
53 0
|
11月前
|
机器学习/深度学习 移动开发
梯度下降法 Gradient Descent
梯度下降法 Gradient Descent
|
11月前
|
机器学习/深度学习 算法
Lesson 4.3 梯度下降(Gradient Descent)基本原理与手动实现-2
Lesson 4.3 梯度下降(Gradient Descent)基本原理与手动实现-2
|
11月前
|
机器学习/深度学习 算法 数据可视化
Lesson 4.3 梯度下降(Gradient Descent)基本原理与手动实现-1
Lesson 4.3 梯度下降(Gradient Descent)基本原理与手动实现-1
|
机器学习/深度学习 算法 Python
机器学习算法之——梯度提升(Gradient Boosting)上
由于每个子模型要使用全部的数据集进行训练,因此 Ada Boosting 算法中没有 oob 数据集,在使用 Ada Boosting 算法前,需要划分数据集:train_test_split;
机器学习算法之——梯度提升(Gradient Boosting)上
|
机器学习/深度学习 算法
机器学习算法之——梯度提升(Gradient Boosting)下
GDBT本身并不复杂,不过要吃透的话需要对集成学习的原理、策树原理和各种损失函树有一定的了解。由于GBDT的卓越性能,只要是研究机器学习都应该掌握这个算法,包括背后的原理和应用调参方法。目前GBDT的算法比较好的库是xgboost。当然scikit-learn也可以。
机器学习算法之——梯度提升(Gradient Boosting)下
|
机器学习/深度学习 存储 分布式计算
【深度学习系列】(二)--An overview of gradient descent optimization algorithms
【深度学习系列】(二)--An overview of gradient descent optimization algorithms
85 0
【深度学习系列】(二)--An overview of gradient descent optimization algorithms
|
机器学习/深度学习 算法
线性回归(Linear regression)算法
属于有监督学习、判别模型、有预测函数、有优化目标,有优化求解算法
251 0