文章目录
一、损失函数理论基础
二、随机梯度下降(Stochastic Gradient Descent)
1. 随机梯度下降计算流程
2. 随机梯度下降的算法特性
3. 随机梯度下降求解线性回归
4. 随机梯度下降算法评价
三、小批量梯度下降(Mini-batch Gradient Descent)
1. 小批量梯度下降计算流程
2. 小批量梯度下降算法特性
3. 小批量梯度下降求解线性回归
- 梯度下降可以通过多轮迭代计算最终收敛至一个梯度为 0 的点。
- 当损失函数为凸函数时,由于全域最小值点是唯一一个梯度为 0 的点,因此梯度下降能够顺利收敛至全域最小值,但如果损失函数不是凸函数,则梯度下降算法容易陷入局部最小值点陷阱或者鞍点陷阱。
- 梯度下降算法的改善形式有很多种,其中最为简单有效的方式是调整每次带入训练的样本数量,通过局部规律规律的不一致性来规避非全域最小值但梯度为 0 的陷阱。
- 当然在调整每次带入样本数量这一基本思路下,根据实际带入数据的多少也衍生出了两种算法——随机梯度下降和小批量梯度下降。
# 科学计算模块 import numpy as np import pandas as pd # 绘图模块 import matplotlib as mpl import matplotlib.pyplot as plt # 自定义模块 from ML_basic_function import *
一、损失函数理论基础
- 首先,我们需要补充部分关于损失函数的相关理论。
- 训练数据不同、损失函数和模型参数都不同。
- 有一个简单但又经常容易被遗忘的事实,那就是带入训练的数据不同,损失函数会有所不同,进而训练出来的模型参数会有所不同,即最终得到不同的模型结果。例如有数据集如下:
数据集1
Index | x | y |
1 | 1 | 2 |
2 | 3 | 5 |
3 | 6 | 4 |
4 | 8 | 3 |
并且我们采用不带截距项的简单线性回归方程进行拟合
- 损失函数其实是数据集规律的一种体现。
- 由于模型其实是数据集规律的体现,而损失函数又是求解模型参数的基本函数,因此我们可以认定损失函数其实是一批数据所表现出规律的一种体现,并且不同数据的损失函数不同,我们就认定这几批数据对应的基本规律有所不同。
如上述两个损失函数形态不同,其实也就代表着其背后的数据基本规律各不相同。
规律一致、损失函数也一致。
但是,我们同时需要知道的是,有时数据看似不同,但实际上背后规律一致,此时损失函数其实也是一致的。
从原理上讲,损失函数是指导求解全域最小值的方程,而如果多条(部分)数据规律一致,则构建出来的损失函数也将基本一致,至少是全域最小值点将保持一致,例如下述两条数据规律一致,都满足 y = 2 x y=2xy=2x 这一基本规律
数据集2
Index | x | y |
1 | 1 | 2 |
2 | 2 | 4 |
则围绕这两条数据分别构造损失函数,可得出如下结果
# 创建第一条数据 x1 = np.array([[1]]) y1 = np.array([[2]]) w1 = np.array([[0.]]) # 计算w1当前梯度 lr_gd(x1, w1, y1) #array([[-4.]]) # 创建第二条数据 x2 = np.array([[2]]) y2 = np.array([[4]]) w2 = np.array([[0.]]) # 计算w2当前梯度 lr_gd(x2, w2, y2) #array([[-16.]])
- 然后即可计算在第一条数据创建的损失函数下梯度下降迭代运算过程。
w_cal_rec(x1, w1, y1, gd_cal = lr_gd, lr = 0.1, itera_times = 10) #(array([[1.78525164]]), # [array([[0.]]), # array([[0.4]]), # array([[0.72]]), # array([[0.976]]), # array([[1.1808]]), # array([[1.34464]]), # array([[1.475712]]), # array([[1.5805696]]), # array([[1.66445568]]), # array([[1.73156454]]), # array([[1.78525164]])])
- 然后同样迭代 10 轮,将学习率调小至 1/4,计算在第二条数据构建的损失函数下梯度下降迭代过程。
w_cal_rec(x2, w2, y2, gd_cal = lr_gd, lr = 0.025, itera_times = 10) #(array([[1.78525164]]), # [array([[0.]]), # array([[0.4]]), # array([[0.72]]), # array([[0.976]]), # array([[1.1808]]), # array([[1.34464]]), # array([[1.475712]]), # array([[1.5805696]]), # array([[1.66445568]]), # array([[1.73156454]]), # array([[1.78525164]])])
不难发现,二者完全一致。也就是说损失函数的等比例差异其实完全可以通过学习率消除,而学习率又是人工设置的参数。
因此从这个意义上来说,相同规律不同数据所创造的损失函数本质上还是相同的损失函数。当然,如果此时我们再构建一个由这两条数据共同构建的损失函数,则该损失函数和上述两个损失函数也是一致的。
值得注意的是,损失函数的该特性也将是影响随机梯度下降或者小批量梯度下降有效性的根本因素。
Index | x | y |
1 | 1 | 2 |
局部规律与整体规律。
我们将训练数据集所表现出来的规律称为训练数据的整体规律,而单独某条或者某几条数据所表现出来的规律称为局部规律。
对于数据集 1 来说,第一条数据所表现出的局部规律和整个数据集所表现出来的规律并不一致,而对于数据集2来说,第一条数据、第二条数据和整个数据集表现出来的规律都一致。
另外,我们也将训练数据集中的一部分数据称为训练数据的子数据集。
不过,在大多数实际获取到的数据中,由于存在各方面误差,很难出现类似数据集 2 的这种多条数据规律完全一致的情况,在大多数情况下训练数据集的子数据集往往都存在一定的规律差异,不仅是不同的子数据集之间存在差异,而且子数据集和训练数据集整体之间也存在一定的规律差异。
局部规律和整体规律的相对统一。
尽管局部规律和整体规律并不一致,但局部规律和整体规律却是相对统一的。
例如,我们还是以数据集 1 为例,并且以前两条数据构造第一个损失函数 L o s s 2 Loss_2 、后两条数据构造另一个损失函数 L o s s 3 则有损失函数计算公式如下:
Index | x | y |
1 | 1 | 2 |
2 | 3 | 5 |
3 | 6 | 4 |
4 | 8 | 3 |
因此我们可以将其理解为:代表局部规律的损失函数其实也能够部分表示整体损失函数。
梯度下降计算过程改善思路。
据此,我们即可进一步讨论关于梯度下降的改善思路。
简单来说就是,梯度下降过程中每一次参数移动都是基于整体规律(全部数据集对应的损失函数)来进行每一次参数迭代。
无论是随机梯度下降(Stochastic Gradient Descent)还是小批量梯度下降(Mini-batch Gradient Descent),其实都是在利用局部规律(部分数据的损失函数)来进行每一次参数迭代,其中随机梯度下降每次参数迭代都挑选一条数据来构建损失函数,而小批量梯度下降则每次选择一个小批数据(训练数据集的子集)来进行迭代。
例如总共100条数据等分成10个子集,每个子集包含10条数据,然后每次梯度下降带入其中一个子集的损失函数进行计算。按照这种划分方法,原始梯度下降算法也被称为 BGD(Batch Gradient Descent,批量梯度下降)。
SGD 和 BGD 其实都是小批量梯度下降的特例,即在小批量梯度下降中,当子集等于全集时,小批量梯度下降就是 BGD,而当每个子集只有一条数据时,小批量梯度下降就是 SGD。
需要注意的是,在某些深度学习计算框架(如 PyTorch),小批量梯度下降也被划入 SGD 范畴。
简单总结上述理论基础:
(1) 数据规律可以用损失函数表示,损失函数形态不同代表其背后构造损失函数的数据规律不同;
(2) 一般来说,对于一个数据集来说,局部规律之间和局部规律与整体规律之间就存在一定的差异,但也存在一定的统一性;
(3) 利用局部规律之间的“对立统一”的特性,我们就能够在参数移动过程中改变参数移动方向,从而避免局部最小值或者鞍点陷阱。
二、随机梯度下降(Stochastic Gradient Descent)
1. 随机梯度下降计算流程
首先我们来讨论关于 SGD 的计算流程及使用过程中的注意事项。还是先从一个简单的例子入手,假设现有数据集如下:
Index | x | y |
1 | 1 | 2 |
2 | 3 | 5 |
此时如果我们采用 SGD 进行参数点的更新迭代,则每次提取一条数据构造损失函数然后再进行计算,同样我们构建不带截距项的简单线性回归 y = w x y=wxy=wx 进行建模,则第一条数据的损失函数为:
Loss1(w)=(2−w)2
第二条数据的损失函数为
Loss2(w)=(5−3w)2
实际 SGD 执行过程中,首先我们会将数据集乱序处理,然后依次挑选每一条数据的损失函数进行参数更新计算。
当然如果是进行了训练集和测试集的随机切分,则无需再次进行乱序处理,现假设上述数据就是乱序处理之后的结果,在给定初始参数 w 0 = 0 的情况下,我们可以根据如下过程进行参数迭代,首先进行参数和数据的定义
w = 0 x = np.array([[1], [3]]) x #array([[1], # [3]]) y = np.array([[2], [5]]) y #array([[2], # [5]])
然后即可开始第一轮迭代,带入第一条数据进行参数的第一次修改,实际计算过程等价于借助第一条数据的损失函数所计算出的梯度进行参数的修改,过程如下:
# 执行第一轮迭代 w = w_cal(x[0], w, y[0], lr_gd, lr = 0.02, itera_times = 1) w #0.08
- 紧接着,利用第二条数据的损失函数梯度进行参数的第二次修改。
# 执行第二轮迭代 w = w_cal(x[1], w, y[1], lr_gd, lr = 0.02, itera_times = 1) w #0.6512
- 对比梯度下降计算过程。
w = 0 w_cal(x, w, y, lr_gd, lr = 0.02, itera_times = 2) #array([[0.612]])
- 对比梯度下降计算过程。
w = 0 w_cal(x, w, y, lr_gd, lr = 0.02, itera_times = 2) #array([[0.612]])
至此,我们总共执行了两轮迭代,参数也就移动了两步。而全部数据只有条量,两轮迭代正好用了一轮全部数据,此时我们称为迭代了一轮 epoch,即梯度下降过程遍历了一遍数据。
在随机梯度下降和小批量梯度下降过程中,一般我们采用 epoch 指标来说明目前迭代进度。
接下来我们尝试迭代40个 epoch。
————————————————
版权声明:本文为CSDN博主「虚心求知的熊」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_45891612/article/details/128788200
w = 0 epoch = 40 for j in range(epoch): for i in range(2): w = w_cal(x[i], w, y[i], lr_gd, lr = 0.02, itera_times = 1)
# 最终参数取值 w #1.6887966746685015
当然,我们也可以将上述过程定义成一个函数:
def sgd_cal(X, w, y, gd_cal, epoch, lr = 0.02): """ 随机梯度下降计算函数 :param X: 训练数据特征 :param w: 初始参数取值 :param y: 训练数据标签 :param gd_cal:梯度计算公式 :param epoch: 遍历数据集次数 :param lr: 学习率 :return w:最终参数计算结果 """ m = X.shape[0] n = X.shape[1] for j in range(epoch): for i in range(m): w = w_cal(X[i].reshape(1, n), w, y[i].reshape(1, 1), gd_cal=gd_cal, lr=lr, itera_times = 1) return w
- 验证函数输出结果。
w = 0 sgd_cal(x, w, y, lr_gd, epoch=40, lr=0.02) #array([[1.68879667]])
那么,1.688 是否是全域最小值点呢?此时我们也可以对比梯度下降围绕上述问题计算所得结果:
# 梯度下降计算过程 w = 0 w = w_cal(x, w, y, lr_gd, lr = 0.02, itera_times = 100) w #array([[1.7]])
2. 随机梯度下降的算法特性
迭代结果震荡特性。
尽管从执行流程上来看,SGD 只是将梯度下降的每次带入全部数据进行计算改成了每次带入一条数据进行计算。
实际上,这么做会极大程度影响参数每一次移动的方向,从而使得参数最终无法收敛至全域最优解,但同时这么一来却也使得参数迭代过程能够跨越局部最小值点。
还是回顾上述例子中参数的迭代过程,在第一轮 epoch 的第一次迭代时,参数点从 0 出发,实际上是根据第一条数据的损失函数最小值点前进的。第一条数据的损失函数及图像如下:
Loss1(w)=(2−w)2
x1 = np.arange(1.5, 2.5, 0.01) y1 = np.power(2-x1, 2) plt.plot(x1, y1)
也就是朝向 w = 2 w=2w=2 这个点前进的。而第二次迭代时,参数点则是朝向第二条数据对应的损失函数最小值方向前进的。第二条数据的损失函数及图像如下所示:
y2 = np.power(5-3*x1, 2) plt.plot(x1, y1, label='x1') plt.plot(x1, y2, label='x2') plt.legend(loc = 1)
第二条数据损失函数的极小值点为 5 3 = 1.667 \frac{5}{3}=1.667
3
5
=1.667,两条数据的损失函数极小值点并不一致,并且全域最小值点就位于 1.667 和 2 之间。
因此,在实际迭代过程中,当参数点位于两个极小值点左侧时,及参数小于 1.667 时候,无论是遵照哪一条数据的损失函数进行梯度下降,都能朝向全域最小值点前进。
但当参数点迭代至 1.667 和 2 之间时,当带入第一条数据进行梯度下降时,算法执行过程会要求参数点往后退,退到 1.667 这个点;而如果带入第二条数据进行梯度下降时,算法执行过程会要求参数点往前走,走到 2 这个点。
不同的损失函数要求不同的迭代方向。
w = 0 epoch = 40
for j in range(epoch): for i in range(2): w = w_cal(x[i], w, y[i], lr_gd, lr = 0.02, itera_times = 1) print(w)
x1 = np.arange(-1, 2, 0.1) y1 = x1 * np.cos(np.pi * x1) y2 = np.power(x1-0.7, 2) plt.plot(x1, y1, label='y=x*cos(pi*x)') plt.plot(x1, y2, label='y=(x-0.7)**2') plt.legend(loc = 1)
而这种帮助跨越局部最小值点或者鞍点的优秀性质,使得随机梯度下降成为比梯度下降应用更广的优化算法。
总结上述过程:SGD 的计算本质是借助局部规律(而不是整体规律)来更新参数,而局部规律不一致性能够让参数在移动过程中保持灵活的移动方向,并因此能够逃离局部最小值点或鞍点陷阱,但方向不一致的代价是最终无法收敛到一个稳定的点,要改进这一问题则需要借助额外优化手段。
震荡迭代与损失函数波动。
当然,这种参数迭代方向的不确定性的另一方面影响,就是容易会造成整体损失函数在收敛过程不断波动。
只要参数的行进方向不是和全部数据的损失函数的梯度递减方向保持一致,只要参数在中途发生方向的调整,就会导致由全部数据构造的损失函数计算结果的震荡。
例如在上述例子迭代过程中,我们可以观察整体 MSE 变化情况
w = 1.5 MSE_l = [MSELoss(x, w, y)] for j in range(20): for i in range(2): w = w_cal(x[i], w, y[i], lr_gd, lr = 0.02, itera_times = 1) MSE_l.append(MSELoss(x, w, y))
MSE_l
plt.plot(list(np.arange(41)), np.array(MSE_l).flatten())
等高线图观察 SGD 迭代过程。
当然上述例子损失函数波动并不明显,但在很多复杂模型运算过程中,受到每次迭代的方向不一致的影响,损失函数还是会受到较大影响。当然,这种影响我们还可以通过观察参数点逼近全域最小值点过程中的进行路径来体会,例如我们借助 Lesson 4.3 中定义的数据及轨迹绘制函数来进行简单实验。
np.random.seed(24) w = np.random.randn(2, 1) # 参数都默认为列向量 w #array([[ 1.32921217], # [-0.77003345]]) features = np.array([1, 3]).reshape(-1, 1) features = np.concatenate((features, np.ones_like(features)), axis=1) features #array([[1, 1], # [3, 1]]) labels = np.array([2, 4]).reshape(-1, 1) labels #array([[2], # [4]]) # 随机梯度下降参数点运行轨迹 w_res = [np.copy(w)] for i in range(40): w_res.append(np.copy(sgd_cal(features, w, labels, lr_gd, epoch=1, lr=0.1))) w_res[-1] #array([[1.00686032], # [0.96947505]]) np.random.seed(24) w1 = np.random.randn(2, 1) # 参数都默认为列向量 w1 #array([[ 1.32921217], # [-0.77003345]]) # 梯度下降参数点运行轨迹 w1, w_res_1 = w_cal_rec(features, w1, labels, gd_cal = lr_gd, lr = 0.1, itera_times = 100) w_res_1[-1] #array([[1.02052278], # [0.95045363]]) # 网格点坐标 x1, x2 = np.meshgrid(np.arange(1, 2, 0.001), np.arange(-1, 1, 0.001)) # 绘制等高线图 plt.contour(x1, x2, (2-x1-x2)**2+(4-3*x1-x2)**2) # 绘制参数点移动轨迹图 plt.plot(np.array(w_res)[:, 0], np.array(w_res)[:, 1], '-o', color='#ff7f0e', label='SGD') plt.plot(np.array(w_res_1)[:, 0], np.array(w_res_1)[:, 1], '-o', color='#1f77b4', label='BGD') plt.legend(loc = 1)
3. 随机梯度下降求解线性回归
- 接下来,我们尝试使用随机梯度下降求解线性回归问题。
- Step 1. 确定数据集和模型。
- 仍然还是创建扰动项不大、基本满足y=2x1−x2+1规律的数据集。
# 设置随机数种子 np.random.seed(24) # 扰动项取值为0.01 features, labels = arrayGenReg(delta=0.01)
- Step 2. 设置初始参数。
np.random.seed(24) w = np.random.randn(3, 1) w #array([[ 1.32921217], # [-0.77003345], # [-0.31628036]]) # 计算w取值时SSE SSELoss(features, w, labels) #array([[2093.52940481]]) # 计算w取值时MSE MSELoss(features, w, labels) #array([[2.0935294]])
- Step 3. 执行梯度下降计算。
- 接下来,借助此前所定义的参数更新函数进行梯度下降参数求解:
w = sgd_cal(features, w, labels, lr_gd, epoch=40, lr=0.02) w #array([[ 1.99749114], # [-0.99773197], # [ 0.99780476]]) # 计算w取值时SSE SSELoss(features, w, labels) #array([[0.1048047]]) # 计算w取值时MSE MSELoss(features, w, labels) #array([[0.0001048]])
- 至此,我们就完成了随机梯度下降求解损失函数的完整流程。
4. 随机梯度下降算法评价
根据上述讨论和实现,我们基本掌握了随机梯度下降求解损失函数的基本思路与实现方法,相比梯度下降,随机梯度下降由于引入了一定的随机性,借助局部规律不一致性来跳出局部最小值点陷阱。
由于在大多数复杂模型中损失函数都不一定是严格意义凸函数,因此随机梯度下降也有着比梯度下降更广泛的应用场景。
不过,值得一提的是,随机梯度下降的计算过程还是过于随机了,在很多复杂模型中,这种随机性所造成的迭代收敛上的麻烦几乎和这种随机性所带来的益处不相上下,比如迭代需要更多次数、最终收敛结果不稳定等等,要对其进行改善,我们能够想到的一个最为基础的办法就是在确保一定程度随机性的基础上增加一些算法的稳定性。
即尝试适度修正每次迭代所带入的样本量,也就是合理设置每次迭代参数所带入的数据量,一方面我们还是希望借助局部规律的不确定性来规避局部最小值陷阱,同时我们也希望一定程度控制住迭代过程随机性,来减少随机性所带来的麻烦。
这种每次迭代过程带入若干条样本的梯度下降算法,就被称为小批量梯度下降。
当然,如果每条数据都和整体数据的规律基本一致,例如(1,2)、(2,4)这种数据集,那么其实随机梯度下降收敛效率会更高,毕竟计算一条数据就相当于计算了一个数据集。但此时因为不同数据彼此之间并不存在局部规律的不一致性,所以随机梯度下降也无法帮助跳过局部最小值点。
三、小批量梯度下降(Mini-batch Gradient Descent)
所谓小批量梯度下降,其实就是对随机梯度下降过程稍作修改——每次不在是带入一条数据进行计算,而是带入 batch_size 条数据进行计算,当然 batch_size 是一个人工设置的超参数。
通过这么一个微小的变化,算法在实际性能上将发生根本性变化。而小批量梯度下降,目前也是梯度下降算法家族中最为通用的算法。
1. 小批量梯度下降计算流程
- 还是一样,我们先通过简单的一个实例来观察小批量梯度下降的计算流程。还是以开篇数据集为例:
Index | x | y |
1 | 1 | 2 |
2 | 3 | 5 |
3 | 6 | 4 |
4 | 8 | 3 |
- 当我们在执行小批量梯度下降时,我们会先将训练数据进行小批量的切分。
- 例如我们可以将上述数据集切分成两个 mini-batch,前两条数据为第一批,后两条数据为第二批。然后按照类似随机梯度下降的计算过程来进行计算。
- 数据切分。
x = np.array([1, 3, 6, 8]).reshape(-1, 1) x #array([[1], # [3], # [6], # [8]]) y = np.array([2, 5, 4, 3]).reshape(-1, 1) y #array([[2], # [5], # [4], # [3]]) x1 = x[:2] x2 = x[2:4] y1 = y[:2] y2 = y[2:4]
- 第一轮(epoch)迭代。
- 在数据集切分完成后,接下来我们开始进行参数更新。和随机梯度下降一样,当我们遍历一次数据集之后,就称为一轮(epoch)迭代完成。
- 此时我们将数据集划分为两批,两批依次带入训练完之后就相当于第一轮(epoch)迭代完成。
w = 0 w = w_cal(x1, w, y1, lr_gd, lr = 0.02, itera_times = 1) w = w_cal(x2, w, y2, lr_gd, lr = 0.02, itera_times = 1) w #array([[0.62]])
- 多轮(epoch)迭代。
- 当然,如果希望针对更为一般的数据集进行可手动调节 batch_size 的小批量梯度下降计算,我们可以将上述 sgd_cal 进行修改,将小批量梯度下降和随机梯度下降整合至一个函数中。
- 具体计算函数如下:
def sgd_cal(X, w, y, gd_cal, epoch, batch_size=1, lr=0.02, shuffle=True, random_state=24): """ 随机梯度下降和小批量梯度下降计算函数 :param X: 训练数据特征 :param w: 初始参数取值 :param y: 训练数据标签 :param gd_cal:梯度计算公式 :param epoch: 遍历数据集次数 :batch_size: 每一个小批包含数据集的数量 :param lr: 学习率 :shuffle:是否在每个epoch开始前对数据集进行乱序处理 :random_state:随机数种子值 :return w:最终参数计算结果 """ m = X.shape[0] n = X.shape[1] batch_num = np.ceil(m / batch_size) X = np.copy(X) y = np.copy(y) for j in range(epoch): if shuffle: np.random.seed(random_state) np.random.shuffle(X) np.random.seed(random_state) np.random.shuffle(y) for i in range(np.int(batch_num)): w = w_cal(X[i*batch_size: np.min([(i+1)*batch_size, m])], w, y[i*batch_size: np.min([(i+1)*batch_size, m])], gd_cal=gd_cal, lr=lr, itera_times=1) return w
- 此处需要注意,首先是借助 np.ceil 函数计算切分成几批。这里需要注意,如果最后一批剩余数据不足 batch_size 数量,则也可以将其化为一批。
- 例如以 x 为例,每三条数据分为一批时,总共可以分成两批。
np.ceil(4 / 3) #2.0
- 并且,在具体执行计算时,在切分过程中需要确定数据集切分的上界。
for i in range(2): # 总共切分两批 print(x[i*3: np.min([(i+1)*3, 4])]) # 每一批三条数据,总数据量为4 #[[1] # [3] # [6]] #[[8]]
- 同时,需要注意的是,为了确保模型本身的泛化能力,一般来说我们需要在每一轮(epoch)开始前对数据集进行乱序处理。
- 至此我们就完成了小批量梯度下降的计算函数,我们可以简单检验计算过程:
# 初始参数为0,两条数据为1批,迭代1轮epoch w = 0 sgd_cal(x, w, y, lr_gd, epoch=1, batch_size=2, lr=0.02, shuffle=False) #array([[0.62]]) # 初始参数为0,两条数据为1批,迭代10轮epoch w = 0 sgd_cal(x, w, y, lr_gd, epoch=10, batch_size=2, lr=0.02) #array([[0.67407761]]) # 初始参数为0,两条数据为1批,迭代10轮epoch w = 0 sgd_cal(x, w, y, lr_gd, epoch=10, batch_size=2, lr=0.02) #array([[0.52203531]]) # 对比梯度下降计算过程 w = 0 w_cal(x, w, y, lr_gd, lr = 0.02, itera_times = 10) #array([[0.56363636]])
- 并且,如果将每一批数据的数据量设置为样本总数时,计算过程就相当于梯度下降。
w = 0 sgd_cal(x, w, y, lr_gd, epoch=10, batch_size=4, lr=0.02) #array([[0.56363636]])
- 当然,如果将每一批数据的数据量设置为 1,其计算过程就相当于随机梯度下降。
w = 0 for j in range(10): for i in range(4): w = w_cal(x[i], w, y[i], lr_gd, lr = 0.002, itera_times = 1) w #0.5347526106195503 w = 0 w = sgd_cal(x, w, y, lr_gd, epoch=10, batch_size=1, lr=0.002, shuffle=False) w #array([[0.53475261]])
2. 小批量梯度下降算法特性
尽管小批量梯度下降每次带入了更多的数据进行参数训练,但其算法特性和随机梯度下降还是比较类似的,在训练阶段,每次训练实际上是利用某批数据的综合规律(综合损失函数)来进行参数训练。
小批量梯度下降也是借助不同批次数据的规律不一致性帮助参数跳出局部最小值陷阱,并且,由于规律不一致性,小批量梯度下降最终收敛结果也会呈现小幅震荡,只不过在所有的随机不确定性的方面,小批量梯度下降都比随机梯度下降显得更加稳健。
当然,在必要时,我们也会将小批量梯度下降转化为梯度下降或者随机梯度下降。
3. 小批量梯度下降求解线性回归
- 最后,我们尝试使用小批量梯度下降求解线性回归问题,我们将采用更加正式的流程来进行计算。
- 首先,我们仍然还是创建扰动项不大、基本满足 1y=2x1−x2+1 规律的数据集。
# 设置随机数种子 np.random.seed(24) # 扰动项取值为0.01 features, labels = arrayGenReg(delta=0.01)
- 然后进行数据集切分。
Xtrain, Xtest, ytrain, ytest = array_split(features, labels, rate=0.7, random_state=24) Xtrain.shape #(700, 3)
- 接下来进行初始参数的设置。
np.random.seed(24) w = np.random.randn(3, 1) w #array([[ 1.32921217], # [-0.77003345], # [-0.31628036]])
- 然后借助小批量梯度下降进行参数求解。
w = sgd_cal(Xtarain, w, ytrain, lr_gd, batch_size=100, epoch=40, lr=0.02) w #array([[ 1.99975664], # [-0.99985539], # [ 0.99932797]])
- 计算训练误差和测试误差。
# 训练误差 MSELoss(Xtrain, w, ytrain) #array([[9.43517576e-05]]) # 测试误差 MSELoss(Xtest, w, ytest) #array([[9.01449168e-05]])
对于求解数值解的算法来说,观察其迭代过程是进行后续优化的第一步,因此我们可以编写如下过程来观察伴随迭代进行,模型训练误差和测试误差如何变化
np.random.seed(24) w = np.random.randn(3, 1) trainLoss_l = [] testLoss_l = [] epoch = 20
for i in range(epoch): w = sgd_cal(Xtrain, w, ytrain, lr_gd, batch_size=100, epoch=1, lr=0.02) trainLoss_l.append(MSELoss(Xtrain, w, ytrain)) testLoss_l.append(MSELoss(Xtest, w, ytest))
plt.plot(list(range(epoch)), np.array(trainLoss_l).flatten(), label='train_l') plt.plot(list(range(epoch)), np.array(testLoss_l).flatten(), label='test_l') plt.xlabel('epochs') plt.ylabel('MSE') plt.legend(loc = 1)