为什么说L2正则化可以防止过拟合,为什么引入L2可以对权重进行惩罚

简介: 笔记

在学习L2正则化的时候得到的一点心得体会,作为学习笔记,仅供参考。


个人理解,凡是可以减少过拟合的方法都可以称为正则化。


在深度学习中,L2正则(L1也可类似)是将权重w减小,对权重进行了惩罚,那么这是如何做到的?


这里我们假设原损失函数为:

21.gif



权重更新如下式所示,公式中w是权重,是学习率:


22.gif


现在给原损失函数添加L2正则化,首先知道L2是欧式距离,2范数,那么可得:


23.gif


30.gif是添加正则化后的损失函数,33.gif是引入的正则化系数,31.gif为引入的L2正则项。


其中31.gif还可以写成32.gif(用矩阵表示)。那么上式就可以变为如下所示:


24.gif


由于要对w求导,所以最后一项求导前面会产生一个系数2,为了简化运算,可将系数写成。


则可以写为:

25.gif



则现在的权重更新为:

26.gif

27.gif

28.gif

现在可以与原来的权重更新相比,可以看出在第一项对权重进行了缩减。那么为什么权重的衰减又可以防止过拟合呢?或是为什么加一些惩罚项就可以防止过拟合呢?其实可以这样理解(个人的一些看法),如果我们把损失函数通过泰勒展开,那么我们会得到很多的高次项,而也正是因为这些高次项,所以容易导致过拟合,那么我们就可以对高次项进行惩罚,让它尽可能的小或者对整体的贡献尽可能的小,如此一来就可以防止过拟合啦。


目录
相关文章
|
7月前
|
机器学习/深度学习 算法 Serverless
大模型开发:描述损失函数的作用以及一些常见的损失函数。
损失函数在机器学习中至关重要,用于衡量预测误差、优化模型、评估性能及选择模型。常见类型包括均方误差(MSE)、均方根误差(RMSE)、交叉熵损失(适用于分类)、绝对误差(MAE)、hinge损失(SVMs)、0-1损失、对数似然损失和Focal Loss(应对类别不平衡)。选择时要考虑模型性质、数据特征和优化需求。
491 3
|
7月前
|
机器学习/深度学习 算法
大模型开发:什么是过拟合和欠拟合?你如何防止它们?
机器学习中,过拟合和欠拟合影响模型泛化能力。过拟合是模型对训练数据过度学习,测试集表现差,可通过正则化、降低模型复杂度或增加训练数据来缓解。欠拟合则是模型未能捕捉数据趋势,解决方案包括增加模型复杂度、添加特征或调整参数。平衡两者需通过实验、交叉验证和超参数调优。
711 0
|
3月前
|
机器学习/深度学习 Python
|
4月前
|
机器学习/深度学习 存储 数据可视化
2.8.4 加入正则化项,避免模型过拟合
这篇文章详细探讨了在深度学习中避免模型过拟合的方法,包括加入正则化项和使用暂退法(Dropout),并介绍了如何通过可视化工具如Matplotlib和VisualDL来分析模型训练过程,以便更好地理解和优化模型性能。
|
5月前
|
机器学习/深度学习
过拟合
【7月更文挑战第25天】过拟合。
109 2
|
6月前
|
机器学习/深度学习 算法 计算机视觉
【YOLOv8改进-损失函数】SlideLoss损失函数,解决样本不平衡问题
YOLO-FaceV2是基于YOLOv5的实时人脸检测模型,采用RFE模块增强小人脸检测,NWD损失处理定位偏差,SEAM注意力模块应对遮挡,Slide Loss解决样本不平衡,提升对难样本的关注。在WiderFace数据集上超越YOLO系列。论文和代码已公开。Slide Loss通过IoU加权,优化边界样本,提高模型性能。
|
6月前
|
机器学习/深度学习 算法
**反向传播算法**在多层神经网络训练中至关重要,它包括**前向传播**、**计算损失**、**反向传播误差**和**权重更新**。
【6月更文挑战第28天】**反向传播算法**在多层神经网络训练中至关重要,它包括**前向传播**、**计算损失**、**反向传播误差**和**权重更新**。数据从输入层流经隐藏层到输出层,计算预测值。接着,比较预测与真实值计算损失。然后,从输出层开始,利用链式法则反向计算误差和梯度,更新权重以减小损失。此过程迭代进行,直到损失收敛或达到训练次数,优化模型性能。反向传播实现了自动微分,使模型能适应训练数据并泛化到新数据。
70 2
|
6月前
|
机器学习/深度学习 C++
【chatgpt问答记录】权重衰减vs正则化
【chatgpt问答记录】权重衰减vs正则化
40 2
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
基于PyTorch实战权重衰减——L2范数正则化方法(附代码)
基于PyTorch实战权重衰减——L2范数正则化方法(附代码)
427 0
|
机器学习/深度学习 自然语言处理
正则化
机器学习中的正则化(regularization)是一种常用的方法,用于防止模型过拟合(overfitting)。过拟合是指模型在训练集上表现很好,但在测试集或新数据上表现较差的情况。正则化通过在模型的目标函数中加入一个惩罚项(penalty term),来对模型的复杂度进行限制,从而避免模型在训练集上过于拟合。
82 0