正则化、过拟合和欠拟合—大厂笔试汇总

简介: 正则化、过拟合和欠拟合—大厂笔试汇总

一、欠拟合


1、下列方法中,解决欠拟合的方法有哪些 (CD)


A、正则化方法

B、集成学习方法

C、添加新特征

D、减少正则化系数


集成学习解决过拟合


欠拟合的原因:1.模型复杂度过低。2.特征量过少。


解决方法:增加模型复杂度,添加新特征


2、假如你用logistic Regression 算法去预测用户在网上的购买项目,然而,当你在新的用户集上验证你的假设时,你发现预测值有很大的偏差。并且你的假设在训练集上表现也很差,下面那些步骤你应该采纳,选择出正确的选项 ( A )


A、尝试着减小正则项 λ

B、尝试增加交叉特征

C、减小样本量

D、尝试更小的测试集或者特征


**欠拟合:**训练误差和验证误差都很大。


**解决:**增加特征项;增加模型复杂度,如使用核函数;减小正则化系数;集成学习方法。


二、过拟合


1、以下哪些方法有助于解决模型训练过程中的过拟合问题 (ABCD)


A、正则化

B、Dropout

C、Batch Normalization

D、提前终止训练

E、梯度下降


Batch Normalization有两个功能,一个是可以加快训练和收敛速度,另外一个是可以防止过拟合。


2、在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题 ( D )


A、增加训练集量

B、减少神经网络隐藏层节点数

C、删除稀疏的特征

D、SVM算法中使用高斯核/RBF核代替线性核


造成过拟合的原因主要有:


1、训练数据不足,有限的训练数据


2、训练模型过度导致模型非常复杂,泛化能力差


选项D使得模型的复杂化,会充分训练数据导致过拟合


3、以下说法正确的是 ( D )


A、增加模型复杂度,模型在测试集上的准确率就能更好

B、L2正则化的解通常是稀疏的,L1正则化可以使得参数趋向于更平滑

C、对于PCA,我们应该选择是的模型具有最小variance的主成分

D、每次使用K-means算法得到的聚类结果可能会不一样


L1正则化可以产生稀疏权值矩阵,也就是产生一个稀疏模型,可以用于特征选择;


L2正则化可以防止模型过拟合,也就是拟合曲线更趋于平滑。


PCA应该选择协方差(Covariance)比较小的


4、当发现机器学习模型过拟合时,以下操作正确的是:( ABC )


A、降低特征维度

B、增加样本数量

C、添加正则项

D、增加特征维度


造成过拟合两个因素:1、数据量少 2、模型复杂度过高


因为维度不断增加就会增加整个数据空间的稀疏性,这样就更容易找到分类的超平面,所以降低维度可以帮助降低过拟合


5、以下可以有效解决过拟合的方法是:( AD )


A、增加样本数量

B、增加特征数量

C、训练更多的迭代次数

D、采用正则化方法


增加特征会让你的模型更加复杂,其实就是更加过拟合。


训练更多的迭代次数也是,会让你的模型,更加偏向于训练集训练出来的结果,而不是测试集的。


过拟合:获取更多训练实例; 减少特征数量;增加正则化成度(λ)。


欠拟合:获得更多特征; 增加多项式特征; 减少正则化(λ)。


6、机器学习中,如果一味的去提高训练数据的预测能力,所选模型的复杂度往往会很高,这种现象称为过拟合。所表现的就是模型训练时候的误差很小,但在测试的时候误差很大,对于产生这种现象以下说法正确的是:( AC )


A、样本数量太少

B、样本数量过多

C、模型太复杂

D、模型太简单


样本数量太少,或者模型过分复杂, 都会使得训练出来的模型“完全记住”给出的训练样本之间的关系(相当于只是背下来了试卷,但是等到高考的时候遇到新的题还是不会做) 而缺乏泛化能力 使得模型过拟合


7、以下可以有效解决过拟合的方法是:( ABD )


A、增加样本数量

B、通过特征选择减少特征数量

C、训练更多的迭代次数

D、采用正则化方法


8、在一个神经网络中,下面哪种方法可以用来处理过拟合?( D )


A、Dropout

B、分批归一化(Batch Normalization)

C、正则化(regularization)

D、都可以


9、深度学习中,以下哪些方法可以降低模型过拟合?( A B D )


A、增加更多的样本

B、Dropout

C、增大模型复杂度,提高在训练集上的效果

D、增加参数惩罚


放置模型过拟合:


1.引入正则化(参数范数惩罚)


2.Dropout


3.提前终止训练


4.增加样本量


5.参数绑定与参数共享


6.辅助分类节点(auxiliary classifiers)


7.Batch Normalization


10、下列的哪种方法可以用来降低深度学习模型的过拟合问题?( D )


①增加更多的数据


②使用数据扩增技术(data augmentation)


③使用归纳性更好的架构


④ 正规化数据


⑤ 降低架构的复杂度


A、1 4 5

B、1 2 3

C、1 3 4 5

D、所有项目都有用


防止过拟合的几种方法:


引入正则化


Dropout


提前终止训练


增加样本量


三、正则化


1、以下关于正则化的描述正确的是 (ABCD )


A、正则化可以防止过拟合

B、L1正则化能得到稀疏解

C、L2正则化约束了解空间

D、Dropout也是一种正则化方法


L2本质是参数解的2阶范数,以二维为例,L2的最优解就是一个圆;如果你还记得话,loss func的组成是两部分一部分是预测值和真实值之间的error,一部分是正则项,前一部分的解空间可以看作是一个梯度下降的等高线,这样一来,loss func的所有局部解就是每层等高线和这个圆之间的切点,所以说约束了解空间。这也是为啥L2会让解平滑,L1会让解稀疏(因为L1的解是一个四个顶点在坐标轴上的正方形,等高线与它的交点多半落在坐标轴上,意味着某一维会变成零)


2、机器学习中L1正则化和L2正则化的区别是 ( AD )


A、使用L1可以得到稀疏的权值

B、使用L1可以得到平滑的权值

C、使用L2可以得到稀疏的权值

D、使用L2可以得到平滑的权值


L1会趋向于产生少量的特征,而其他的特征都是0


L2会选择更多的特征,这些特征都会接近于0


3、假如使用一个较复杂的脊回归模型 (Ridge Regression),来拟合样本数据时,通过调整正则化参数λ,来调整模型复杂度。当λ较大时,关于偏差(bias)和方差(variance),下列说法正确的是 ( C )


A、当λ增大时,偏差减小,方差减小

B、当λ增大时,偏差减小,方差增大

C、当λ增大时,偏差增大,方差减小

D、当λ增大时,偏差增大,方差增大


λ越大,对模型中参数的惩罚力度越大,因此会有更多的参数被训练为0,模型也就变得更加简单了。


模型复杂度越低,方差小,但偏差大。


四、总结


1、人工智能概念补充


1、在深度学习中,我们通常选择对于模型参数可微的损失函数。简而言之,这意味着,对于每个参数, 如果我们把这个参数增加或减少一个无穷小的量,我们可以知道损失会以多快的速度增加或减少。


2、梯度:指向值变化最大的方向。(和等高线正交)


3、如果当数据量不是很大的时候(万级别以下)的时候将训练集、验证集以及测试集划分为6:2:2;若是数据很大,可以将训练集、验证集、测试集比例调整为98:1:1;但是当可用的数据很少的情况下也可以使用一些高级的方法,比如留出方,K折交叉验证


4、bias和variance的区别和作用


bias 偏差 :模型的期望(或平均)预测和正确值之间的差别;


variance 方差 :模型之间的多个拟合预测之间的偏离程度。


2 正则化补充


2.1 正则化的概念


正则化-Regularization(也称为惩罚项或范数)就是通过对模型的参数在“数量”和“大小”方面做相应的调整,从而降低模型的复杂度,以达到避免过拟合的效果。


如果我们的目标仅仅是最小化损失函数(即经验风险最小化),那么模型的复杂度势必会影响到模型的整体性能;引入正则化(即结构风险最小化)可以理解为衡量模型的复杂度,同时结合经验风险最小化,进一步训练优化算法。


2.2 正则化的作用

正则化可以限制模型的复杂度,从而尽量避免过拟合的发生;模型之所以出现过拟合的主要原因是学习到了过多噪声,即模型过于复杂(也可以通过简化模型或增加数据集等方法尽量避免过拟合的发生)。


2.3 正则化的常见类型


(1)L1正则化


可以通过稀疏化(减少参数“数量”)来降低模型复杂度的,即可以将参数值减小到0。


(2)L2正则化


可以通过减少参数值“大小”来降低模型的复杂度,即只能将参数值不断减小,但永远不会减小为0,只能尽量接近于0。


2.4 关联概念


过拟合、正则化、经验风险最小化、结构风险最小化、损失函数、模型复杂度、范数

目录
相关文章
|
6月前
|
机器学习/深度学习 算法
大模型开发:什么是过拟合和欠拟合?你如何防止它们?
机器学习中,过拟合和欠拟合影响模型泛化能力。过拟合是模型对训练数据过度学习,测试集表现差,可通过正则化、降低模型复杂度或增加训练数据来缓解。欠拟合则是模型未能捕捉数据趋势,解决方案包括增加模型复杂度、添加特征或调整参数。平衡两者需通过实验、交叉验证和超参数调优。
686 0
|
机器学习/深度学习 算法
机器学习算法之欠拟合和过拟合
机器学习算法之欠拟合和过拟合
|
3月前
|
机器学习/深度学习
|
4月前
|
机器学习/深度学习 算法
欠拟合
【7月更文挑战第25天】欠拟合。
41 2
|
4月前
|
机器学习/深度学习
过拟合
【7月更文挑战第25天】过拟合。
104 2
|
4月前
|
人工智能 Python
模型评估与选择:避免过拟合与欠拟合
【7月更文第18天】在人工智能的探险旅程中,打造一个既聪明又可靠的模型可不简单。就好比在茫茫人海中找寻那位“知心朋友”,我们需要确保这位“朋友”不仅能在训练时表现优异,还要能在新面孔面前一样游刃有余。这就引出了模型评估与选择的关键议题——如何避免过拟合和欠拟合,确保模型既不过于复杂也不过于简单。今天,我们就来一场轻松的“模型相亲会”,通过交叉验证、混淆矩阵、ROC曲线这些实用工具,帮你的模型找到最佳伴侣。
182 2
|
6月前
|
机器学习/深度学习
欠拟合与过拟合
欠拟合与过拟合
56 0
|
机器学习/深度学习 算法
机器学习欠拟合和过拟合
机器学习欠拟合和过拟合
80 0
三、欠拟合和过拟合
三、欠拟合和过拟合
|
机器学习/深度学习 算法
怎样处理过拟合和欠拟合?
怎样处理过拟合和欠拟合?

相关实验场景

更多