机器学习算法之欠拟合和过拟合

简介: 机器学习算法之欠拟合和过拟合

1.定义

过拟合:一个假设在训练数据上能够获得比其他假设更好的拟合, 但是在测试数据集上却不能很好地拟合数据,此时认为这个假设出现了过拟合的现象。(模型过于复杂)

欠拟合:一个假设在训练数据上不能获得更好的拟合,并且在测试数据集上也不能很好地拟合数据,此时认为这个假设出现了欠拟合的现象。(模型过于简单)

那么是什么原因导致模型复杂?

线性回归进行训练学习的时候,模型会变得复杂,因为线性回归有两种关系(线性关系和非线性关系),非线性关系的数据,存在很多无用的特征,或者现实中的事物特征跟目标值的关系并不是简单的线性关系。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

2.原因以及解决办法

2.1 欠拟合

原因:学习到数据的特征过少

解决办法:

1)添加其他特征项。有时模型出现欠拟合,是因为特征项不够。可以通过添加其他特征项来很好地解决。例如「组合」、「泛化」、「相关性」三类特征是特征添加的重要手段,无论在什么场景,都可以照葫芦画瓢,总会得到意想不到的效果。除上面的特征之外,「上下文特征」、「平台特征」等等,都可以作为特征添加的首选项。

2)添加多项式特征。此操作在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强。

2.2 过拟合

原因:原始特征过多,存在一些嘈杂特征,。模型过于复杂是因为模型尝试去兼顾各个测试数据点

解决办法:

1)重新清洗数据。导致过拟合的一个原因也有可能是数据不纯。此类情况就需要重新清洗数据。

2)增大数据的训练量。还有一个原因就是用于训练的数据量太小,即训练数据占总数据的比例过小。

3)正则化(下面我们会详细讲解)

4)减少特征维度,防止维灾难(文章末尾会讲解)

2.3 图解过拟合和欠拟合

3.正则化

3.1 什么是正则化

数据提供的特征可能影响模型复杂度或者这个特征的数据点异常较多,所以算法在学习时,应尽量减少这个特征的影响(甚至删除这个特征的影响),这就是正则化。

简单来说,正则化是一种为了减小测试误差而发生的行为(有时候会增加训练误差)。在构造机器学习模型时,最终目的是让模型在面对新数据的时候,可以有很好的表现。当你用比较复杂的模型比如神经网络,去拟合数据时,很容易出现过拟合现象(训练集表现很好,测试集表现较差),这会导致模型的泛化能力下降,此时,我们就需要使用正则化,降低模型的复杂度。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

在这里针对回归,选择正则化。但是对于其他机器学习算法如分类算法来说也会出现这样的问题,除了一些算法本身作用之外(决策树、神经网络),更多情况下也会自己做特征选择,包括删除、合并一些特征。

3.2 正则化类别

L1正则化

作用:可以使得其中一些 W 的值直接为0,删除这个特征的影响LASSO 回归

L2正则化

作用:可以使得其中一些 W 的值都很小,接近于0,削弱某个特征的影响优点:越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象Ridge 回归

注:调整时候,算法并不知道某个特征影响,而是去调整参数得出优化的结果

4.维灾难

4.1 什么是维灾难

随着维度的增加,分类器性能逐步上升,到达某点之后,其性能便逐渐下降

有一系列的图片,每张图片的内容可能是猫也可能是狗。我们需要构造一个分类器,使其能够对猫、狗自动的分类。首先,要寻找到一些能够描述猫和狗的特征,这样我们的分类算法就可以利用这些特征去识别物体。猫和狗的皮毛颜色可能是一个很好的特征。考虑到红绿蓝这三种构成图像的基色,制作了一个简单的 Fisher 分类器:



If  0.5*red + 0.3*green + 0.2*blue > 0.6 : return cat;    else return dog;

只使用颜色特征可能无法得到一个足够准确的分类器,那么不妨加入一些诸如图像纹理(图像灰度值在其 XY 方向的导数 dxdy),这样就有5个特征( RedBlueGreendxdy)来设计我们的分类器:

也许分类器准确率依然无法达到要求,这就需要加入更多的特征,如此下去,可能会得到上百个特征。那是不是我们的分类器性能会随着特征数量的增加而逐步提高呢?答案也许有些让人沮丧。事实上,当特征数量达到一定规模后,分类器的性能是在下降的。更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

随着维度(特征数量)的增加,分类器的性能却下降了,这就是维灾难

4.2 维数灾难与过拟合

假设猫和狗图片的数量是有限的(样本数量总是有限的),比如有10张图片,接下来就用这仅有的10张图片训练我们的分类器。

增加一个特征,比如绿色,这样特征维数扩展到了2维:

但在增加一个特征后,我们依然无法找到一条简单的直线将它们有效分类。不妨再增加一个特征,比如蓝色,扩展到3维特征空间:

在3维特征空间中,就很容易找到一个分类平面,将训练集上的猫和狗进行有效的分类:

这样看来,在高维空间中,似乎分类器性能更优。

从1维到3维,给我们的感觉是:维数越高,分类性能越优。然而,维数过高将导致一定的问题:在一维特征空间下,假设一个维度的宽度为5个单位,这样样本密度为10/5=2;在2维特征空间下,10个样本所分布的空间大小25,这样样本密度为10/25=0.4;在3维特征空间下,10个样本分布的空间大小为125,样本密度就变为了10/125=0.08。

如果继续增加特征数量,维度也会继续增加,样本将变得越来越稀疏。此时,虽然更容易找到一个超平面将目标分开,但如果我们将高维空间向低维空间投影,高维空间隐藏的问题也会显现出来:过多的特征导致过拟合现象,即训练集上表现良好,但是对新数据缺乏泛化能力。

高维空间训练形成的线性分类器,相当于在低维空间的一个复杂的非线性分类器,这种分类器过多的强调了训练集的准确率甚至于对一些 错误 或者 异常 的数据也进行了学习,而正确的数据却无法覆盖整个特征空间。为此,这样得到的分类器在对新数据进行预测时将会出现错误。这种现象称之为过拟合,同时也是维灾难的直接体现。

简单的线性分类器在训练数据上的表现不如非线性分类器,但由于线性分类器的学习过程中对噪声不像非线性分类器那样敏感,因此对新数据具备更优的泛化能力。换句话说,通过使用更少的特征,避免了维数灾难的发生(也即避免了高维情况下的过拟合)更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

由于高维而带来的数据稀疏性问题:假设有一个特征,它的取值范围 D 在0到1之间均匀分布,并且对狗和猫来说其值都是唯一的。现在利用这个特征来设计分类器。

如果训练数据覆盖了取值范围的20%(e.g 0到0.2),那么所使用的训练数据就占总样本量的20%。上升到二维情况下,覆盖二维特征空间20%的面积,则需要在每个维度上取得45%的取值范围。在三维情况下,要覆盖特征空间20%的体积,则需要在每个维度上取得58%的取值范围 ... 在维度接近一定程度时,要取得同样的训练样本数量,则几乎要在每个维度上取得接近100%的取值范围,或者增加总样本数量,但样本数量也总是有限的。

这样一直增加特征维数,由于样本分布越来越稀疏,如果要避免过拟合的出现,就不得不持续增加样本数量。

数据在高维空间的中心比在边缘区域具备更大的稀疏性,数据更倾向于分布在空间的边缘区域:

不属于单位圆的训练样本比搜索空间的中心更接近搜索空间的角点。这些样本很难分类,因为它们的特征值差别很大(例如,单位正方形的对角的样本)。

一个有趣的问题是,当我们增加特征空间的维度时,圆(超球面)的体积相对于正方形(超立方体)的体积如何发生变化。尺寸 d 的单位超立方体的体积总是1 ^ d = 1。尺寸 d 和半径0.5的内切超球体的体积可以计算为:

在高维空间中,大多数训练数据驻留在定义特征空间的超立方体的角落中。如前所述,特征空间角落中的实例比围绕超球体质心的实例难以分类。



an 8D hypercube which has 2^8 = 256 corners

事实证明,许多事物在高维空间中表现得非常不同。例如,如果你选择一个单位平方(1×1平方)的随机点,它将只有大约0.4%的机会位于小于0.001的边界(换句话说,随机点位于任何维度「极端」这是非常不可能的)。但是在一个10000维单位超立方体(1×1×1立方体,有1万个1)中,这个概率大于99.999999%。高维超立方体中的大部分点都非常靠近边界。更难区分的是:如果在一个单位正方形中随机抽取两个点,这两个点之间的距离平均约为0.52。如果在单位三维立方体中选取两个随机点,则平均距离将大致为0.66。但是在一个100万维的超立方体中随机抽取两点呢?那么平均距离将是大约408.25(大约1,000,000 / 6)!

非常违反直觉:当位于相同的单位超立方体内时,两点如何分离?这个事实意味着高维数据集有可能非常稀疏,大多数训练实例可能彼此远离。当然,这也意味着一个新实例可能离任何训练实例都很远,这使得预测的可信度表现得比在低维度数据中要差。训练集的维度越多,过度拟合的风险就越大更多精彩文章请关注公众号『Pythonnote』或者『全栈技术精选』

理论上讲,维度灾难的一个解决方案是增加训练集的大小以达到足够密度的训练实例。不幸的是,在实践中,达到给定密度所需训练实例的数量随着维度的数量呈指数增长。如果只有100个特征(比MNIST问题少得多),那么为了使训练实例的平均值在0.1以内,需要有比可观察宇宙中的原子更多的训练实例,假设它们在所有维度上均匀分布。

对于8维超立方体,大约98%的数据集中在其256个角上。结果,当特征空间的维度达到无穷大时,从采样点到质心的最小和最大欧几里得距离的差与最小距离本身只比趋于零:

距离测量 开始失去其在高维空间中测量的 有效性,由于分类器取决于这些距离测量,因此在较低维空间中分类通常更容易,其中较少特征用于描述感兴趣对象。

如果理论上,无限数量的训练样本可用,则维度的诅咒不适用,我们可以简单地使用无数个特征来获得完美的分类。训练数据量越小,应使用的功能就越少。如果 N 个训练样本足以覆盖单位区间大小的 1D 特征空间,则需要 N ^ 2 个样本来覆盖具有相同密度的 2D 特征空间,并且在 3D 特征空间中需要 N ^ 3 个样本。换句话说,所需的训练实例数量随着使用的维度数量呈指数增长

相关文章
|
5天前
|
机器学习/深度学习 人工智能 算法
【昆虫识别系统】图像识别Python+卷积神经网络算法+人工智能+深度学习+机器学习+TensorFlow+ResNet50
昆虫识别系统,使用Python作为主要开发语言。通过TensorFlow搭建ResNet50卷积神经网络算法(CNN)模型。通过对10种常见的昆虫图片数据集('蜜蜂', '甲虫', '蝴蝶', '蝉', '蜻蜓', '蚱蜢', '蛾', '蝎子', '蜗牛', '蜘蛛')进行训练,得到一个识别精度较高的H5格式模型文件,然后使用Django搭建Web网页端可视化操作界面,实现用户上传一张昆虫图片识别其名称。
115 7
【昆虫识别系统】图像识别Python+卷积神经网络算法+人工智能+深度学习+机器学习+TensorFlow+ResNet50
|
5天前
|
机器学习/深度学习 人工智能 算法
算法金 | 统计学的回归和机器学习中的回归有什么差别?
**摘要:** 统计学回归重在解释,使用线性模型分析小数据集,强调假设检验与解释性。机器学习回归目标预测,处理大数据集,模型复杂多样,关注泛化能力和预测误差。两者在假设、模型、数据量和评估标准上有显著差异,分别适用于解释性研究和预测任务。
33 8
算法金 | 统计学的回归和机器学习中的回归有什么差别?
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
机器学习算法入门:从K-means到神经网络
【6月更文挑战第26天】机器学习入门:从K-means到神经网络。文章涵盖了K-means聚类、逻辑回归、决策树和神经网络的基础原理及应用场景。K-means用于数据分组,逻辑回归适用于二分类,决策树通过特征划分做决策,神经网络则在复杂任务如图像和语言处理中大显身手。是初学者的算法导览。
|
2天前
|
机器学习/深度学习 算法 数据挖掘
Python机器学习10大经典算法的讲解和示例
为了展示10个经典的机器学习算法的最简例子,我将为每个算法编写一个小的示例代码。这些算法将包括线性回归、逻辑回归、K-最近邻(KNN)、支持向量机(SVM)、决策树、随机森林、朴素贝叶斯、K-均值聚类、主成分分析(PCA)、和梯度提升(Gradient Boosting)。我将使用常见的机器学习库,如 scikit-learn,numpy 和 pandas 来实现这些算法。
|
6天前
|
机器学习/深度学习 人工智能 Dart
AI - 机器学习GBDT算法
梯度提升决策树(Gradient Boosting Decision Tree),是一种集成学习的算法,它通过构建多个决策树来逐步修正之前模型的错误,从而提升模型整体的预测性能。
|
7天前
|
机器学习/深度学习 算法 BI
机器学习笔记(一) 感知机算法 之 原理篇
机器学习笔记(一) 感知机算法 之 原理篇
|
6天前
|
机器学习/深度学习 算法 搜索推荐
机器学习聚类算法
聚类算法是无监督学习技术,用于发现数据集中的自然群体,如用户画像、广告推荐等。常见的聚类算法包括K-Means,它基于距离分配样本至簇,适合球形分布;层次聚类则通过合并或分裂形成簇,能发现任意形状的簇;DBSCAN依据密度来聚类,对噪声鲁棒。KMeans API中`sklearn.cluster.KMeans(n_clusters=8)`用于指定簇的数量。评估聚类效果可使用轮廓系数、SSE等指标,Elbow方法帮助选择合适的K值。
|
6天前
|
机器学习/深度学习 算法
机器学习算法决策树(二)
**ID3决策树算法**是1975年由J. Ross Quinlan提出的,它基于信息增益来选择最佳划分特征。信息增益是衡量数据集纯度变化的指标,熵则是评估数据不确定性的度量。算法通过比较每个特征的信息增益来选择分裂属性,目标是构建一个能最大化信息增益的决策树。然而,ID3容易偏向于选择具有更多特征值的属性,C4.5算法为解决这一问题引入了信息增益率,降低了这种偏好。CART决策树则不仅用于分类,也用于回归,并使用基尼指数或信息熵来选择分割点。剪枝是防止过拟合的重要手段,包括预剪枝和后剪枝策略。
|
6天前
|
机器学习/深度学习 算法 数据可视化
机器学习算法决策树(一)
**决策树模型**是一种直观的分类模型,常用于金融风控和医疗诊断等领域。它通过树形结构对数据进行划分,易于理解和解释,能揭示特征重要性且计算复杂度低。然而,模型可能过拟合,需剪枝处理;不擅长处理连续特征;预测能力有限,且对数据变化敏感。在集成学习如XGBoost中,决策树作为基模型广泛应用。示例代码展示了使用Python的`sklearn`库构建和可视化决策树的过程。
|
7天前
|
机器学习/深度学习 算法 数据挖掘
机器学习之聚类——MeanShift算法和图像矢量量化
机器学习之聚类——MeanShift算法和图像矢量量化
8 0

热门文章

最新文章