【视频】机器学习交叉验证CV原理及R语言主成分PCA回归分析犯罪率|数据共享

简介: 【视频】机器学习交叉验证CV原理及R语言主成分PCA回归分析犯罪率|数据共享

全文下载链接:http://tecdat.cn/?p=24671


交叉验证是避免过度拟合和很好地理解预测模型性能的最有效技术之一


训练集用于训练模型,测试集用于评估其性能。但是这种方法通常应该避免,并且不应用于现实世界的场景。


这是因为如果我们长时间训练我们的模型直到找到正确的配置,我们可能会在测试集中引起过度拟合。这个概念被称为_数据泄漏_,是该领域最常见和最有影响力的问题之一。事实上,如果我们训练我们的模型在测试集上表现良好,那么_它_对那个测试集有效。


我所说的配置_是什么意思?每个模型都以一系列超参数为特征。这是一个定义

模型超参数是一种外部配置,其值无法从数据中估计。更改超参数会相应地更改模型对我们数据的行为,并且可以改善或恶化我们的性能。

例如,Sklearn 的_DecisionTreeClassifier_树,将max_depth作为管理树深度超参数。更改此超参数会改变模型的性能,无论好坏。我们无法事先知道 max\_depth 的理想值,除非通过实验。除了 max\_depth,决策树还有很多其他的超参数。

当我们选择要在数据集上使用的模型时,我们需要了解哪些是最佳的超参数配置。此活动称为_超参数调整_。


一旦我们找到最佳配置,您就可以将具有最佳配置的最佳模型带到“真实”世界——即由模型从未见过的数据组成的测试集。


为了在不直接测试测试集的情况下测试配置,我们引入了第三组数据,称为验证集

一般流程是这样的:

  1. 我们在训练集上训练模型
  2. 我们在验证集上测试当前配置的性能
  3. 当且仅当我们对验证集的性能感到满意时,我们才会在测试集上进行测试。

但是,为什么要通过添加额外的一组来评估性能来复杂化呢?为什么不使用经典的训练-测试集拆分?

原因很简单,但非常重要。

机器学习是一个 迭代过程

通过迭代,我的意思是一个模型可以而且必须用不同的配置多次评估,以便我们了解哪个是性能最好的条件。验证集允许我们测试不同的配置并为我们的场景选择最好的配置,而没有过度拟合的风险。

但是有一个问题。通过将我们的数据集分为三个部分,我们还减少了训练模型可用的示例数量。此外,由于通常的拆分为 50–30–20,因此模型结果可能随机取决于数据在各个集合中的分布方式。

交叉验证通过从方程中删除验证集并保留模型可用于学习的示例数量来解决此问题。


什么是交叉验证?


交叉验证是机器学习中最重要的概念之一。这是因为它允许我们创建能够_泛化的模型——_也就是说,即使在不属于训练集的数据上也能够创建一致的预测

一个可以泛化的模型是一个有用的、强大的模型。

交叉验证意味着将我们的训练数据分成不同的部分,并在这些部分的子集上测试我们的模型。测试集继续用于最终评估,而模型性能则在交叉验证生成的部分上进行评估。这种方法称为K-Fold 交叉验证,稍后我们将更详细地了解它。

下图总结了目前为止的这句话。


K 折交叉验证


交叉验证可以通过不同的方式完成,每种方法都适用于不同的场景。在本文中,我们将介绍_K-Fold 交叉验证_,这是迄今为止最流行的交叉验证技术。其他流行的变体是_分层_交叉验证和基于组的交叉验证。

训练集被分成 K-folds,模型在k-1个部分上进行训练。剩余部分用于评估模型。

这一切都发生在所谓的_交叉验证循环中。


在通过每个分段进行交互之后,我们将获得最终结果的平均表现。这提高了性能的有效性,因为在训练数据集的每个部分上都训练了一个“新”模型。然后,我们将得到一个最终分数,该分数总结了模型在许多验证步骤中的性能——与查看单个迭代的性能相比,这是一种非常可靠的方法!

让我们分解这个过程:

  1. 随机化数据集的每一行
  2. 将数据集划分为 k 个部分
  3. 对于每个组

1. 创建一个测试部分  

2. 将剩余部分分配给训练  

3. 训练模型并在提到的集合上对其进行评估  

4. 保存性能

  1. 通过在流程结束时取平均分来评估整体绩效

k 的值通常为 5 或 10,但Sturges规则可用于建立更精确的分割数

number of splits = 1 + log2(N)

其中 N 是样本总数。


R语言回归和主成分PCA 回归交叉验证分析预测城市犯罪率


在本文中,我解释了基本回归,并介绍了主成分分析 (PCA) 使用回归来预测城市中观察到的犯罪率。我还应用 PCA 创建了一个回归模型,用于使用前几个主成分对相同的犯罪数据进行建模。最后,我对两种模型的结果进行了比较,看看哪个表现更好。


回归有助于显示因素和因变量之间的关系,它基本上回答了两种类型的问题;1. 吸烟对癌症的影响 2. 未来会发生什么?(例如)三年后的油价。


数据


犯罪学家对惩罚制度对犯罪率查看文末了解数据免费获取方式的影响感兴趣。已使用汇总数据对此进行了研究。数据集包含以下列:

变量描述

M:  14-24岁的男性在总人口中的百分比

So:  南方的指标变量

Ed:  25岁或以上人口的平均受教育年限

Po1:年警察保护的人均支出

Po2:去年警察保护的人均支出

LF:14-24岁年龄组的城市男性平民的劳动力参与率

M.F:每100名女性的男性人数

Pop:国家人口,以十万计

NW:非白人在人口中的百分比

U1:14-24岁城市男性的失业率

U2:城市男性35-39岁的失业率

财富财富:可转让资产或家庭收入的中值

收入不平等:收入低于中位数一半的家庭的百分比

入狱概率:入狱人数与犯罪人数的比率

时间:罪犯在首次获释前在国家监狱中服刑的平均时间(月)。

犯罪:每10万人口中的犯罪数量

导入R环境

read("crim.txt")


检查变量是否正确


head(crim) #所有的变量都是预测因素,只有犯罪是因变量。

创建简单的回归模型

summary(model)

使用数据框架来手动创建我们的数据点测试,然后在测试数据上运行一些预测。

primodl <- predict(mdl, test)


输出值不到下一个最低城市的犯罪率的一半,所以我将创建第二个模型,观察它的输出并画出比较。

创建第二个模型

sumry(son_mel)

我们现在可以对第二个模型进行预测了

pic\_secn\_mel<- prict(sed_odel, tst)


pic\_secn\_mel

与第一个模型相比,其结果明显更高。所以,它更合理。


交叉验证


我们可以做一个5折的交叉验证。

cv(se,m=5)

我们可以得到数据和其平均值之间的平方差的总和


点击标题查阅往期内容


R语言用主成分PCA、 逻辑回归、决策树、随机森林分析心脏病数据并高维可视化


01

02

03

04


sum((Cm- mean(ui))^2)

我们可以得到模型1、模型2和交叉验证的平方残差之和

SSrl <- sum(res^2)

SSre <- sum(resi^2)

res <- "ms")*nrow

我们也可以计算出3个模型的R平方值

1 -res/tot

1-res/SS

1-res/SS

获得的R平方值表明我们的拟合质量很好。对于惩罚性回归,有必要对数据进行标准化,以确保所有的特征都受到同等的惩罚。但在线性回归的情况下,这其实并不重要。它将只是转移截距和系数,但相关关系保持不变。


PCA


PCA是一种用于描述变化的方法,显示数据集中的强相关性,从而使其易于探索和可视化数据。PCA通过以下方式对数据进行转换:(1)去除数据中的相关关系(2)按重要性对坐标进行排序。

我们可以检查crime数据的预测变量之间的相关性。

pairs(srm,c("o",Ed"o"))

对数据集中的所有预测变量应用PCA。请注意,为了获得更准确的PCA结果,需要对这些变量进行标准化。

sumr(pca)

rotan #PCA旋转是特征向量的矩阵

pca

然后,我们可以通过绘制每个主成分的方差来决定在 "前几个 "主成分中使用多少个主成分。

plotpcaye ="ie")

要确定使用多少PC?我们可以尝试使用5个主成分作为开始。

pcax\[,1:5\]

使用前五个PC,我们可以继续建立一个线性回归模型。

summary(mdPCA)

为了根据原始变量重建模型,首先我们从PCA线性回归模型中获得系数,之后通过使用主成分的特征向量将PCA成分系数转化为原始变量的系数。


PCA线性回归的系数


coefficients\[1\]
coefficients\[2:6\]
beta0 #截距

转换

rot %*% beta
 t(alpha) # 标准化的数据系数

获得未标准化数据的系数。

ahusl <- ahs / sppy(u\[,1:15\],sd)
 ba0cl <- ea0 - sum/sapply(sd))

未标准化数据的系数


t(alas_sled)


be0uced

#我们可以得到我们的未标准化数据的估计值
as.marx %*% unscle + beta0aled

最后,为了比较使用PCA的模型和使用回归的模型的质量,我们必须计算R-squared和调整后的R-squared,并将这些数值与前一个模型的数值进行比较。调整后的R平方考虑了模型中预测因子的数量。

Rsquared <- 1 - SSE/SST # R-squared

使用所有变量的无PCA的先前线性回归模型

summary(dlLR)

R-squared 和调整后的 R-squared 值都较高,这表明至少对于使用前五个主成分的模型,具有 PCA 的线性回归模型优于没有 PCA 的线性回归模型。为了检查使用不同数量的前 n 个主成分的线性回归模型是否产生了更好的拟合模型,我们可以使用循环并进一步进行交叉验证。

目录
打赏
0
0
0
0
111
分享
相关文章
机器学习特征筛选:向后淘汰法原理与Python实现
向后淘汰法(Backward Elimination)是机器学习中一种重要的特征选择技术,通过系统性地移除对模型贡献较小的特征,以提高模型性能和可解释性。该方法从完整特征集出发,逐步剔除不重要的特征,最终保留最具影响力的变量子集。其优势包括提升模型简洁性和性能,减少过拟合,降低计算复杂度。然而,该方法在高维特征空间中计算成本较高,且可能陷入局部最优解。适用于线性回归、逻辑回归等统计学习模型。
60 7
Pandas数据应用:机器学习预处理
本文介绍如何使用Pandas进行机器学习数据预处理,涵盖数据加载、缺失值处理、类型转换、标准化与归一化及分类变量编码等内容。常见问题包括文件路径错误、编码不正确、数据类型不符、缺失值处理不当等。通过代码案例详细解释每一步骤,并提供解决方案,确保数据质量,提升模型性能。
166 88
基于机器学习的数据分析:PLC采集的生产数据预测设备故障模型
本文介绍如何利用Python和Scikit-learn构建基于PLC数据的设备故障预测模型。通过实时采集温度、振动、电流等参数,进行数据预处理和特征提取,选择合适的机器学习模型(如随机森林、XGBoost),并优化模型性能。文章还分享了边缘计算部署方案及常见问题排查,强调模型预测应结合定期维护,确保系统稳定运行。
61 0
机器学习在生物信息学中的创新应用:解锁生物数据的奥秘
机器学习在生物信息学中的创新应用:解锁生物数据的奥秘
313 36
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量
Diff-Instruct 是一种从预训练扩散模型中迁移知识的通用框架,通过最小化积分Kullback-Leibler散度,指导其他生成模型的训练,提升生成性能。
90 11
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量
跨越鸿沟:PAI-DSW 支持动态数据挂载新体验
本文讲述了如何在 PAI-DSW 中集成和利用 Fluid 框架,以及通过动态挂载技术实现 OSS 等存储介质上数据集的快速接入和管理。通过案例演示,进一步展示了动态挂载功能的实际应用效果和优势。
模型训练数据-MinerU一款Pdf转Markdown软件
MinerU是由上海人工智能实验室OpenDataLab团队开发的开源智能数据提取工具,专长于复杂PDF文档的高效解析与提取。它能够将含有图片、公式、表格等多模态内容的PDF文档转化为Markdown格式,同时支持从网页和电子书中提取内容,显著提升了AI语料准备的效率。MinerU具备高精度的PDF模型解析工具链,能自动识别乱码,保留文档结构,并将公式转换为LaTeX格式,广泛适用于学术、财务、法律等领域。
406 4
分布式机器学习系统:设计原理、优化策略与实践经验
本文详细探讨了分布式机器学习系统的发展现状与挑战,重点分析了数据并行、模型并行等核心训练范式,以及参数服务器、优化器等关键组件的设计与实现。文章还深入讨论了混合精度训练、梯度累积、ZeRO优化器等高级特性,旨在提供一套全面的技术解决方案,以应对超大规模模型训练中的计算、存储及通信挑战。
167 4

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等