机器学习之模型评估和选择

简介: 即面对不同的模型如何选择一个最优的模型作为我们的学习结果,一般而言不同的学习算法也会产生不同的模型,在各种参数上会有差异,理想情况是获得一个泛化能力最强的那个模型,但事实上很难判断模型的泛化能力,数据的采集是一个问题,所以机器学习中常用一些指标进行评估模型的好坏

一、模型评估的一些基本术语

  • 经验误差

    指学习器在训练集上的误差

  • 泛化误差

    指学习器在新样本上的误差

  • 泛化能力

    学习的模型适应新样本的能力,即在预测新样本时的效果好坏

  • 过拟合

    模型训练过度,把训练样本自身的一些特点当成所有潜在样本的一般性质,导致泛化能力下降

  • 欠拟合

    模型对于训练样本的一般性质尚未学好,即学的还不够,能力还有待加强

  • 模型选择

    即面对不同的模型如何选择一个最优的模型作为我们的学习结果,一般而言不同的学习算法也会产生不同的模型,在各种参数上会有差异,理想情况是获得一个泛化能力最强的那个模型,但事实上很难判断模型的泛化能力,数据的采集是一个问题,所以机器学习中常用一些指标进行评估模型的好坏

二、模型评估的方法

我们希望得到一个泛化性能比较强的模型,一般而言是通过对数据集D进行划分成训练集S和测试集T,然后采用下列方法进行不同的处理,以获得最佳的模型

1.留出法

将数据集D划分成两个互斥的数据集,一个作为训练集,一个作为测试集,用测试集上的模型的效果对泛化误差进行估计

一般而言为了保持数据的分布的一致性,采取分层随机抽样的方法获得训练集和测试集

2.交叉验证法

先将数据集划分成k个相似的互斥子集,为保持数据分布的一致性,同样也是采取分层随机抽样,每次使用k-1个子集作为训练集,剩下的那个作为测试集,即可以获得k组训练结果,然后采取一定的方法进行最终结果的判断,比如,如果是离散值,投票法选最优,连续值,简单取平均即可。

一个特例:留一法,即每个子集都只包含一个数据的交叉验证法,这样的做法在小样本是非常有用的,避免了样本的不足导致模型训练不够的困难,但也有缺点,当数据量比较大的时候模型的计算等等开销比较大。

3.自助法

即有放回的随机抽样,每次随机的取一个数据出来,然后拷贝到一个集合中,重复m次即得到集合D~1~,初始集合为D,利用简单的极限推导可知,D中大概有1/3的数据不会出现在D~1~中,故取D~1~为训练集,D\D~1~为测试集,D~1~中可能有重复的数据,同样也在小规模的数据中比较常用,在大型数据集中由于其改变了数据的分布,可能会产生较大的估计偏差。

在数据量比较充足的情况下,留出法和交叉验证法更常用一点。

三、评价指标

这里由于时间匆忙写不了公式,后面有时间会补充的

  • 均方误差

    与预测值的误差平方的期望,离散型和连续型分别对应一个公式

    公式1,公式2

  • 错误率

    分类错误的样本数占样本总数的比例

    公式3

  • 精度

    分类正确的样本数占样本总数的比例

    公式4

  • 混淆矩阵

    预测结果
    真实情况 正例 反例
    正例 TP(真正例) FN(假反例)
    反例 FP(假正例) TN(真反例)

    T、F代表是否预测正确(True False)

    P、N代表预测的结果(Positive Negative)

  • 查准率(P):预测为正例中,正例的比例

​ 公式5

  • 查全率(R):实际为正例中,正例的比例

​ 公式6

  • F1值

    查准率和查全率的调和平均,即倒数等于二者倒数的平均

    公式7

  • P-R曲线

    将样本按照可能为正类的置信度从小到大排序,选择一个样本作为阈值点,大于他的值都看成正类,其他看成负类,这样就可以计算一组查全率和查准率,然后按照横坐标为查全率纵坐标为查准率绘制成一条曲线

    简单记忆查全率和查准率的方法,查全率就是在实际正类中的占比,查准率就是在预测正类中的占比

  • ROC曲线

    和P-R曲线类似,只是横纵坐标换了一下

    纵坐标为真正例率,即真正的正例在实际正例中的占比

    横坐标为假正例率,即预测为假的正例在实际负例中的占比

  • AUC

    即ROC 曲线包围的面积

目录
相关文章
|
4月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
845 109
|
5月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI-Model Gallery云上一键部署Kimi K2模型
月之暗面发布开源模型Kimi K2,采用MoE架构,参数达1T,激活参数32B,具备强代码能力及Agent任务处理优势。在编程、工具调用、数学推理测试中表现优异。阿里云PAI-Model Gallery已支持云端部署,提供企业级方案。
341 0
【新模型速递】PAI-Model Gallery云上一键部署Kimi K2模型
|
8月前
|
人工智能 JSON 算法
【解决方案】DistilQwen2.5-DS3-0324蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
DistilQwen 系列是阿里云人工智能平台 PAI 推出的蒸馏语言模型系列,包括 DistilQwen2、DistilQwen2.5、DistilQwen2.5-R1 等。本文详细介绍DistilQwen2.5-DS3-0324蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践。
|
9月前
|
人工智能 运维 API
PAI-Model Gallery云上一键部署阶跃星辰新模型Step1X-Edit
4月27日,阶跃星辰正式发布并开源图像编辑大模型 Step1X-Edit,性能达到开源 SOTA。Step1X-Edit模型总参数量为19B,实现 MLLM 与 DiT 的深度融合,在编辑精度与图像保真度上实现大幅提升,具备语义精准解析、身份一致性保持、高精度区域级控制三项关键能力;支持文字替换、风格迁移等11 类高频图像编辑任务类型。在最新发布的图像编辑基准 GEdit-Bench 中,Step1X-Edit 在语义一致性、图像质量与综合得分三项指标上全面领先现有开源模型,比肩 GPT-4o 与 Gemin。PAI-ModelGallery 支持Step1X-Edit一键部署方案。
|
6月前
|
机器学习/深度学习 算法 安全
差分隐私机器学习:通过添加噪声让模型更安全,也更智能
本文探讨在敏感数据上应用差分隐私(DP)进行机器学习的挑战与实践。通过模拟DP-SGD算法,在模型训练中注入噪声以保护个人隐私。实验表明,该方法在保持71%准确率和0.79 AUC的同时,具备良好泛化能力,但也带来少数类预测精度下降的问题。研究强调差分隐私应作为模型设计的核心考量,而非事后补救,并提出在参数调优、扰动策略选择和隐私预算管理等方面的优化路径。
439 3
差分隐私机器学习:通过添加噪声让模型更安全,也更智能
|
5月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI-Model Gallery云上一键部署gpt-oss系列模型
阿里云 PAI-Model Gallery 已同步接入 gpt-oss 系列模型,提供企业级部署方案。
|
6月前
|
机器学习/深度学习 人工智能 算法
Post-Training on PAI (4):模型微调SFT、DPO、GRPO
阿里云人工智能平台 PAI 提供了完整的模型微调产品能力,支持 监督微调(SFT)、偏好对齐(DPO)、强化学习微调(GRPO) 等业界常用模型微调训练方式。根据客户需求及代码能力层级,分别提供了 PAI-Model Gallery 一键微调、PAI-DSW Notebook 编程微调、PAI-DLC 容器化任务微调的全套产品功能。
|
7月前
|
存储 人工智能 运维
企业级MLOps落地:基于PAI-Studio构建自动化模型迭代流水线
本文深入解析MLOps落地的核心挑战与解决方案,涵盖技术断层分析、PAI-Studio平台选型、自动化流水线设计及实战构建,全面提升模型迭代效率与稳定性。
283 6
|
6月前
|
机器学习/深度学习 分布式计算 Java
Java 大视界 -- Java 大数据机器学习模型在遥感图像土地利用分类中的优化与应用(199)
本文探讨了Java大数据与机器学习模型在遥感图像土地利用分类中的优化与应用。面对传统方法效率低、精度差的问题,结合Hadoop、Spark与深度学习框架,实现了高效、精准的分类。通过实际案例展示了Java在数据处理、模型融合与参数调优中的强大能力,推动遥感图像分类迈向新高度。

相关产品

  • 人工智能平台 PAI