模型评估过程中,主要的验证方法与优缺点。

简介: 模型评估过程中,主要的验证方法与优缺点。

Holdout检验

Holdout检验是最简单也是最直接的验证方法,它将原始的样本随机划分成训练机和验证集两部分,通常情况下我们把样本按照70%-30%的比例分成两部分,70%用于模型的训练,30%用于模型的验证,包括绘制ROC曲线,计算精确率和召回率等指标来评估模型性能。


同时Holdout的缺点也很明显,即在验证集上计算出来的最后评估指标与原始的分组有很大关系,为了消除这种验证的随机性“交叉验证”出现了。


交叉验证

交叉验证是很常用的一种检验方法,常见的种类有k-fold交叉验证(K折交叉验证)和留一验证。


  • K-fold交叉验证


首先将全部的样本划分成K个大小相等的子集;依次遍历这K个样本,每次将遍历到的样本当作验证集,其余的样本作为训练集来进行模型的训练和评估,最后把他们的平均值作为最终的评估指标,通常情况下我们会将K的取值定为10。


  • 留一验证


每次留下一个样本作为验证集,其余所有样本作为测试集,样本的总数为n依次对n个样本进行遍历,进行n次验证,再将评估指标求得平均值得到最终的评估指标。


自助法

对于样本数量比较小的数据集,上述的方法(即便是留一法)会让训练集的数目减少,从而导致训练后的模型出现很大的误差影响了模型的结果。自助法能够比较好的解决这个问题。


自助法是基于自助采样法的一个检验方法,对于总数为n的样本集合,进行n次有放回的随机抽样,得到大小为n的训练集,在我们进行n次采样的过程中,有些样本会被重复采样,有些样本还没有被抽取过,我们将没有抽取的样本作为测试集进行模型的验证,这就是自助法的主要思想。

相关文章
|
23天前
|
存储 人工智能 安全
使用‘消除’技术绕过LLM的安全机制,不用训练就可以创建自己的nsfw模型
本文探讨了一种名为“abliteration”的技术,该技术能够在不重新训练大型语言模型(LLM)的情况下移除其内置的安全审查机制。通常,LLM在接收到潜在有害输入时会拒绝执行,但这一安全特性牺牲了模型的灵活性。通过对模型残差流的分析,研究人员发现可以识别并消除导致拒绝行为的特定方向,从而允许模型响应所有类型的提示。
268 1
|
24天前
|
编解码 算法 计算机视觉
YOLOv8数据增强预处理方式详解:包括数据增强的作用,数据增强方式与方法
YOLOv8数据增强预处理方式详解:包括数据增强的作用,数据增强方式与方法
|
2月前
|
存储 算法 数据挖掘
详述RAG的5步流程和12个优化策略
详述RAG的5步流程和12个优化策略。
详述RAG的5步流程和12个优化策略
|
2月前
|
自然语言处理
【大模型】如何使用提示工程来改善 LLM 输出?
【5月更文挑战第5天】【大模型】如何使用提示工程来改善 LLM 输出?
|
2月前
|
监控 负载均衡 测试技术
大模型开发:描述一个你之前工作中的模型部署过程。
完成大型语言模型训练后,经过验证集评估和泛化能力检查,进行模型剪枝与量化以减小规模。接着导出模型,封装成API,准备服务器环境。部署模型,集成后端服务,确保安全,配置负载均衡和扩容策略。设置监控和日志系统,进行A/B测试和灰度发布。最后,持续优化与维护,根据线上反馈调整模型。整个流程需团队协作,保证模型在实际应用中的稳定性和效率。
56 3
|
2月前
|
存储 测试技术 数据库
数据驱动测试中的参数化
数据驱动测试中的参数化
|
8月前
|
自然语言处理 测试技术 Python
通过Chain Prompts方式将LLM的能力引入测试平台:正交实验测试用例生成
通过Chain Prompts方式将LLM的能力引入测试平台:正交实验测试用例生成
175 0
|
10月前
|
前端开发 JavaScript 程序员
使用 ViroReact 开发增强实现应用的一个具体例子
使用 ViroReact 开发增强实现应用的一个具体例子
|
10月前
|
算法 JavaScript 数据安全/隐私保护
某美动态参数对抗思路
某美动态参数对抗思路
91 0
|
数据采集 算法 数据可视化
MMdetection框架速成系列 第03部分:简述整体构建细节与模块+训练测试模块流程剖析+深入解析代码模块与核心实现
按照抽象到具体方式,从多个层次进行训练和测试流程深入解析,从最抽象层讲起,到最后核心代码实现,希望帮助大家更容易理解 MMDetection 开源框架整体构建细节
552 0