有三种,分别为:简单交叉验证/留出法(hold-out):将数据集按一定比例随机分为两部分:训练集和测试集,分别在其上训练和测试所有备选模型,选出测试结果最好的,这相当于用模型评估代替了模型选择,直接砍掉验证集来增加其余两个集合的样本量,简单粗暴;
K折交叉验证(k-fold cross validation):将数据集随机划分为 个大小相同或基本相同的子集,分别把每一个子集作为测试集,其余 个子集作为训练集,就得到了 组不同的训练、测试集,在这 组训练、测试集上训练并测试每一种模型,选择平均测试误差最小的模型;有时为了避免单次随机划分的特殊性,还会进行多次随机划分,将多个交叉验证的结果再进行一次平均;
留一交叉验证(leave-one-out cross validation):K折交叉验证的特例,将K取为样本量N,也即把每个样本单独作为测试集,其余样本作为训练集。这种方法的计算量较大,一般仅用于数据稀少的情况。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。