机器学习推荐系统效果评测

简介: 机器学习推荐系统效果评测

1 指标

对于效果评测的话就必须要有指标,没有指标也就不知道这套推荐系统是好是坏,数据有无价值,指标,顾名思义,就是指定的标准。词典里的解释是“衡量目标的单位或方法”。指标就是为了描述一些对象的状态而制定出来的标准,在日常生产生活中有着非常广泛的应用。


比如体检时的化验项目,如眼睛近视度数、身高、体重、心跳、血压、血糖浓度、血小板浓度……以及尿酸浓度、各种转氨酶浓度等专业的指标。小小一张化验单据,多则百余项,少的只有一二十项,已经把人的身体状况描述得即简洁又具体,这就是指标的力量。


推荐系统的转化率的话就是你的推送的总物品数除以客户点击数,或者是点击之后的购买数,这个看运营商的规则进行制定,


在经过一段时间的统计后,可以发现转化率很可能是一个定值或者是围绕某值的正态分布。那么再进行广告投放时,就能够根据预期的推送数来做对应的点击数的预判,进而估算出收入大小,那么广告定价或者投放策略调整也都有了参考。


5f70046727da47abbdab4c5bc9dd638b.png


2 预测方案

236d51c100724345a540eae49b9bc07a.jpg


2.1 模型离线实验

首先需要知道的是,机器学习想要能够解决业务中的问题,简单可以分为两个阶段:离线和线上(离线指的是模型未部署到生产环境之前,线上是指模型部署到生产环境之后)。在离线阶段,首先需要先训练一个模型,然后对训练好的模型进行离线评估来了解下模型的性能情况。


– 通过体制系统获得用户行为数据,并按照一定格式生成一个标准的数据集

– 将数据集按照一定的规则分成训练集和测试集

– 在训练集上训练用户兴趣模型,在测试集上进行预测

– 通过事先定义的离线指标评测算法在测试集上的预测结果

8f62c92d74e54993a5ba6752d68188ae.jpg

2921af59e84541ddbba51e6e1b5b344b.jpg



离线评估无法消除模型过拟合的影响;离线评估无法还原线上真实环境(离线评估往往不会考虑线上环境的延迟,数据丢失等);离线评估可能无法计算一些商业指标(留存,停留,收益等),但是离线模式是数据挖掘最好的方式.


2.1.1 模型过拟合

引用下知乎回答:


9c282ce738d54ed29947f1e1cb5d097b.png

所以过拟合有两种原因:训练集和测试集特征分布不一致或者模型太过复杂(记住了每道题)而样本量不足


2.2 A/B测试

进行ab测试需要对用户进行分桶,将用户分为base组(老模型)和treat组(新模型)。分桶过程中,要注意样本的独立性和采样方式的无偏性,确保每个用户在一个桶中。


AB测试在很多互联网产品中都很常用,甚至有很多老牌的软件企业也从这种方式中汲取经验。


AB测试是一种评价体系的核心思想。大致的工作流程如下,当不知道一种产品的A方案好还是B方案好时,或者两种设计完全不同的产品A和B的市场反应如何时,会考虑找两组用户来进行测试。

30ec5a14a24741729b3a132d74dbc7a5.jpg

1dc550e0752c4379bb3fd7e30617acb6.jpg


2.3 用户调研


f8fa554f8d494c07913a32830e5da796.jpgc6c185b2756b4eb997d76031dec561ca.jpg


评分预测

– 很多网站都有让用户给物品打分的功能,如果知道用户对物品的历史评分,就可以从中学习一个兴趣模型,从而预测用户对新物品的评分

– 评分预测的准确度一般用均方根误差(RMSE)或平均绝对误差(MAE)计算

f295a1f6528848269b927bcf3d9daeb5.jpg


2.3.1 标准差

e57ef7963ac446fdb9a2502c2a08011c.png

我们以一年级一班所有40个学生为例,那么3门考试的情况下全班就有120个分数参与统计,也就是n=120。把每个学生每门课的成绩减去全班的3个学科总的平均分80分,这样得到120个差值,再把这些差值分别平方(主要是为了去掉负数,因为在分数差距里面,不管是比这个平均值多,还是比这个平均值少,都被视为偏差),将这些平方的结果再加和,之后除以参与统计的学科数量120,最后开平方,这个数字只可能是一个大于等于零的数字。用汉字描述起来很啰嗦,但是一旦变成一个标准差的指标以后,由于是约定俗成的,所以只需要“标准差”这3个字就能表示了。

这个数字表示的是什么含义?从这个数字得到的过程其实不难看出来。


举个例子:

如果所有的人的所有课程成绩都是和平均分一样,那么算出来的标准差就是0,因为每一个

596f02eee97d442a9ba358fcc17fb19c.png

肯定都是0;反之,如果所有的人的课程成绩与平均分的差距都很大,好的很好,差的很差,那么结果就是这个值会很大。如果一个班级成绩标准差比另一个班级成绩的标准差小,说明学生之间的考试成绩水平差不多,标准差大则说明学生之间的考试成绩水平相差比较大。


f6d3d66d827247cfbaacdd69079552e4.jpg


3 准确率、精确率和召回率


5a26d2bb75714b288f669c97e264111a.png

4baac2e7a1b8484bad3d97d56e14070e.png

目录
打赏
0
0
0
0
110
分享
相关文章
【解决方案】DistilQwen2.5-R1蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
阿里云的人工智能平台 PAI,作为一站式的机器学习和深度学习平台,对DistilQwen2.5-R1模型系列提供了全面的技术支持。无论是开发者还是企业客户,都可以通过 PAI-ModelGallery 轻松实现 Qwen2.5 系列模型的训练、评测、压缩和快速部署。本文详细介绍在 PAI 平台使用 DistilQwen2.5-R1 蒸馏模型的全链路最佳实践。
DistilQwen2.5蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
DistilQwen2.5 是阿里云人工智能平台 PAI 推出的全新蒸馏大语言模型系列。通过黑盒化和白盒化蒸馏结合的自研蒸馏链路,DistilQwen2.5各个尺寸的模型在多个基准测试数据集上比原始 Qwen2.5 模型有明显效果提升。这一系列模型在移动设备、边缘计算等资源受限的环境中具有更高的性能,在较小参数规模下,显著降低了所需的计算资源和推理时长。阿里云的人工智能平台 PAI,作为一站式的机器学习和深度学习平台,对 DistilQwen2.5 模型系列提供了全面的技术支持。本文详细介绍在 PAI 平台使用 DistilQwen2.5 蒸馏小模型的全链路最佳实践。
R1类模型推理能力评测手把手实战
R1类模型推理能力评测手把手实战
R1类模型推理能力评测手把手实战
随着DeepSeek-R1模型的广泛应用,越来越多的开发者开始尝试复现类似的模型,以提升其推理能力。
279 2
R1类模型推理能力评测手把手实战
随着DeepSeek-R1模型的广泛应用,越来越多的开发者开始尝试复现类似的模型,以提升其推理能力。
323 3
MME-CoT:多模态模型推理能力终极评测!六大领域细粒度评估,港中大等机构联合推出
MME-CoT 是由港中文等机构推出的用于评估大型多模态模型链式思维推理能力的基准测试框架,涵盖数学、科学、OCR、逻辑、时空和一般场景等六个领域,提供细粒度的推理质量、鲁棒性和效率评估。
104 0
Qwen2.5-Coder 系列模型在 PAI-QuickStart 的训练、评测、压缩及部署实践
阿里云的人工智能平台 PAI,作为一站式、 AI Native 的大模型与 AIGC 工程平台,为开发者和企业客户提供了 Qwen2.5-Coder 系列模型的全链路最佳实践。本文以Qwen2.5-Coder-32B为例,详细介绍在 PAI-QuickStart 完成 Qwen2.5-Coder 的训练、评测和快速部署。
Qwen2.5-Coder 系列模型在 PAI-QuickStart 的训练、评测、压缩及部署实践
DistilQwen2 蒸馏小模型在 PAI-QuickStart 的训练、评测、压缩及部署实践
本文详细介绍在 PAI 平台使用 DistilQwen2 蒸馏小模型的全链路最佳实践。
在数字化时代,推荐系统成为互联网应用的重要组成部分,通过机器学习技术根据用户兴趣和行为提供个性化推荐,提升用户体验
在数字化时代,推荐系统成为互联网应用的重要组成部分,通过机器学习技术根据用户兴趣和行为提供个性化推荐,提升用户体验。本文探讨了推荐系统的基本原理、常用算法、实现步骤及Python应用,介绍了如何克服数据稀疏性、冷启动等问题,强调了合理选择算法和持续优化的重要性。
199 4

热门文章

最新文章