三、CLEA算法流程
四、实验结果
在四个真实的数据集上进行了实验。对于每一个用户,都随机采用了1000个负样本,然后在groud-truth基础上对这些负样本进行排序。
模型采用四个评估指标:Recall@K、Precision@K、F1@K和NDCG@K
对比结果:表明了这种hard把序列分成正负序列的做法,比attention那种softmax进行加权求和的方法要更好。以及,对比学习的两阶段训练比联合训练好。
五、总结
基本的序列推荐方法,是把所有的历史行为通过RNN、GRU等序列模型融合成固定长度的embedding,然后进行预测;但是用户行为的随机和多样性导致不是所有的行为都有助于下一个物品预测的,所以进一步有基于attention的方法,这类方法基本思路就是用过softmax加权求和的方式削弱历史不相关物品的影响,但是仍然保留了一些噪声。
因此本文提出了一种通过用对比学习进行有效的去噪,并且取得了SOTA的效果,是一篇非常值得精度的论文。