【推荐系统论文精读系列】(十六)--Locally Connected Deep Learning Framework for Industrial-scale Recommender Systems

简介: 在这项工作中,我们提出了一个局部连接的深度学习框架推荐系统,该框架将DNN的模型复杂性降低了几个数量级。我们利用Wide& Deep模型的思想进一步扩展了框架。实验表明,该方法能在较短的运行时间内取得较好的效果。

@TOC


论文名称:Locally Connected Deep Learning Framework for Industrial-scale Recommender Systems
原文地址:Locally Connected Deep


⚡本系列历史文章⚡


【推荐系统论文精读系列】(一)--Amazon.com Recommendations
【推荐系统论文精读系列】(二)--Factorization Machines
【推荐系统论文精读系列】(三)--Matrix Factorization Techniques For Recommender Systems
【推荐系统论文精读系列】(四)--Practical Lessons from Predicting Clicks on Ads at Facebook
【推荐系统论文精读系列】(五)--Neural Collaborative Filtering
【推荐系统论文精读系列】(六)--Field-aware Factorization Machines for CTR Prediction
【推荐系统论文精读系列】(七)--AutoRec Autoencoders Meet Collaborative Filtering
【推荐系统论文精读系列】(八)--Deep Crossing:Web-Scale Modeling without Manually Crafted Combinatorial Features
【推荐系统论文精读系列】(九)--Product-based Neural Networks for User Response Prediction
【推荐系统论文精读系列】(十)--Wide&Deep Learning for Recommender Systems
【推荐系统论文精读系列】(十一)--DeepFM A Factorization-Machine based Neural Network for CTR Prediction


一、摘要


在这项工作中,我们提出了一个局部连接的深度学习框架推荐系统,该框架将DNN的模型复杂性降低了几个数量级。我们利用Wide&  Deep模型的思想进一步扩展了框架。实验表明,该方法能在较短的运行时间内取得较好的效果。


二、介绍


在许多实际的推荐系统中,大多数特征都是分类的,这些特征通常被离散化为一种热表示。离散化和特征交叉后的输入特征大小很容易达到数百万甚至数十亿。表1总结了我们使用的真实数据集,其中超过99.9%的数据集是稀疏特征。尽管深度学习模型具有引人注目的优势,但由于参数空间大幅增加,要将其扩展到工业规模仍具有挑战性。如果我们能够找到一种有效的方法来处理特征稀疏问题并压缩模型,那么在行业中实施深度学习模型将是一个很有前途的选择。在本工作中,我们提出了一种通用的局部连接的深度学习框架来处理大规模的工业级推荐任务,该框架将一热的稀疏特征转化为密集的输入,并显著降低了模型的尺寸。我们在多个工业规模的数据集上测试了该框架,并将其部署在支付宝推荐系统上。实验表明,该方法能在较短的时间内取得较好的效果。



三、模型架构


逻辑回归由于其简单、可扩展性强,在工业推荐系统中得到了广泛的应用。在本节中,我们首先介绍LR及其对等物,然后介绍一个有效解决稀疏性和可伸缩性问题的本地连接DNN。


3.1 逻辑回归和它的等价体



LR训练回归模型

网络异常,图片无法展示
|
来拟合输入特征向量
网络异常,图片无法展示
|
和标号
网络异常,图片无法展示
|
,其中
网络异常,图片无法展示
|
为logistic函数。LR模型可以转化为等效的3层模型,如图1右侧所示。这个转换过程将权值矩阵W分解为:



M1和M2是等效的3层模型的参数,其中M1是一个只有d值的稀疏“对角”矩阵1,M2是值为1的密集向量。我们将此等效模型称为本地连接网络。在下一节中,我们将这个想法扩展到DNN的案例中。


注解:作者改进的局部连接模型和MLP是有所区别的,我刚开始看的时候以为这不就是MLP嘛,多加了一层,后来看不是,它在输入层和隐层之间的权重不是全连接,而是每个类别特征编码后的分量进行局部连接,意思就是每个特征自己进行全连接,并不是将所有的特征全部进行连接,这也就是为什么要叫做Locally Connected。


而且这样改进后并不会更改模型的结果,因为在隐层和输出层之间的权重全部为1,所以结果是不变的。


关于这个公式的说明:


由于要做到局部连接,即只有对应的特征分量才会进行全连接,所有作者使用对角矩阵,只有需要连接的地方为实值,其余地方都是0,和MLP的公式一个道理,只是这里不连接的地方置为0,这样就能够实现局部连接,不需要的地方是0就不会传递到下一层进行训练了。


3.2 DNN的局部连接


DNN通过多层次非线性变换,从低级特征中分层学习高级抽象,显著优于LR在各种任务中的表现。为了便于解释,我们首先在图4(a)中给出了一个四层DNN。



式中

网络异常,图片无法展示
|
为非线性激活函数;
网络异常,图片无法展示
|
为模型参数。这里,K1和K2表示隐藏层的参数大小。设
网络异常,图片无法展示
|
为原始特征空间,
网络异常,图片无法展示
|
为离散特征空间。通常对于行业数据集,作为分类特性,如用户id,可以很容易地扩展到几百万个维度。K1和K2通常最多是几百或几千。因此,DNN的模型大小很大程度上依赖于W1。与方程1类似,将矩阵W1分解为W1 = M1 ×M2,其中M1∈Rd×f,  M2∈Rf ×K1。


注解:这两个层不同的地方就是第一个隐层那里,4层结构就是简单的MLP架构,5层就是改进之后的,多引入了一个层用于分类特征局部连接,对应着

网络异常,图片无法展示
|


使模型复杂关键的地方就是第一个隐层,因为它的权重矩阵为

网络异常,图片无法展示
|
,d为特征数通常为几百万,然后
网络异常,图片无法展示
|
隐层单元数一般为几百或者几千,所有后面的隐层不是模型复杂的关键,所有我们需要想办法将第一层进行分解。


我们进一步将DNN压缩为5层局部连接的DNN模型(LC-DNN),如图4(b)和图5所示。如图1所示,LR可以对M1进行预训练。在实际的实现中,我们首先训练一个基于离散特征的LR。然后将学习到的LR权值输入LC-DNN,这些权值与其他参数联合训练。



注解:这个模型的意思是首先将不同的类别特征进行OneHot或者Embedding操作将其离散化,然后基于离散后的特征进行局部连接,然后在第一个Feature Embedding层中将局部连接获得的向量与连续性向量进行拼接,然后输出到之后的MLP架构中。


四、实验结果


我们在两个真实世界的数据集上测试了我们提出的方法对LR和DNN的性能。表1总结了所使用的数据集。所有模型都是在我们自己的参数服务器[4]实现上实现的,并在集群上进行训练。


4.1 参数大小


首先,在我们的数据集上,从理论上比较LR、四层DNN和

网络异常,图片无法展示
|
网络结构的参数大小,以及相应的五层LC-DNN。显然,LC-DNN将DNN的参数大小降低了三个数量级。



4.2 效果


我们使用接收算子曲线下面积(AUC)来衡量解决方案的质量。从表4中我们可以看出,LC-DNN和LC-W&D的AUC均高于LR和DNN。



4.3 运行时间


图6记录了每个epoch的平均训练时间,以秒为单位。图6显示,我们提出的方法将DNN的运行时间提高了一个数量级。由于集群上分布式实现的自动负载平衡和通信开销,运行时的减少并不像理论估计的那样显著。



五、结论


在这项工作中,我们提出了一个局部连接的深度学习框架推荐系统,该框架将DNN的模型复杂性降低了几个数量级。我们利用Wide&  Deep模型的思想进一步扩展了框架。实验表明,该方法能在较短的运行时间内取得较好的效果。


References


[1] H.-T. Cheng, L. Koc, J. Harmsen, et al. Wide & deep learning for recommender systems. In 1st Workshop on Deep Learning for RecSys, pages 7–10, 2016.
[2] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. CoRR, 2015.
[3] Y. LeCun, Y. Bengio, and G. Hinton. Deep learning.Nature, 521(7553):436–444, 2015.
nition. CoRR, 2015.
[3] Y. LeCun, Y. Bengio, and G. Hinton. Deep learning.Nature, 521(7553):436–444, 2015.
[4] E. P. Xing, Q. Ho, W. Dai, et al. Petuum: A new platform for distributed machine learning on big data.IEEE Transactions on Big Data, 1(2):49–67, 2015.

目录
相关文章
|
8月前
|
设计模式 搜索推荐 测试技术
电影推荐系统的设计与实现(论文+系统)_kaic
电影推荐系统的设计与实现(论文+系统)_kaic
|
机器学习/深度学习 搜索推荐 算法
基于协同过滤的旅游推荐系统设计与实现(论文+源码)_kaic
摘要:旅游已经成为了大众节假日放松的主要方式,但因为不熟悉旅游地点带来的选择困难却是不可避免的。随着旅游业的发展旅游行业越来越信息化,用户获取旅游景点信息更加方便。然而,用户在选择旅游目的地时,往往会面对海量的景点信息,这导致他们难以找到适合自己的景点,同时也费时费力 。数量众多的旅游景点存在着信息过载现象且日益严重,用户在网上查找时很难真正搜索到自己感兴趣的旅游景点,对此推荐系统是一种行之有效的解决方法。目前推荐系统已在电影、新闻、音乐、电子商务等方面应用广泛,但在旅游领域还未广泛使用。各大旅游网站多是提供信息查询及订票服务,因此本文将协同过滤算法应用于旅游景点的推荐。
|
机器学习/深度学习 搜索推荐 TensorFlow
【推荐系统】TensorFlow复现论文Wide&Deep网络结构
【推荐系统】TensorFlow复现论文Wide&Deep网络结构
240 0
【推荐系统】TensorFlow复现论文Wide&Deep网络结构
|
搜索推荐 TensorFlow 数据处理
【推荐系统】TensorFlow复现论文DeepCrossing特征交叉网络结构
【推荐系统】TensorFlow复现论文DeepCrossing特征交叉网络结构
128 1
【推荐系统】TensorFlow复现论文DeepCrossing特征交叉网络结构
|
SQL 存储 搜索推荐
基于线上考研资讯数据抓取的推荐系统的设计与实现(论文+源码)_kaic
随着互联网的飞速发展,互联网在各行各业的应用迅速成为众多学校关注的焦点。他们利用互联网提供电子商务服务,然后有了“考研信息平台”,这将使学生考研的信息平台更加方便和简单。 对于考研信息平台的设计,大多采用java技术。在设计了一个搭载mysal数据库的全人系统,是根据目前网上考研信息平台的情况,专门开发的,专门根据学生的需要,实现网上考研信息平台的在线管理,并定期进行各种信息存储,进入考研信息平台页面后,即可开始操作主控界面。系统功能包括学生前台:首页、考研信息、申请指南、资料信息、论坛信息、我的、跳转到后台、购物车、客服、管理员:首页、人人中心、研究生信息管理、学生管理、申请指南管理、资料信
|
搜索推荐 安全 关系型数据库
基于知识图谱的个性化学习资源推荐系统的设计与实现(论文+源码)_kaic
最近几年来,伴随着教育信息化、个性化教育和K12之类的新观念提出,一如既往的教育方法向信息化智能化的转变,学生群体都对这种不受时间和地点约束的学习方式有浓厚的兴趣。而现在市面上存在的推荐系统给学生推荐资料时不符合学生个人对知识获取的需求情况,以至于推荐效果差强人意。与此同时,这种信息数字化的新学习方法在给学生群体带来方便的同时,也带来了很多其他的问题,例如信息冗杂、形式让人眼花缭乱的问题,导致系统检索变得难以运行。 解决问题的关键是个性化学习推荐系统,它适合于各式各样的用户产生的各式各样的需求。
|
人工智能 搜索推荐 算法
AAAI 2023杰出论文一作分享:新算法加持的大批量学习加速推荐系统训练
AAAI 2023杰出论文一作分享:新算法加持的大批量学习加速推荐系统训练
307 0
|
搜索推荐 算法
十六、推荐系统(Recommender systems)
十六、推荐系统(Recommender systems)
十六、推荐系统(Recommender systems)
|
搜索推荐 TensorFlow 数据处理
【推荐系统】TensorFlow复现论文PNN网络结构
【推荐系统】TensorFlow复现论文PNN网络结构
134 0
【推荐系统】TensorFlow复现论文PNN网络结构
|
搜索推荐 TensorFlow 算法框架/工具
【推荐系统】TensorFlow复现论文NeuralCF网络结构
【推荐系统】TensorFlow复现论文NeuralCF网络结构
191 0
【推荐系统】TensorFlow复现论文NeuralCF网络结构

热门文章

最新文章