云上个性化推荐:基于PAI和Hologres的个性化推荐最佳实践

简介: 本文主要分享从阿里巴巴计算平台推荐系统的整体解决方案出发,重点介绍基于PAI的向量召回算法和Hologres向量检索的整体架构,以及该架构在云上客户的落地案例和效果分享。

简介:常见的个性化推荐系统包括日志收集、数据加工、召回、排序、离线/在线效果评估等诸多环节,对于中小客户存在技术门槛高、搭建周期长等问题,阿里巴巴计算平台基于PAI、Hologres、MaxCompute、DataWorks等产品帮助客户快速搭建个性化推荐解决方案。本文主要分享,从阿里巴巴计算平台推荐系统的整体解决方案出发,重点介绍基于PAI的向量召回算法和Hologres向量检索的整体架构,以及该架构在云上客户的落地案例和效果分享。
讲师介绍:天邑,阿里云计算平台高级算法工程师。主要从事基于PAI平台的召回和排序算法研发,及基于云产品的推荐系统解决方案研发,赋能客户个性化推荐解决方案落地。

一、云上个性化推荐解决方案简介

(一)个性化推荐 - 核心能力

个性化推荐核心价值是要做到千人千面,实现用户需求和资源的最佳匹配,从而提升流量到业务目标的转化效果。

个性化推荐流程一般分召回和排序两个部分,我们要从海量的数据中来精准的筛选出几个到几十个Item给用户推荐过去。

(二)个性化推荐 – 常见方案痛点

常见推荐方案一:运营经验制定推荐策略
需要有推荐经验的产品设计或运营人员,通过积累的个人经验,制定业务推荐策略,并结合数据分析,调整推荐方案,通常在业务规模比较小的企业,冷启动
阶段使用,有明显的效果弊端:

  • 推荐方案及效果,受到人为影响而不可控。
  • 方案难以实时结合业务发展快速更新,迭代速度慢。
  • 数据计算能力有限,大规模数据分析时候困难。
  • 缺少算法人员搭建企业推荐系统,影响企业提升市场竞争

常见推荐方案二:开源框架自建推荐系统(常见推荐方案:运营经验制定推荐策略)
越来越多的企业选择结合AI技术实现企业推荐系统,但使用开源框架自建推荐系统,也存在诸多问题,影响业务发展:

  • 成本高 需要企业采购大量机器用于支持数据计算,不仅一次性投入资金多,且大部分企业都会存在机器资源闲置的浪费问题
  • 工程化工作量大 需要适配主流开源框架,存在巨大的工程化工作,以实现不同业务场景最优推荐效果,或实现支持多部门模型需求。
  • 运维难承载海量数据、多任务运行,日常运维难度很大。
  • 效果不理想。

(三)个性化推荐 – 云上方案

在云上我们可以利用云上的工程基建和算法基建来减缓这部分的成本。在云上提供了两种的推荐方案,一种是黑盒化的,一种是白盒化的。黑盒化的解决方案低门槛易上手。白盒化的解决方案,整个算法流程是工程师全部自主可控的,它适合于有一定规模的,日处理数据百万起的团队,可以支持推荐算法的快速迭代。

(四)云上个性化推荐 – 白盒解决方案


这是整个白盒化的推进解决方案的架构图,我们从下往上看,最下层是数据处理模块,MaxCompute和Dataworks的负责离线的特征处理,得到一些离线训练样本和用户的特征数据物料数据,而Flink是支持实时的特征处理,有了特征样本数据,会流入到PAI-Studio一体化的建模平台中。
其中PAI-EasyRec负责推荐算法,由GraphLearn和Alink负责一些图算法和传统机器设计算法。有了这一些算法,一般会产出两部分的模型,召回模型和排序模型。召回模型我们可以例行部署到Hologres上,部署成各种基础索引表,向量召回的话会部署成向量表,这边图不太好画,user部分向量也可以在EAS上进行实时推理。排序模型的话,我们会部署成在线的模型推理服务来进行在线的打分推理。
有了基础索引表向量表和模型的推理服务,我们再往上层就是整个推荐服务的引擎,我们称之为PAI-Rec推荐服务引擎,PAI-Rec直接接受用户的推荐请求,串联了多路召回、过滤、排序和冷启动模块来给出TopN推荐列表。
PAI-Rec之外,我们有PAI-ABTest来做ab实验,它主要负责科学流量划分和指标的分析,支持我们云上推荐的效果的快速迭代。

(五)云上个性化推荐 –PAI-EasyRec算法框架


我们重点来看一下其中的几个模块,首先是PAI-EasyRec的整个推荐算法框架,可以支持多样化的数据源,比如说OSS、OdpsTable、HDFS、Kafka等等,有了这样的特征数据,我们会进入一个离在线一致的特征处理模块,这里面可以支持IdFeature 、RawFeature 、SeqFeature等等的特征处理。最中间的是ModelZoo,包含很多PAI精心沉淀的排序模型、召回模型和多目标模型,当然也支持算法工程师来基于此自定义自己的算法。整体上看,EasyRec能在PAI上提供万亿样本、千亿特征的超大规模分布式训练、分布式的评估能力,还支持自动超参搜索和知识蒸馏等调优效果的功能。

(六)云上个性化推荐 –PAI冷启动方案

除了通用的推荐算法之外,我们还提供了PAI冷启动方案,我们为什么需要冷启动?

  • 因为常见的推荐算法对新物品和新用户是不太友好的,
  • 新物品在很大程度上是常常会被低估的。
  • 冷启动问题处理不好会影响内容创造者的积极性,进而影响平台生态的健康发展


我们PAI上的冷启动方案分为用户冷启动和物品冷启动两部分。用户冷启动主要是基于用户的基本画像,基于社交关系,基于用户兴趣的一些热门推荐,U2U的推荐。物品的冷启动的算法的则比较丰富了,有基于内容理解的,有基于快速试探强化学习的,基于不同场景间迁移学习的,此外,少样本学习、知识图谱的算法,我们也在逐步的研发上线中。

(七)云上个性化推荐 –PAIRec推荐引擎

PAIRec推荐引擎从上往下看,分为接口层、召回层、过滤层、排序层、重排层,这些模块它端到端的串联起了整个推荐服务的各个流程,并且其中的一些内置模块是可以简单的通过config文件来配置化使用的。

当然为了满足各种各样场景定制化的需求,我们也支持在各个层便捷的注册各种定义的实现来满足灵活性的要求。

(八)云上个性化推荐 –PAI-A/BTest

PAI-A/BTest是我们保障快速做推荐迭代效果很重要的一环,我们首先来看一下A/B Test是什么,我们会在同一时间维度将用户划分成两组,在保证用户特征相同的情况下,让用户看到不同的两个ab方案的设计,然后根据最后数据的好坏来决定到底选择哪个方案,最终把哪个方案来推全,他要走的更进一步,可以满足各多样化的A/B Test的需求。

推荐场景为例,我们可以支持这种普通的流量划分,还可以支持分层的流量划分,分层流量划分有什么好处?

推荐场景我们分为召回、排序、重排的这些模块,这些流量是完全可以正交复用的,我们可以在很小的流量场景之下就可以上很多的实验上去帮助我们快速的迭代,PAI-A/BTest还支持在实验室上设置各种各样的条件,比如区分新用户和老用户,来满足各种各样多样化A/B需求。

二、向量召回PAI召回算法& Hologres向量检索

(一)向量召回简介

召回是在整个推荐系统中很重要的一环,它是在整个推荐系统最前线的部分,决定了整个推荐系统算法效果的上限。
传统的召回算法,如 CF、Swing等,他们虽然是简单高效的,但是他们完全基于用户的历史行为来进行推荐,没有结合用户的画像信息,物品的属性信息来产出推荐结果,这导致了整个推荐效果发现性很弱,会导致越推越窄。
而向量召回是将User、Item都嵌入到一个向量空间中去,一定程度上缓解了发现性的问题。一般向量召回分为
U2I和I2I两种。U2I的向量召回主要代表性的如 DSSM、MIND、YoutubeDNN
等,思想很简单,将User侧和Item侧都抽取到向量空间中去,用User的向量在Item的向量集合中查出最临近的TopK个Item出来。
I2I的如Node2Vec、Metapath2Vec等向量算法,它不同之处是需要Trigger Item,基于用户的历史行为来选择这些Trigger,然后通过Trigger Item的向量,在Item的向量集合中查询出TopK个临近的Item。

(二)PAI向量召回

在PAI上我们提供了丰富的召回算法,在PAI-Studio中我们PAI-EasyRec有提供DSSM、YoutubeDNN、MIND等一系列深度的向量召回模型, GraphLearn提供的GraphSage、GAT、SEAL等基于图的向量召回模型,还有Alink提供Word2Vec、Node2Vec、Metapath2Vec等一系列向量召回模型。在PAI-Studio中,我们可以把这些算法快速可视化地搭建实验,进行离线效果测试和在线的部署,并且我们还支持AutoML自动化调参。有了这些算法基建,可以帮助我们在云上快速的迭代算法效果。

(三)Hologres向量检索

Hologres深度集成阿里达摩院自研的向量检索引擎Proxima,这款向量检索引擎具有超大规模索引构建和检索、高维&高精度、高性能低成本等核心能力,能够帮助Hologres提供提供低延时、高吞吐的在线查询服务。并且Hologres是以SQL的查询接口来暴露给用户的,十分简单易用,此外,因为它是分布式构建向量索引的方式,能支持水平扩展。

(四)Hologres向量检索

在具体的推荐业务场景中,很重要的一环是向量查询,Hologres不仅能支持全量item集合上的检索,面对复杂条件下的检索,
Hologres也能用sql的形式来支持。例如有很多推荐场景需要查询最近活跃,当需要查询某个类目下的,此时写一个Where语句就能很容易的完成检索。

--全量检索
select id, pm_approx_euclidean_distance(feature, '{0.1,0.2,0.3}')) as distance
where data_time between '1990-11-11 12:00:00'
 and '1990-11-11 13:00:00’  and tag in ('X', 'Y', ‘Z')
from feature_tb order by distance asc limit 10;

--复杂条件下检索
select id, pm_approx_euclidean_distance(feature, '{0.1,0.2,0.3}')) as distance
where data_time between '1990-11-11 12:00:00'
 and '1990-11-11 13:00:00’  and tag in ('X', 'Y', ‘Z')
from feature_tb order by distance asc limit 10;

三、最佳实践

(一)最佳实践 – 某社交APP首页推荐

我们以一个社交APP的首页推荐的场景来体感一下这整套解决方案是怎么运行的。
这是一个社交APP首页推荐的场景,分为列表页、详情页和会话页,通过点击列表页,可以看到用户的具体详情,进而发起会话进行聊天。整个首页推荐的目标是要建立用户和用户之间的新联系,因此我们设计了UV回复转化率这个指标,就是必须用户回复,才算一个有效的会话。

(二)最佳实践 –首页推荐方案

我们来看一下整个首页推社交APP首页推荐问题的难点。
算法需具备发现性,能建立新联系;“有效回复”优化目标非常稀疏,这导致我们优化整个模型的难度也非常高。
下面是整个首页推荐的方案,我们有常见的多路召回、过滤、排序和用户的冷启动和最后会有一个重排。其中的重点是召回里面DSSM的向量召回和GraphSage的向量召回,还有新用户的冷启动,这保证了整体的算法具有发现性。然后另一块是排序这边做了一个多目标的模型,包括点击、关注、会话和回复,多个目标的层次递进的关系,解决了有效回复这个目标非常稀疏的问题。

(三)最佳实践 – 向量召回算法 PAI-EasyRec | DSSM

重点来看一下其中向量召回,我们以其中的DSSM为例,
它是一个典型的双塔架构,优势是能充分利用Side-Info , 能支持分布式训练时的负采样和负样本MiniBatch内的共享。

(四)最佳实践 – 向量召回算法 PAI-EasyRec | DSSM – 优化技巧

双塔架构上模型一个核心的问题点是怎么做负采样?负采样决定了整个召回模型效果的好坏,我们来看这个离线hitrate的曲线,可以看到随着负采量数的增加,基本上是一个稳步上涨的趋势,最高点是正负样本比例等于1:1W的时候最佳。所以当然随着负采样数的增加,特别是要达到1:1W的采样,对于存储的压力和计算压力都是非常大的。我们想要离线的去join出这个1:1W的正负样本来做存储基本是不太现实的。因此PAI-EasyRec支持在分布式训练时的实时的负采样,我们在存储的时候只存点击的正样本,在训练时分布式采样出相应的负样本来做训练。

下面是我们做分布式负采样的方案,其实是将用户的历史行为和用户的一些属性特征,以图结构形式存在参数服务器上,然后基于我们从参数服务器上进行实时的负采样,跟正样本join起来进行训练。1:1W正负样本对于我们的计算压力也是提出了很大的挑战。在PAI-EasyRec在里面我们做了一个优化, MiniBatch内负样本是共享的,不用将N*1W个负样本都计算一次,它只需要整体计算1W次,在做内积的时候以矩阵乘的方式展开,就可以达到简化共享负样本计算的效果。

(五)最佳实践 – Hologres向量检索

我们再来看一下工程系统在首页推荐上实践的Hologres向量检索,我们首先需要在Hologres中建立向量表,建表的语句也非常简单,其中重点是要在其中设置proxima的向量引擎和其他向量引擎所需要的检索参数,有了这样的向量表,我们就很容易的把MaxCompute上的外表数据来导入到Hologres中。这个社交App首页推荐是一个异性推荐的场景,我们基于Hologres就可以便捷地在性别条件下进行向量的检索。

(六)最佳实践 – 首页推荐效果

推荐解决方案云上非常成功的案例之一,使得某公司社交APP首页推荐的UV回复转化率提升了39%,UV会话转化率提升了30%

(七)PAI上其他向量算法能力

PAI上其实还提供了很多其他的向量算法能力,包括图像的、文本的。PAI上针对图像和文档分别提供了PAI-EasyVision和PAI-EasyTransfer算法框架,其中PAI-EasyTransfer已经在github上开源了。基于这些算法框架,我们在PAI上提供人脸匹配的能力、图片搜索的能力、问答匹配的能力等等,都用到了向量引擎进行向量检索。欢迎大家来使用。

相关实践学习
基于Hologres+PAI+计算巢,5分钟搭建企业级AI问答知识库
本场景采用阿里云人工智能平台PAI、Hologres向量计算和计算巢,搭建企业级AI问答知识库。通过本教程的操作,5分钟即可拉起大模型(PAI)、向量计算(Hologres)与WebUI资源,可直接进行对话问答。
相关文章
|
1月前
|
机器学习/深度学习 搜索推荐 算法
基于机器学习的用户行为分析与个性化推荐系统
传统的用户行为分析和推荐系统常常受限于规则的刻板和模型的简单,无法准确捕捉用户的个性化需求。本文基于机器学习技术,探讨了一种更加灵活、精准的用户行为分析与个性化推荐系统设计方法,通过深度学习模型结合大数据分析,实现了对用户行为的更细致把握和更个性化的推荐服务。
|
2月前
|
机器学习/深度学习 数据采集 自动驾驶
构建高效机器学习模型的最佳实践
【2月更文挑战第25天】 在数据驱动的时代,机器学习已成为解决复杂问题的利器。本文旨在分享一系列实用的技术策略,帮助读者构建出既高效又准确的机器学习模型。我们将探讨数据预处理的重要性、特征选择的艺术、模型优化的技巧以及如何通过交叉验证来提升模型的泛化能力。这些最佳实践不仅适用于新手,对于有经验的数据科学家来说,也能作为有效的参考和回顾。
|
2月前
|
机器学习/深度学习 人工智能 算法
AI加速引擎PAI-TorchAcc:OLMo训练加速最佳实践
阿里云机器学习平台PAI开发的Pytorch训练加速框架PAI-TorchAcc已接入最新开源的大语言模型 OLMo。在保证模型效果和易用性的前提下,PAI-TorchAcc相对 PyTorch 性能在 OLMo 1B 上加速比达到 1.64X,在 OLMo 7B 上加速比达到 1.52X。本文分析了 PAI-TorchAcc 的性能收益来源。
|
1月前
|
机器学习/深度学习 数据采集 算法
构建高效机器学习模型的最佳实践
【4月更文挑战第3天】在数据驱动的时代,构建高效的机器学习模型已成为解决复杂问题的关键。本文将探讨一系列实用的技术策略,旨在提高模型的性能和泛化能力。我们将从数据预处理、特征工程、模型选择、超参数调优到集成学习等方面进行详细讨论,并通过实例分析展示如何在实践中应用这些策略。
20 1
|
14天前
|
存储 SQL 分布式计算
Hologres RoaringBitmap在Lazada选品平台的最佳实践
Lazada选品平台包含全网商家、商品的圈选,通过Hologres RoaringBitmap能力帮助业务突破选品池20w大小限制,6000+选品池调度完成由12h下降至1h,单个选品池调度时间由90s下降至2s。
|
2月前
|
机器学习/深度学习 数据采集 算法
构建高效机器学习模型的最佳实践
【2月更文挑战第27天】 在数据驱动的时代,机器学习已成为洞悉复杂数据背后洞察的有力工具。本文将深入探讨如何构建一个高效的机器学习模型,涵盖从数据处理到模型优化的关键步骤。我们将讨论特征工程的重要性、选择合适的算法、调参技巧以及模型评估方法。通过这些最佳实践,读者能够提升其机器学习项目的性能与准确度。
19 3
|
2月前
|
自然语言处理 算法 关系型数据库
阿里云PAI大模型RAG对话系统最佳实践
本文为大模型RAG对话系统最佳实践,旨在指引AI开发人员如何有效地结合LLM大语言模型的推理能力和外部知识库检索增强技术,从而显著提升对话系统的性能,使其能更加灵活地返回用户查询的内容。适用于问答、摘要生成和其他依赖外部知识的自然语言处理任务。通过该实践,您可以掌握构建一个大模型RAG对话系统的完整开发链路。
|
4月前
|
人工智能 自然语言处理 运维
PAI+Hologres基于大模型搭建企业级知识库
本文为您介绍如何通过计算巢服务,一键完成Hologres与大规模问答知识库所需的硬件资源与软件资源部署,快速完成企业级问答知识库的搭建。
61 0
|
4月前
|
机器学习/深度学习 人工智能 物联网
快速玩转 Mixtral 8x7B MOE大模型,阿里云机器学习 PAI 推出最佳实践
本文介绍如何在PAI平台针对Mixtral 8x7B大模型的微调和推理服务的最佳实践,助力AI开发者快速开箱。以下我们将分别展示具体使用步骤。
|
5月前
|
JSON 自然语言处理 对象存储
通义千问开源模型在PAI灵骏的最佳实践
本文将展示如何基于阿里云PAI灵骏智算服务,在通义千问开源模型之上进行高效分布式继续预训练、指令微调、模型离线推理验证以及在线服务部署。

相关产品

  • 实时数仓 Hologres