概述
Pora是Personal Offline Realtime Analyze的简称。
几年前,淘宝的搜索结果已经不再千人一面的商品排序,而是深度融合了用户的个性化偏好的搜索结果。而实时变化的用户行为,能帮助算法更好地预测用户接下来的个性化偏好。为此需要一个系统能实时地获取用户行为,并支持算法实时修改用户或商品的个性化信息。这个系统开始了,叫做Pora。
整个搜索pipeline上看,Pora位于引擎的离线部分。设计Pora的一个目标是实时处理流数据。因此Pora必须同时具备海量数据处理(高吞吐)和实时(低延迟)。除此之外,Pora还需要成为一个平台。众多算法模块可以运行、灵活调整和实时生效。
Pora在搜索实时计算体系的位置,见图1:
图1.搜索实时计算体系
Pora总体架构
从诞生以来,Pora经过了多次演变。 最初是storm集群上开发的应用。2014年迁移到Yarn集群,IStream作为流计算框架。2015年,Pora做了Tec重构。业务不断扩展,从简单的用户维度性别个性化到商品维度个性化,再到如今同时支持用户和商品两个维度多个场景的个性化,支持实时反作弊、推荐、赛马等业务。2015年开始有在线学习框架,现有LR/FTRL算法和实时矩阵分解算法。
目前的Pora总体架构,如下图2:
图2.Pora总体架构
2015年Pora的重要改动
1. 基于Tec重构
原有 Pora 的核心层独立出来,称为Tec项目。Pora定位业务逻辑和算法接口,开发更简洁。Tec是轻量级实时计算框架,支持快速开发高吞吐、低延迟的实时应用。例如AliExpress(AE)搜索的离线数据库Dump业务,基于Tec实现了小时批量到秒级实时的跨越。图3. Pora的技术堆栈
2.在线学习
数据和模型是算法的两大核心,14年基于Pora,实现了数据的实时更新。15年在Pora上开发了基于Parameter Server架构的在线学习框架,实现了模型的实时更新。
图3是Pora内部的在线学习框架,工作机理参考Google的DownPour SGD。特点是异步,并行,平台化。Parameter Server由Feature Worker和Hbase Model Storage实现。
在线学习的算法,详见文章《搜索双链路实时计算体系@双11实战》[5]
图3. 在线学习框架
3. 7*24小时运行
iStream0.9版本开始支持热切换配置,不用重启应用。主搜Dump在2015年实现了24小时增量。这两个基础完备后,Pora之前的凌晨停顿去掉了,用户个性化,推荐数据等都是24小时运行无延迟。在日常运行,处理数据延迟在秒级,算法改动配置只需要执行热切换命令。
4. 性能优化
Pora整体QPS,2014年双11峰值94万。到了2015年双11期间,峰值达到501万。2015年双11当晚的零点流量高峰,Pora各应用无延迟,完成整条链路处理是秒级。整体QPS的提升,看着只有5倍多点,如果考虑业务的增长,性能的提升是不止的。
性能的提升,离不开离线组和莫问团队在Yarn/HDFS/iStream/HQueue/Hbase的重要优化,以及CM8/ET2集群的资源优化。这里节约篇幅,就讲一下Pora上的业务优化和系统优化。
- 业务优化:搜索PV日志的处理链精简和存储IO优化。直接读取htable,避开HSF限流的超时。auctionProfile表的userTag维度统计,去掉不需要的业务日志。
- 系统优化:htable的client端增加cache,双十一当天高峰时段cache的平均命中率达到85%。优化Hqueue和Htable的配置,提高IO性能。解决auction/user/sync应用混合运行的机器热点。
将来
今后有新的目标,敬请期待2016年。
参考文献
1. 搜索双链路实时计算体系@双11实战:http://yq.aliyun.com/articles/2699
2. Google DownPour参考:http://research.google.com/archive/large_deep_networks_nips2012.html