双十一|又快又稳!闲鱼实时事件规则计算驱动平台

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介: 如何在一周内上线50个用户增长策略?

作者:闲鱼技术——兰昊

闲鱼双十一金鳞抽奖玩法

相信今年在11月7日-11月11日期间使用过闲鱼的用户,可能已经被如下图所示的幸运海星“砸”到过了。只要用户进入到指定的几个页面,或者在某些指定的页面有点击行为,就会触发到这样一个幸运之星。这就是今年闲鱼双十一的金鳞项目中的玩法效果。该项目横跨了10多个业务,按之前传统做法是需要协调多个业务方参与进来一起开发。虽然其实现难度本身到不是那么难,但是沟通协作成本将会是非常之高。此外双十一过后,下线这些为了该玩法开发的代码又是一个工作量,而且还得安全地下线且不带有稳定性问题。
TB1kdshnqL7gK0jSZFBXXXZZpXa-720-1559.png

但是实际上,参与的业务仅仅只是补了几个缺失的点击埋点,剩下的工作就是与业务无关的poplayer弹层的开发以及与权益的对接,而各业务总投入的对接成本不到半天。这背后依靠的是一个基于标准DSL的实时事件规则计算驱动平台。下面就来讲述下该平台的起源与发展。

起源于闲鱼的用户增长业务

在年初时,我们在用户增长下做了多个实验,主要还是希望用户能在APP上多停留一会。当用户浏览时间越长,就越有可能发现闲鱼上还有很多有趣的内容,无论是商品宝贝还是鱼塘内的帖子。从而达到吸引用户下一次还能再回来的目的,进而促进了用户增长。其中两个实验如下:

我们做的实验上线后大部分都取得了不错的业务效果,但是在过程中也暴露了两个问题:

  • 研发周期长。一开始,我们先用最快的实现方案来做,主要是为了快速验证规则策略的有效性,并没有做大而全的设计,每个需求都是case by case地写代码来实现。那么从开始开发真正能到上线,很可能就是三周,主要因为客户端发版是有窗口的。
  • 运营效率慢。因为上线慢,导致获取业务数据后再分析效果就很晚了,然后还要根据数据再去做调整那就更晚了。这样算下来,一年也上不了几个规则策略。

工程化解法——基于事件流的规则引擎

针对上述问题,我们先做了一层业务抽象。运营先通过对用户的各种行为进行一个分析和归类,得出一个共同的具体的规则,再将这个规则实时地作用到用户身上进行干预。

针对这层业务抽象,我们再做了工程化,目的就是为了提升研发效率和运营效率。这样就有了第一个方案——基于事件流的规则引擎,我们认为用户的行为是一串顺序的行为事件流,使用一段简单的事件描述DSL,再结合输入和输出的定义,就可以完整地定义一个规则。

以上述用户增长的第二个实验为例,如下图所示的DSL即可简单表达出来:

规则引擎的局限性

该规则引擎可以很好地解决之前用户增长业务下的几个策略,随后我们进行了内部推广,准备在闲鱼C2C安全业务下也落地。在C2C安全业务上有如下描述:

在C2C安全业务上,也有一个看似是一个针对一系列行为作出的规则抽象,如下图所示:

但是将上述规则套上规则引擎后,就会发现无法将安全的规则套上规则引擎。假设我们的详细规则是1分钟内被拉黑2次,就对该用户打上高危标记。那么我们想一想,当来了第一个拉黑事件后,匹配上了。然后紧接着来了第二个拉黑事件,也匹配上了。此时按照规则引擎的视角,条件已经满足了,可以进行下一步操作了。但是再仔细看一看规则,我们的规则是要被不同的用户拉黑,因为有可能是同一个用户操作了多次拉黑(同时多开设备)。而规则引擎上只知道匹配到了2次拉黑事件,对规则引擎来说已经满足了。却无法知道是否是不同人操作的。起根本原因是因为在规则引擎里,事件都是无状态的,无法回溯去做聚合计算。

新的解决方案

针对规则引擎的局限性,重新分析和梳理了我们的实际业务场景。并结合了业界知名的通用的解决方案后,设计出了新的方案,定义了新的DSL。可以看到,我们的语法是类SQL的,主要有以下几个考虑:

  • SQL已经是语义完备的编程语言,不用再去做额外的语法设计。
  • SQL是一门很简单的语言,不需要花太多时间就可以掌握。
  • 我们闲鱼的运营同学会写SQL,这样会让上线效率更快。


新的DSL方案与之前的规则引擎相比主要有以下几个增强:

  • 增加了条件表达式。可以支持更丰富更复杂的事件描述,也就能支撑更多的业务场景。
  • 增加了时间表达式。通过WITHIN关键字,定义了一个时间窗口。通过HAVING之后跟的DISTINCT等关键字,就可以针对时间窗口内的事件进行聚合计算。使用新的方案,就可以很好地解决上述C2C业务上的规则描述问题。
  • 扩展性强。遵循了业界标准,与具体业务的输入和输出无关,便于推广。

针对之前的C2C业务上的规则描述问题,使用新方案的例子如下:

整体分层架构

基于这套用EPL(Event Programming Language)写出的DSL,为了做好工程化,我们做了如下的整体分层架构。为了快速实现最小闭环验证效果,我们选择先基于Blink(Blink是阿里对Flink的内部优化和升级)做云上的解析和计算引擎。

在这个分层架构里,至上而下分别是:

  • 业务应用。在这里是我们整个系统的业务方,已经在多个业务场景下做了落地。
  • 任务投放。这里是对业务应用层提供DSL声明和投放的能力,能可以做简单的圈人,以及与用户触达模块的关联。
  • 用户触达。这个模块用于接收来EPL引擎计算的结果,根据关联的Action来实施动作。同时这个模块也可以独立对业务应用提供服务,即各个业务方可以拥有自己的逻辑,通过用户触达模块来触达用户。
  • EPL引擎。目前已经实现了云上的解析和结算。用于接收来自任务投放里声明的DSL,再去解析和运行在Blink上。
  • 事件采集。负责通过服务端日志和行为打点里采集行为事件,并归一化地输出给EPL引擎。

事件采集

通过切面的方式拦截所有的网络请求和行为打点,再记录到服务端日志流里。同时通过一个事实任务对事件流进行清洗,按前面定义的格式清洗出我们想要的事件。再将清洗后的日志输出到另一个日志流里,供EPL引擎来读取。

DSL实现

由于我们采取了类SQL语法,而Calcite是业界通用的解析SQL的工具,因此我们采用Calcite并通过自定义其中的parser来解析。如果是单一事件的DSL,则会解析成Flink SQL。如果是多事件的DSL,则会解析后通过直接调用Blink的API接口的方式来实现。

用户触达

当EPL引擎计算出结果之后,会输出给用户触达模块。首先会进行一个Action路由,最终决策出需要由具体哪一个Action来响应,最后通过与客户端之间的长连接将Action下发到端上。端上收到具体的Action后,会先判断当前用户的行为是否允许展示该Action。如果可以的话,就直接执行Action的具体内容,曝光给用户。用户看到这次响应后会有相应的行为,那么这部分的行为会影响到Action路由,对这次的路由的做出一个反馈。

落地业务

新方案上线后,我们就在越来越多的业务场景里进行了落地。这里列举2个例子:


在上述鱼塘的例子里,可以看出来,我们这套方案已经有了一点算法推荐的影子了。而在上述租房的例子里,由于规则过于复杂,用DSL表达起来很麻烦,所以就做成只采集4次浏览不同租房宝贝的规则,即触发后,就将这里的数据都给到租房的具体开发的业务方,这也是我们在落地过程中摸到的边界。

结论

使用这一套完整方案,研发效率上有了很大的提升。原先通过写代码case by case的方式一般要4个工作日完成整个研发流程,极端情况下需要跟客户端版本则需要2-3周的时间。现在通过写SQL的方式跑在这套方案上一般要0.5个工作日即可。此外,这套方案还有如下几个优势:

  • 高性能。在双十一期间,事件采集器rt稳定在2s内,EPL引擎计算任务稳定在1秒左右,整条链路从采集到触达平均耗时5秒。
  • 高可靠。依托于Blink的高可靠性,承载了双11每天上亿级的流量,整体稳定且无抖动。

通过在多个业务的落地实践,我们也摸索出来这套方案的适用边界:

  • 对实时性要求高
  • 强运营主导规则
  • 简单SQL能表达

未来规划

当前整套方案还有如下几个问题:

  • 整条链路计算完毕平均需要5秒左右。如果放到对实时性要求更高的任务场景下时,在用户体验上就无法满足了。
  • 闲鱼当前DAU已经稳定在2000W以上,且已连续3年电商版块增速最高。如果所有计算依然全部放在云上,则对云上的算力消耗是个极大的挑战。
  • 目前我们的设计上,是没有算法接入的,只有简单的圈人。而为了让规则的投放更加精准,进而提升规则对用户的有效性,是需要与算法结合的。

因此综上,我们未来的规划将会聚焦于端侧实时计算能力的挖掘和算法能力的结合上。其中端侧能力的挖掘,我们已经和集团端智能团队在一起共建BehaviR框架,未来会有新的产出,大家可以期待我们的落地实践。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
24天前
|
监控 Java 双11
Sentinel底层如何计算京东双十一线上系统实时QPS
【10月更文挑战第19天】随着电子商务行业的快速发展,双十一已成为全球最大的购物狂欢节。京东作为中国领先的电商平台,每年的双十一活动都会迎来巨大的流量高峰。为了保障系统在高并发情况下的稳定运行,京东采用了多种技术手段来应对。
28 0
|
4月前
|
供应链 搜索推荐
三类代码协同模式问题之阿里商旅账单系统支持企业自定义展示问题如何解决
三类代码协同模式问题之阿里商旅账单系统支持企业自定义展示问题如何解决
|
6月前
|
监控 数据可视化 搜索推荐
四度入选Gartner后Quick BI又有大动作 | 着重交互分析与监控告警升级,持续优化分析链路
四度入选Gartner后Quick BI又有大动作 | 着重交互分析与监控告警升级,持续优化分析链路
367 0
|
监控 BI 定位技术
直播程序源码开发建设:洞察全局,数据统计与分析功能
数据统计与分析功能不管是对直播程序源码平台的主播或运营者都会有极大的帮助,是了解观众需求、优化用户体验成为直播平台发展的关键功能,这也是开发搭建直播程序源码平台的必备功能之一。
直播程序源码开发建设:洞察全局,数据统计与分析功能
|
算法 搜索推荐
【直播预告】融合复杂目标且支持实时调控的重排模型在淘宝流式推荐场景的应用
【直播预告】融合复杂目标且支持实时调控的重排模型在淘宝流式推荐场景的应用
303 1
|
存储 Kubernetes 前端开发
阿里云函数计算助力高德 RTA 广告投放系统架构升级
阿里云函数计算助力高德RTA广告投放系统架构升级
阿里云函数计算助力高德 RTA 广告投放系统架构升级
|
搜索推荐 前端开发 Java
聚合CPS返利平台开发功能部署设计
聚合CPS返利平台开发功能部署设计
|
开发者
营销引擎 - 广告主如何使用借助营销引擎快速搭建的 DSP|学习笔记
快速学习营销引擎 - 广告主如何使用借助营销引擎快速搭建的 DSP
营销引擎 - 广告主如何使用借助营销引擎快速搭建的 DSP|学习笔记
|
监控 安全 搜索推荐
Quick BI产品核心功能大图(七)订阅与监控:数据波动,一手掌控
作为企业的管理者和经营者,要关注的数据指标太多了。如何在第一时间掌握指标的异常波动、发现经营风险?如何保证相关人员定期接收经营数据,不再遗漏?或许你需要 Quick BI 的帮助。
|
移动开发 前端开发 IDE
手淘双11最新实践:PopLayer弹层领域业务研发模式升级
背景 近年来,各大APP内的弹层需求逐渐增多,以手机淘宝为例,日常的弹层上线频率为单端每月50次左右,而在大促期间可以达到240次以上。在手淘内,各类弹层业务都会通过PopLayer中间件的能力进行管理。但业务往往会遇到开发弹层难、慢、稳定性差的种种困难。对比于往年业务研发成本较高的现状,PopLayer在今年提出了【低研发搭建模式】来解决这类问题,形成一套快速搭建+可视化+多端多场景通用的解决
1386 0
手淘双11最新实践:PopLayer弹层领域业务研发模式升级