码农节快乐|一个系统,高效解决复杂事件采集-计算-实时触达

简介: 悄悄告诉你,这次我们要上天了!

作者:闲鱼技术-绛曲

PartI: 1024

今天是1024,一个特别的数字,比如某网站内容的解压密码通常都是1024,想求一个种子留言也是1024。1024是属于广大程序猿(又称码农)的节日,在这样一个节日里,各种“黑”程序猿的新老段子将纷纷出现在各大媒体网站。为什么程序猿属于经常被黑的一个群体?凌乱的发型、黑框眼镜、双肩包、格子衫、牛仔裤、运动鞋、钱多话少是很多人眼中的程序猿形象。
v2-d9bafcf18437388a3ce6172e61ca109a_hd.jpg

程序猿经常被黑的原因,还因为他们喜欢自黑(对比下另一个工种,千万不能当着XXX们的面,叫他们美工,一定要叫设计师),但程序猿真的是描述中的那样吗
118f5e6c931d4876bac78509bf383ace.jpg
除了钱多话少是对的,其他都不完全对,比如说我,穿的是一身国际名牌'优衣库',喝酒烫头不抽烟,但我只是个二流的程序猿,在闲鱼里,顶级的程序猿是这个样子的。
1570266173893-b0112484-0de5-4797-be7e-2dfbf37ba4a1.jpg

程序猿接的最多的需求:这是老板的需求。程序猿代码上线的时间:明天上线。程序猿写过的bug:怎么会有bug。1024祝广大程序猿节日快日,继续加班写bug!!!

Part II  这是一篇技术文章

闲鱼作为一款闲置物品交易平台,让用户的闲置物品再次得到价值流通,普惠每一位用户。先看下面几个业务场景:

场景1:在闲鱼的一次活动中,用户进入活动会场后,浏览了几个不同的宝贝,就会奖励一个包邮券。
场景2:用户关注的用户宝贝降价了,实时告知用户该降价信息。
场景3:在用户搜索租房后,并浏览N个租房信息,则为其推送一套合适的房源。
场景4:双十一会场活动,用户进入会场,点击商品详情,对其发送优惠。

类似这样的业务还有很多,如果每次都是case by case的去解决,不仅重复性建设,还非常的浪费人力。程序猿最大的优点就是懒,喜欢将看似不同的事务进行抽象,找出其共性,进行归纳和演绎,并通过设计一种架构,去解决该类似场景下的诸多业务,以减少重复性的劳作。
而架构的设计是有套路可以遵循的,然并卵,虽然了解了很多的架构原理、设计理念,但往往实际的操作过程中,很容易空对空,这里给出一种设计架构的套路步骤:系统解决的问题定义->系统设计的目标->核心设计->各子系统模块的详细设计。

系统解决的问题定义

问题的定义是从解决的业务场景出发的,也是最难的一步,如果问题定义的不明白,后面的系统设计很容易出现偏差,甚至各方理解不一,无法落地。上面的这些业务场景有哪些共性呢,用一句话可以描述为:“用户的一系列操作,满足一定的复杂规则条件后,对其实时的触达相应的权益”。这里有一个要求,需要“实时”,能够秒级的触达用户。 因此系统解决的问题可以定义为:能够处理复杂规则事件的实时触达系统。

系统设计目标

有了对业务场景的问题定义,如何设计一个架构,去解决这个问题,在设计之初,老板给了一些目标要求:

1. 技术与业务分离,构建技术组件和能力,组合后实现业务需求;
2. 事件的数据格式需要结构化和标准化,支持扩展;
3. 规则的表达定义类似SQL的申明式DSL,贴合业务领域;
4. 客户端和服务端有各⾃的行动触发能力,⽀持扩展开发;客户端支持服务端驱动;
5. 触发和计算分离,计算模式插件化;

系统设计的目标是为了保证最终的实现和最初的想法不要出现太大的偏差,有一个衡量标准在,一是让项目内的成员依据此目标进行设计,避免出现公说公有理、婆说婆有理的情况;二是项目的验收可以依据这个目标去评判,有理可依。

核心内容设计

核心设计这一步很考验基本功和技术视野的,需要综合判断、权衡取舍,依据设计目标选出一个当前的最优解。在系统的设计目标中,其中一条,就是要标准化,标准化最大的好处是可以统一不变的接入。互联网是个发展只有不到30年的行业,但工业已经发展了几百年,很多互联网行业里的问题,在工业里已经有了标准化的定义。在搜集技术方案资料中,对RFID(射频识别)进行复杂事件的流处理的方案进入我们视野[参考1]。
image.png
RFID系统信息体系结构

而这个工业场景下的问题定义,具有标准化和通用性,其核心内容包含3个模块:数据采集模块、复杂事件处理模块、结果触发相应的时间模块。
这个设计正好符合我们的业务场景所需要解决的问题。结合我们自己的业务,我们将其定义为“日志采集模块、复杂事件的实时处理(EPL)模块、结果触达模块”,其核心的架构图设计如下:
image.png
核心架构图
这3大核心模块,都是通过异步消息进行通信,目的是每个模块可以解耦,即可以进行独立使用,又可以作为整体的能力提供。
通过日志采集模块,进行日志的采集和归一,得到输入的数据;而后进入EPL模块,进行规则定义和计算;最终的结果进入触达模块,进行用户的结果触达。下面分别介绍这3个模块的详细设计。

各子系统模块的详细设计

1:日志采集模块
闲鱼的系统架构,入口应用多,而且还有是异构的(有java应用,dart应用,Fass应用)。我们做了一个拦截器,屏蔽这些应用的细节,作统一的拦截处理。 经过统一请求拦截层,将所有的请求日志写入到SLS中。如图
2019S1文章.jpg
但这些日志的格式千变万化,对下游的业务处理非常的不便,因此需要对原始的日志数据进行清洗,清洗为统一的格式,同时这个清洗任务随着原始数据的多变,需要支持可配置化。
我们使用blink实时的对原始数据进行清洗,同时在blink任务里,嵌入一个UDTF,这个UDTF接入动态化配置平台,支持对清洗任务的可配置化。经过blink清洗后的数据,格式归一化为:
标准化输入表格.png
归一化格式后的数据,通过rocketMQ和SLS往下游输出。这里提一下为何要通过两种数据通道输出:rocketMQ对于在线业务的接入非常方便; SLS对下游接blink任务实时计算并发度要快。

2:EPL引擎模块
EPL模块,在之前的这篇 《闲鱼如何打造高效CEP系统及DSL编程语言》 已经对这个模块进行了详细的讲解(请戳 https://mp.weixin.qq.com/s/is1IlJdCyr-vup78rIoUIw),这里不再赘述。
这里提一下我们设计此DSL的目的和目标。

  1. 简化该业务领域下的写法。
  2. 云/端表达的统一。
  3. 该写法要作为blink的一层通用抽象表达。
  4. 该DSL要尽量的符合行业内的规范。

最终的DSL实现方案,一个任务的编写大约只需要5行,而如果使用blink代码实现,至少上百行。我们跟blink合作,推动该DSL作为blink一种上层业务的抽象表达,可以扩展blink的使用。同时DSL的设计并不是天马行空的想出来的,而是根据1这两篇论文进行的设计,尽量去符合业界的规范。
同时这里的EPL引擎模板,除了云端的计算,还包含了端测计算能力,后面会有针对这一块内容的文章,敬请期待

3:结果触达模块
结果触达模块包含了对EPL计算结果的处理,支持可配置化,支持自定义,并提供了诸如“push、poplayer、openPage”等基础触达能力。后面会有一篇详细的文章进行介绍,敬请期待。

应用效果

业务方接入,只需要3个步骤:1.配置需要获取的日志数据,2,使用DSL编写任务规则。3.配置一条触达能力。不需要一行代码的开发,只通过配置半天内就可以上线一个业务。
同时,从上游的数据采集->计算->结果触达,整个链路的耗时只需要10s就可以完成。
8A5BFFBB-6205-4684-9DA3-847722DC4C22.png

B62DAC31-A377-44B0-B57A-438450D4E3E6.png

总结和展望

     我们用一个拦截器,解决诸多异构应用的日志采集问题,然后使用可配置化的blink任务,对原始的日志数据进行清洗,输出标准化的格式数据。接着根据行业的规范,设计出自定义的DSL,以方便复杂规则任务的编写,并和blink合作,无缝的接入blink实时计算平台,进行任务的计算。计算出的结果,只需进行配置,就可以进行到端的push/poplayer/openPage触达。
目前我们的这款技术产品,已经接入了十多个业务,线上运行稳定,接入的效率得到极大提升。
未来我们将进一步对DSL的表达能力进行加强,同时将接入端计算能力,使得一些符合端测直接计算的业务场景,实时性得到更高的提升。同时将结合算法能力,去挖掘潜在的业务价值。

参考资料:

  1. https://arxiv.org/pdf/cs/0612128.pdf 【SASE: Complex Event Processing over Streams】
  2. http://m.chinaaet.com/article/107902 【面向RFID的复杂事件描述语言研究及应用】
相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
11月前
|
算法 搜索推荐
【直播预告】融合复杂目标且支持实时调控的重排模型在淘宝流式推荐场景的应用
【直播预告】融合复杂目标且支持实时调控的重排模型在淘宝流式推荐场景的应用
241 1
|
3天前
|
存储
大咖与小白的日常:如何轻松构建千万级Feed流系统?
如何构建类似于微博、小蓝鸟的千万级Feed流系统?来看看大咖如何指导小白。
|
数据可视化 Serverless BI
基于阿里云函数计算FC开发疫情数据统计推送
疫情数据统计推送基于Python和阿里云函数计算FC开发。实现了使用Python爬取获得疫情数据并进行整理,使用函数计算配合定时触发器,每天定时推送全国疫情数据到企业微信。
295 0
基于阿里云函数计算FC开发疫情数据统计推送
|
监控 安全 搜索推荐
Quick BI产品核心功能大图(七)订阅与监控:数据波动,一手掌控
作为企业的管理者和经营者,要关注的数据指标太多了。如何在第一时间掌握指标的异常波动、发现经营风险?如何保证相关人员定期接收经营数据,不再遗漏?或许你需要 Quick BI 的帮助。
|
流计算 安全 双11
|
存储 数据可视化 双11
双11就要来了,实时大屏准备好了吗?
以往大家做实时大屏,最常用的方法可能是将数据存在消息日志/数据库中,通过实时计算(Flink)去实时处理数据,将数据初步聚合后写入到数据库中,再对接实时大屏。整个链路中,数据存储和高并发的查询是最需要解决的问题,而市面上满足存储要求的产品并不能提供多元化的查询服务,满足查询要求的产品又需要维护多套存储系统,开发、运维的成本都只升不降.
2602 0
|
存储 分布式计算 搜索推荐
【无限价值,瞬时洞察】交互式分析重磅发布
交互式分析致力于低成本、高性能、高可用的大规模计算型存储和极致的查询能力,为用户提供海量数据实时数仓解决方案和实时交互式查询服务,与大数据生态无缝打通,支持对PB级数据进行高并发、低延时的分析处理,让您轻松而经济地使用现有BI工具对数据进行多维分析透视和业务探索。
2189 0
|
监控 数据格式 JSON
日志服务数据加工培训直播资料汇总: 扫平日志分析路上障碍, 实时海量日志加工实践
日志服务数据加工系列培训资料汇总: 扫平日志分析路上障碍, 实时海量日志加工实践
1630 0
|
监控 数据格式 JSON
扫平日志分析路上障碍, 实时海量日志加工实践直播培训
日志服务数据加工功能提供托管的自动伸缩的实时可靠数据加工服务,本次系列培训从实战案例角度完整介绍数据加工的主要场景. 包括功能语法、数据分发、结构与非结构化数据清洗、外部资源关联、并发可靠性与排错等,解决实日志数据在接入、分析、投递、对接时存在各种数据加工需求与问题。
2802 0
|
SQL 监控 数据可视化