基于AnalyticDB PostgreSQL + OSS + SLS构建面向应用内行为数据的分析全链路

本文涉及的产品
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
简介: AnalyticDB PostgreSQL助力某互联网企业完成数仓建设和面向用户行为的全链路分析。通过Serverless版本的性能助力,轻松实现了10+的性价比提升。

行业综述

在泛互联网行业中,企业投入了大量的精力用于追踪用户的行为日志,尝试更好的了解用户在应用内的核心行为。企业追踪了海量的日志,清洗后获得了核心用户的行为事件并于其他业务行为进行关联分析,如市场营销触达,订单支付,用户信息等。这些分析可以帮助企业建立用户行为与结果的倾向关联,对用户生命在应用内的行为进行市场,运营等手段的有效干预,在待转换,流失,沉寂等关键生命周期点进行介入。同时建立用户的分析模型和目标转换漏斗,进行整体应用的运营指导。

 

客户场景

AnalyticDB PostgreSQL助力某互联网企业完成数仓建设和行为日志的数据采集,入库,清洗,分析和洞察的全链路。将重点行为事件进行提取并于用户信息,订单信息,运营推广等维度和事实表进行关联分析,甄别关键链路并打造可视化大屏;于此同时,通过小批高频的入库能力,提供了近实时的业务追踪和运营分析手段。本次,引入Serverless版本的弹性能力和单点计算能力增强,对现有架构进行改造升级,大幅缩短了单次计算的效率,提高了的业务实时性并最终实现了10+的性价比增长。

 

架构设计

(脱敏后)

链路解析:

  1. 对于日志的采集用户可以自建工具,同时也可以使用阿里云提供的SLS产品进行用户的站内行为事件的采集;具体可参考SLS的数据采集
  2. 将行为日志的采集数据落在OSS上进行存储;参考SLS的数据存储
  3. 通过定时任务将OSS的数据以外表的形式导入AnalyticDB PostgreSQL数据仓库中,可用自建任务调度系统或使用DMS进行任务触发
  4. 对导入的数据进行结构化的清洗,过滤掉无用的数据,并将核心的事件行为结构化后添加如表;
  5. 提供企业内业务的数据分析师,对行为数据的目标进行关联分析; 例如
  1. 分析整体的用户行为趋势,观测核心指标的健康度;
  2. 行为数据+用户数据来建立不同的用户群组及行为特征;
  3. 针对历史行为的在用户上,建模来预测是否用户存在潜在的流失风险;
  4. 行为数据+订单数据来进行哪些行为关联用户行为及付费转换,可为之后的运营活动进行目标客群的定位;
  1. 同时对于成熟的分析模型持久化,配合主流的BI工具如Tableau和QuickBI等,搭建数据看板,AnalyticDB PostgreSQL支持秒级的高频刷新,可实现近实时的数据分析。AnalyticDB的BI工具集成可点击查询
  2. 若选用Serverless实例,在工作时段和运营的高峰的时端存在着并发和较大的查询密集度。 此时AnalyticDB PostgreSQL支持在线扩容,在秒级即可完成产品的横向扩容,对交互式查询的业务影响极低。在业务闲时可将资源释放,确保极高的资源使用效率。


 

性能测试 

以下是我们在服务用户使用Serverless版本与OLAP海外头部友商在同等价位上进行POC的性能对比;

 

测试数据集

用户的性能测试涉及了3张核心表,以下所有的数据字段均脱敏,不指代任何业务意义;

 

A50+列,19亿行数据,压缩后88GB),date这一列是sortkey的第一列,客户会根据date做各种where条件筛选。

Column    |          Type          |           Modifiers           
--------------+------------------------+-------------------------------
 apple        | bigint                 | 
 banana       | character varying(32)  | 
 cherry       | character varying(64)  |
 durian       | integer                | 
 date         | integer                | 
Distributed by: (cherry)
Order by: (date, cherry, apple, durian, banana)


B30+列,7000W行数据,压缩后1.2GB

Column    |          Type          |           Modifiers           
--------------+------------------------+-------------------------------
 apple        | bigint                 | 
 cherry       | character varying(64)  | default ''::character varying
 durian       | integer                | 
 date         | integer                | 
Distributed by: (cherry)
Order by: (date, cherry, apple, durian)


 

C20+列,5亿行数据,压缩后7.8GB

 

Column        |         Type          |           Modifiers           
---------------------+-----------------------+-------------------------------
 apple               | bigint                | 
 durian              | integer               | 
 cherry              | character varying(64) | not null
 date                | integer               | 
Distributed by: (cherry)
Order by: (date, cherry, apple, durian)

 

测试业务SQL

 

客户本次测试选择包含272条业务常用SQL,对于数据的扫描范围范围为30天。

 

客户的分析SQL大多数是针对上述三个表中的两个或者三个做joinsum/group by的场景,然后通过join keywhere条件做进一步筛选。

Sample Query如下:

select apple,
       durian,
       date,
       sum(col1)
from(
select A.apple, A.durain, A.date, max(NVL(NULLIF(A.colx, ''), '0') ::float) as col1
 from A, C
 where A.cherry= C.cherry
  and A.apple= C.apple
  and A.durain= C.durain
  and A.apple in (balabala)
  and A.date>= xxxx
  and A.date<= yyyy
  and A.durain> 0
  and A.banana= 'balabala'
  and A.colx in (balabala)
  and C.apple in (balabala)
  and C.durain> 0
 group by 1, 2, 3, 4) C
group by 1,2,3

其中,join key为分布列,所以SQL所做的join就是local joinwhere条件列大多数是sortkey中的列,所以可以做高效统计信息过滤筛选和二分查找优化。

 

性能结果

本次比对,用户对两款现有产品做了性能对比测试,一个是海外友商的A OLAP产品,一个是AnalyticDB PostgreSQL最新发布的serverless版本。两款产品均具有行业领先的扩缩容能力和头部厂商的性能领先性。 用户希望能够选择稳定且高性能的OLAP产品以支撑更高的数据实时性和一致性。

由于海外友商的计算资源通过CU封装,单位CU的参数未公开,故本次性能比较选择在同等价位下,为对272个业务SQL进行的总耗时对比,性能结果如下:

友商A

ADB PG Serverless

SQL执行总计用时(秒)

857

605

测试结果显示,AnalyticDB PostgreSQL Serverless版本在多表join的数据分析性能上,领先海外友商A约40%。


总结

面对海量的行为数据,以AnalyticDB PostgreSQL 为中心的数据解决方案提供了国际领先的数据分析性能。同时可覆盖数据采集,整合,分析,洞见,配合深度集成的阿里云产品生态,可以快速助力企业完成从0到1的业务部署和落地,一站式完成场景化的深度分析;

 

新用户可点击购买9.9首月试用;


需要进行类似部署或申请AnalyticDB PostgreSQL Serverless版本试用,欢迎点击咨询

相关实践学习
AnalyticDB MySQL海量数据秒级分析体验
快速上手AnalyticDB MySQL,玩转SQL开发等功能!本教程介绍如何在AnalyticDB MySQL中,一键加载内置数据集,并基于自动生成的查询脚本,运行复杂查询语句,秒级生成查询结果。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
15天前
|
SQL 存储 HIVE
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
本文整理自鹰角网络大数据开发工程师朱正军在Flink Forward Asia 2024上的分享,主要涵盖四个方面:鹰角数据平台架构、数据湖选型、湖仓一体建设及未来展望。文章详细介绍了鹰角如何构建基于Paimon的数据湖,解决了Hudi入湖的痛点,并通过Trino引擎和Ranger权限管理实现高效的数据查询与管控。此外,还探讨了湖仓一体平台的落地效果及未来技术发展方向,包括Trino与Paimon的集成增强、StarRocks的应用以及Paimon全面替换Hive的计划。
109 1
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
|
5天前
|
SQL 存储 HIVE
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
|
5天前
|
存储 分布式计算 数据处理
湖仓实时化升级 :Uniflow 构建流批一体实时湖仓
湖仓实时化升级 :Uniflow 构建流批一体实时湖仓
|
2月前
|
存储 人工智能 分布式计算
湖仓实时化升级 :Uniflow 构建流批一体实时湖仓
本文整理自阿里云产品经理李昊哲在Flink Forward Asia 2024流批一体专场的分享,涵盖实时湖仓发展趋势、基于Flink搭建流批一体实时湖仓及Materialized Table优化三方面。首先探讨了实时湖仓的发展趋势和背景,特别是阿里云在该领域的领导地位。接着介绍了Uniflow解决方案,通过Flink CDC、Paimon存储等技术实现低成本、高性能的流批一体处理。最后,重点讲解了Materialized Table如何简化用户操作,提升数据查询和补数体验,助力企业高效应对不同业务需求。
453 18
湖仓实时化升级 :Uniflow 构建流批一体实时湖仓
|
2月前
|
SQL 监控 关系型数据库
用友畅捷通在Flink上构建实时数仓、挑战与最佳实践
本文整理自用友畅捷通数据架构师王龙强在FFA2024上的分享,介绍了公司在Flink上构建实时数仓的经验。内容涵盖业务背景、数仓建设、当前挑战、最佳实践和未来展望。随着数据量增长,公司面临数据库性能瓶颈及实时数据处理需求,通过引入Flink技术逐步解决了数据同步、链路稳定性和表结构差异等问题,并计划在未来进一步优化链路稳定性、探索湖仓一体架构以及结合AI技术推进数据资源高效利用。
444 25
用友畅捷通在Flink上构建实时数仓、挑战与最佳实践
|
15天前
|
存储 分布式计算 物联网
美的楼宇科技基于阿里云 EMR Serverless Spark 构建 LakeHouse 湖仓数据平台
美的楼宇科技基于阿里云 EMR Serverless Spark 建设 IoT 数据平台,实现了数据与 AI 技术的有效融合,解决了美的楼宇科技设备数据量庞大且持续增长、数据半结构化、数据价值缺乏深度挖掘的痛点问题。并结合 EMR Serverless StarRocks 搭建了 Lakehouse 平台,最终实现不同场景下整体性能提升50%以上,同时综合成本下降30%。
|
3月前
|
存储 关系型数据库 BI
实时计算UniFlow:Flink+Paimon构建流批一体实时湖仓
实时计算架构中,传统湖仓架构在数据流量管控和应用场景支持上表现良好,但在实际运营中常忽略细节,导致新问题。为解决这些问题,提出了流批一体的实时计算湖仓架构——UniFlow。该架构通过统一的流批计算引擎、存储格式(如Paimon)和Flink CDC工具,简化开发流程,降低成本,并确保数据一致性和实时性。UniFlow还引入了Flink Materialized Table,实现了声明式ETL,优化了调度和执行模式,使用户能灵活调整新鲜度与成本。最终,UniFlow不仅提高了开发和运维效率,还提供了更实时的数据支持,满足业务决策需求。
|
3月前
|
SQL 存储 分布式计算
Hologres+Paimon构建一体化实时湖仓
Hologres 3.0全新升级,面向未来的一体化实时湖仓。它支持多种Table Format,提供湖仓存储、多模式计算、分析服务和Data+AI一体的能力。Hologres与Paimon结合,实现统一元数据管理、极速查询性能、增量消费及ETL功能。Dynamic Table支持流式、增量和全量三种刷新模式,满足不同业务需求,实现一份数据、一份SQL、一份计算的多模式刷新。该架构适用于高时效性要求的场景,也可用于成本敏感的数据共享场景。
|
3月前
|
DataWorks 数据挖掘 大数据
方案实践测评 | DataWorks集成Hologres构建一站式高性能的OLAP数据分析
DataWorks在任务开发便捷性、任务运行速度、产品使用门槛等方面都表现出色。在数据处理场景方面仍有改进和扩展的空间,通过引入更多的智能技术、扩展数据源支持、优化任务调度和可视化功能以及提升团队协作效率,DataWorks将能够为企业提供更全面、更高效的数据处理解决方案。
|
4月前
|
消息中间件 人工智能 监控
Paimon x StarRocks 助力喜马拉雅直播实时湖仓构建
本文由喜马拉雅直播业务与仓库建设负责人王琛撰写,介绍了喜马拉雅直播业务的数据仓库架构迭代升级。文章重点分享了基于 Flink + Paimon + StarRocks 实现实时湖仓的架构及其成效,通过分钟级别的收入监控、实时榜单生成、流量监测和盈亏预警,大幅提升了运营效率与决策质量,并为未来的业务扩展和 AI 项目打下坚实基础。
295 5
Paimon x StarRocks 助力喜马拉雅直播实时湖仓构建

相关产品

  • 云原生数据仓库 AnalyticDB PostgreSQL版
  • 云数据库 RDS PostgreSQL 版