阿里云 EMR StarRocks 在七猫的应用和实践

本文涉及的产品
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 本文整理自七猫资深大数据架构师蒋乾老师在 《阿里云 x StarRocks:极速湖仓第二季—上海站》的分享。

七猫公司简介

七猫是一家深耕文化娱乐行业的互联网企业,总部坐落在上海市前滩中心。七猫旗下原创文学网站七猫中文网于2017年5月正式上线,专注为原创作者提供创作指导、版权运营等全方位一体化服务。七猫拳头产品七猫免费小说App于2018年8月正式上线,专注为用户提供正版、免费、优质的网络文学内容阅读服务。现平台用户超6亿,规模位列数字阅读行业前列。

image.png

七猫大数据架构介绍

七猫的数仓团队主要是承接七猫各条业务线的离线数据开发、实时数据开发、指标建设、数据治理等工作。我加入七猫大约两年时间,加入后第一件事就是引入StarRocks。现在七猫有五套StarRocks集群在生产环境投入了使用。据不完全统计,数据治理前离线数据加实时数据,总数据量大约在20PB左右。那我们是如何维护和管理这些数据的呢?下面会通过一张简化版的数据架构图来介绍。

image.png


如上图所示,最左边是数据来源,这些数据源可以理解为用户在七猫APP上的用户行为数据,包括曝光、点击、阅读时长、点赞、评论、浏览广告等。这些数据会通过日志埋点的形式上报到日志接收系统。日志接收系统会将用户行为数据和广告数据进行分流,分别存在两个Kafka里面。大数据通过 Flink 实时消费两个 Kafka 的数据并实时写入到 Hive 数据表中。在 Hive 里进行一系列 ETL 操作之后,数据会流入到 StarRocks 和 Redis ,为下游的业务提供直接的数据服务,其中 Redis 主要应对的是高并发的场景。基于 StarRocks 和 Redis,下游开发各种系统,比如统一的 BI 系统、指标管理系统,AB实验系统、通用人群圈选系统等。后面将为大家重点介绍通用人群圈选系统的工作流程和设计思路。

中间部分是七猫大数据数仓的基础数据。上下两个分支分别是市场投放业务数据以及商业化业务数据。这两条业务线的数据特点是数据量非常大,实时性要求高,每秒钟可能产生几百万条数据。分别通过 Flink CDC 以及 Flink Connector 每五分钟聚合写入到 StarRocks 里,关联数仓的其它用户行为数据,为下游提供数据服务,满足业务看数和用数的需求。

除了市场投放以及商业化业务数据之外,还有其他八条业务线。所有的业务线都有用数看数的需求,要同时应对各个业务线的数据需求,必须要依靠工具的力量来提升数据的交付效率。所以我们将各条业务线的数据需求,抽象成公共的数据能力,统一的提供服务。几个比较典型的业务场景,如数据地图、自助指标分析,数据治理、AB实验等。对应地在数据资产管理平台里会提供元数据服务,统一指标库、成本核算等数据能力。

image.png


上图所示的模块,大部分都已经在生产环境使用了,只有小部分还在开发中。中间有一段是数据读写层。Flink 和 Spark 主要的功能是将数据写入到数仓中,然后 StarRocks、Kylin、Trino、ClickHouse 的主要功能是将数仓中的结果数据提供给业务线。由于历史原因,平台 OLAP 引擎多样且语法不统一,导致给数据开发和业务使用增加了门槛。所以在长期规划中,我们会逐步精简 OLAP 引擎,逐步打造基于 StarRocks + Kylin 的 OLAP 引擎,为业务数据提供统一支持。

阿里云 EMR-StarRocks 在七猫的实践案例

通用人群圈选系统

通用人群圈选系统上线之前,我们数仓团队平均一周会接到2-3个用户圈选需求,系统上线之后则是平均2-3个月接到一个需求。为什么会出现这么大的变化呢?类比边缘计算的思路,边缘计算将云计算所需要完成的工作前置到终端来进行执行,从而减轻中心节点的负载和压力。同理,原先用户圈选需要由数仓同学才能够完成,现在则将这些工作前置到业务团队来完成。将圈选人群的工作下发到业务,业务同学只需要写一段 SQL 提交到系统,系统就会自动创建人群包。

image.png

用户圈选系统的实现原理如上图所示,起点是分析师/运营通过自定义的 SQL 创建人群包,将人群配置信息注册到圈选系统上,数据资产管理平台的人群圈选的模块会定期读取配置信息,然后调用作业调度系统的API,自动生成圈选作业并定时调度,同时还会解决上下游依赖问题。

第一版用户圈选系统人群信息数据主要落在Redis,通过数据服务给到业务服务使用。因为业务服务针对不同人群有不同的策略及实验,同时考虑到离线数据分析部分的人群信息,也会自动落一份数据到 Hive 里,帮助分析师或者算法同学关联数仓的用户行为指标来进行分析。这部分可以了解人群建好一段时间之后的人群表现,并通过数据关联进行分析。由于 Redis 的使用成本比较高,遂引入了 StarRocks 。StarRocks 可以存储的数据量也比较大,相对 Redis 来说,整体使用成本比较低。作业调度系统中,StarRocks、Redis、Hive 都是可选的引擎,由业务同学自己决定。可以看到在整个流程中,数仓同学几乎没有露脸,实现业务同学玩转系统初衷。碰到疑难问题,再由数仓同学介入解决,节省了人力成本以支持更多业务需求。

image.png

通用人群圈选系统截图


指标异动自动下钻探查

指标异动自动下钻探查是我们七猫数仓团队自研的功能,目前处于孵化阶段。由于还没有前端同学参与,界面稍显简陋,但因为功能强大,迫不及待跟大家分享。指标异动自动下钻探查功能,可以自动发现细分维度下,指标异常的根源,快速定位指标异动原因。

image.png

上图所示的所有节点都是指标,出现在这棵指标树上的都是异常指标。当指标出现异常如 DAU 上涨/下跌时,可以根据节点和节点之间的连接关系,一层一层下钻,找到最细维度组合下的指标异常,然后定位到负责该指标的业务同学,了解业务是否有变更,导致 DAU 波动。通过指标异动自动下钻探查功能,原本可能耗时半天的繁琐SQL查询,可以压缩至5分钟内获得洞察。

实现指标异动自动下钻探查功能,主要有两个关键技术点。第一个是如何判断指标是否异常;第二个是如何将异常指标连接展现。

异常指标判定:我们会通过预测算法,基于历史数据预测指标的正常范围。如果当前指标不在正常范围中,则视为指标异常。例如,通过分析过去数月的DAU趋势,确定当前DAU是否显著偏移预测区间。

异常指标串联展现:对指标的下钻维度进度编码,高效构建指标间的层级关系,实现从单一指标到多维度组合的逐级下钻分析,将异常的指标通过树形结构串联起来,然后进行可视化展现。

image.png

730 天微聚合数据灵活下钻分析

最近半年,七猫在提升用户标签的覆盖度和准确度方向做了很多工作,覆盖度和准确度提升的同时,也导致历史数据分析的连续性和准确性受到了干扰。如某用户从原识别为女性调整为男性,直接对比更新前后的数据可能导致误读,如看似女性用户阅读时长骤减而男性用户时长激增的现象,实则是归类调整的结果,并非真实行为变化。这对依赖于此类数据进行算法优化和业务决策的团队构成了严峻挑战,尤其是在面对大规模标签更新时,问题复杂度呈指数级增长,传统处理方式难以为继。

image.png

为应对这一难题,团队集思广益,提出了一项创新策略:每日采用最新用户标签重新计算过去730天的数据,以确保分析的一致性和时效性。然而,涉及约5亿用户、150亿指标数据,执行此策略面临的数据处理规模十分庞大,涉及的查询性能必然很差。此外,由于集群规模小,数据量庞大,数据甚至无法导入,增加节点,增大集群规模又会面临很高的成本问题。探索如采用bitmap编码优化存储与查询效率的方式,也因实施复杂度和沟通成本高而未能采纳。

最终,通过一个StarRocks使用小技巧解决了这个问题,第一步是在 Hive 表中通过行转列,将730条记录合并成1条,再将缩小了730倍的数据导入到 StarRocks 中创建视图,导入之后将数据与最新的标签数据进行 join,再将指标按照业务要求的维度进行分组,最后创建基于视图的物化视图。每天只要 Refresh 物化视图,就能够达到指标查询加速的效果,实现查询秒出。经过一段时间的运行验证,系统稳定性良好,业务部门反馈积极,用户标签更新带来的问题成功解决。

image.png


未来展望

指标加速层建设

目前我们数仓团队在 Hive 里构建数据模型和指标后,还需人工同步数据至 StarRocks,手段在 BI 系统中创建数据集,以及手动在指标管理系统内进行登记注册。后续我们计划在数据资产管理平台建设指标加速层,核心 OLAP 引擎选用 StarRocks+ Kylin,数据开发人员仅需在指标管理系统中精准定义模型和指标,即可自动生成 BI 系统数据集,同时自动完成 StarRocks 与 Redis 中的数据加速处理。

image.png


埋点全链路数据治理

2024年3月我们启动了数据治理专项,截止到5月份,在数据量持续增长的情况下,完成了降本 70万元/月 的目标。主要涉及到的工作内容如下:

1、数据开发和治理规范

  • 开发数据治理工具:自动识别需要治理的数据表和资源利用率低的任务,告警到个人。
  • 开发黑名单功能:对长时间没有优化的数据表和任务,自动 Kill 。

2、存储治理

  • 基于对象存储的归档能力,将访问频度低的分区数据进行分级归档(冷归档的存储成本大约是标准存储成本的 1/10)。
  • 基于数据血缘能力,将出度和入度较小的数据表下线,用其它热度较高数据表代替。

3、计算资源治理

  • 基于 Spark 集群的弹性扩缩容的能力,减少常驻 Spark 节点数。
  • 通过 YARN 资源的监控,对 Spark 任务进行编排,减少弹性扩容的 Spark 节点数。

image.png

值得注意的是,目前的数据治理实践主要围绕数仓内的表与任务展开,尚未覆盖至 StarRocks 。所以接下来我们计划进行面向埋点的全链路数据治理:

  • 统计报表和数据集的访问频次,下线低热度报表和数据集,数据集对应的 EMR StarRocks 数据表访问频次会响应降低;
  • 根据 EMR StarRocks 数据表的分区访问频次,分辨冷热数据表、分区,热数据保留在EMR-StarRocks中,温冷数据移动到 Hive 中;
  • Hive 表中访问频次低的字段、埋点逐步下线;
  • 借助EMR-StarRocks的存算分离的能力,根据统计信息制定规定,在本地存储和对象存储之间,自动迁移数据。

image.png




产品导航



EMR Serverless StarRocks钉钉交流群(群号:24010016636)

相关实践学习
基于EMR Serverless StarRocks一键玩转世界杯
基于StarRocks构建极速统一OLAP平台
快速掌握阿里云 E-MapReduce
E-MapReduce 是构建于阿里云 ECS 弹性虚拟机之上,利用开源大数据生态系统,包括 Hadoop、Spark、HBase,为用户提供集群、作业、数据等管理的一站式大数据处理分析服务。 本课程主要介绍阿里云 E-MapReduce 的使用方法。
目录
相关文章
|
11天前
|
数据采集 运维 DataWorks
DataWorks on EMR StarRocks,打造标准湖仓新范式
本文整理自阿里云计算平台产品专家周硕(簌篱)在阿里云DataWorks on EMR StarRocks解决方案介绍中的分享。介绍了阿里云DataWorks与EMR Serverless StarRocks的结合使用,详细阐述了在数据同步、数据消费、数据治理三大场景中的核心能力。DataWorks作为大数据开发治理平台,提供了从数据建模、数据集成、数据开发到数据治理的全链路解决方案,结合StarRocks的高性能分析能力,帮助企业实现OLAP分析、湖仓一体开发及数据综合治理,满足复杂业务场景下的需求,提升数据处理和分析效率。
42 4
|
1月前
|
SQL 存储 缓存
阿里云EMR StarRocks X Paimon创建 Streaming Lakehouse
本文介绍了阿里云EMR StarRocks在数据湖分析领域的应用,涵盖StarRocks的数据湖能力、如何构建基于Paimon的实时湖仓、StarRocks与Paimon的最新进展及未来规划。文章强调了StarRocks在极速统一、简单易用方面的优势,以及在数据湖分析加速、湖仓分层建模、冷热融合及全链路ETL等场景的应用。
261 2
阿里云EMR StarRocks X Paimon创建 Streaming Lakehouse
|
28天前
|
SQL 存储 缓存
降本60% ,阿里云 EMR StarRocks 全新发布存算分离版本
阿里云 EMR Serverless StarRocks 现已推出全新存算分离版本,该版本不仅基于开源 StarRocks 进行了全面优化,实现了存储与计算解耦架构,还在性能、弹性伸缩以及多计算组隔离能力方面取得了显著进展。
259 6
|
1月前
|
SQL 存储 缓存
阿里云EMR StarRocks X Paimon创建 Streaming Lakehouse
讲师焦明烨介绍了StarRocks的数据湖能力,如何使用阿里云EMR StarRocks构建基于Paimon的极速实时湖仓,StarRocks与Paimon的最新进展及未来规划。
122 3
|
3月前
|
分布式计算 大数据 MaxCompute
EMR Remote Shuffle Service实践问题之阿里云RSS的开源计划内容如何解决
EMR Remote Shuffle Service实践问题之阿里云RSS的开源计划内容如何解决
|
3月前
|
分布式计算 测试技术 调度
EMR Remote Shuffle Service实践问题之集群中落地阿里云RSS如何解决
EMR Remote Shuffle Service实践问题之集群中落地阿里云RSS如何解决
|
2月前
|
SQL 分布式计算 Serverless
阿里云 EMR Serverless Spark 版正式开启商业化
阿里云 EMR Serverless Spark 版正式开启商业化,内置 Fusion Engine,100% 兼容开源 Spark 编程接口,相比于开源 Spark 性能提升300%;提供 Notebook 及 SQL 开发、调试、发布、调度、监控诊断等一站式数据开发体验!
149 3
阿里云 EMR Serverless Spark 版正式开启商业化
|
3月前
|
存储 分布式计算 大数据
大数据革新在即,阿里云EMR如何布局DeltaLake引领行业潮流?
【8月更文挑战第26天】大数据时代,实时处理与分析能力对企业至关重要。Delta Lake 作为高性能、可靠且支持 ACID 事务的开源存储层,已成为业界焦点。阿里云 EMR 深度布局 Delta Lake,计划深化集成、强化数据安全、优化实时性能,并加强生态建设与社区贡献。通过与 Spark 的无缝对接及持续的技术创新,阿里云 EMR 致力于提供更高效、安全的数据湖解决方案,引领大数据处理领域的发展新方向。
50 3
|
3月前
|
存储 分布式计算 监控
揭秘阿里云EMR:如何巧妙降低你的数据湖成本,让大数据不再昂贵?
【8月更文挑战第26天】阿里云EMR是一种高效的大数据处理服务,助力企业优化数据湖的成本效益。它提供弹性计算资源,支持根据需求调整规模;兼容并优化了Hadoop、Spark等开源工具,提升性能同时降低资源消耗。借助DataWorks及Data Lake Formation等工具,EMR简化了数据湖构建与管理流程,实现了数据的统一化治理。此外,EMR还支持OSS、Table Store等多种存储选项,并配备监控优化工具,确保数据处理流程高效稳定。通过这些措施,EMR帮助企业显著降低了数据处理和存储成本。
130 3
|
3月前
|
安全 数据管理 大数据
数据湖的未来已来:EMR DeltaLake携手阿里云DLF,重塑企业级数据处理格局
【8月更文挑战第26天】在大数据处理领域,阿里云EMR与DeltaLake的集成增强了数据处理能力。进一步结合阿里云DLF服务,实现了数据湖的一站式管理,自动化处理元数据及权限控制,简化管理流程。集成后的方案提升了数据安全性、可靠性和性能优化水平,让用户更专注业务价值。这一集成标志着数据湖技术向着自动化、安全和高效的未来迈出重要一步。
74 2