Apache Doris 助力网易严选打造精细化运营 DMP 标签系统

简介: Apache Doris 助力网易严选打造精细化运营 DMP 标签系统

导读:如果说互联网的上半场是粗狂运营,因为有流量红利不需要考虑细节。那么在下半场,精细化运营将是长久的主题,有数据分析能力才能让用户得到更好的体验。当下比较典型的分析方式是构建用户标签系统,从而精准地生成用户画像,提升用户体验。今天分享的主题是网易严选DMP标签系统建设实践,主要围绕下面五点展开:


  • 平台总览

  • 标签生产 :标签圈选&生产链路

  • 标签存储:存储方式&存储架构演进

  • 高性能查询

  • 未来规划

01


平台总览


DMP作为网易严选的数据中台,向下连接数据,向上赋能业务,承担着非常重要的基石角色。


DMP的数据来源主要包括三大部分


  • 自营平台的app、小程序、pc端等各端的业务日志

  • 网易集团内部共建的一些基础数据

  • 京东、淘宝、抖音等第三方渠道店铺的数据

通过收集、清洗,将以上数据形成数据资产沉淀下来。DMP在数据资产基础上形成了一套自己的标签产出、人群圈选和用户画像分析体系,从而为业务提供支撑,包括:智能化的选品、精准触达以及用户洞察等。总的来说,DMP系统就是构建以数据为核心的标签体系和画像体系,从而辅助业务做一系列精细化的运营。

777.png了解DMP系统,先从以下几个概念开始。


  • 标签:对于实体(用户、设备、手机号等)特征的描述,是一种面向业务的数据组织形式,比如使用:年龄段、地址、偏好类目等对用户实体进行刻画。

  • 人群圈****选:通过条件组合从全体用户中圈选出一部分用户,具体就是指定一组用户标签和其对应的标签值,得到符合条件的用户人群。

  • 画像分析:对于人群圈选结果,查看该人群的行为情况、标签分布。例如查看【城市为杭州,且性别为女性】的用户在严选APP上的行为路径、消费模型等。

888.png严选标签系统对外主要提供两大核心能力:


(1)标签查询:查询特定实体指定标签的能力,常用于基本信息的展示。


(2)人群圈选:分为实时和离线圈选。圈选结果主要用于:


  • 分组判断:判读用户是否在指定的一个或多个分组,资源投放、触点营销等场景使用较多。

  • 结果集拉取:拉取指定的人群数据到业务方系统中,进行定制化开发。

  • 画像分析:分析特定人群的行为数据,消费模型等,进行更精细的运营。

整体的业务流程如下:

999.png

  • 首先定义标签和人群圈选的规则;

  • 定义出描述业务的DSL之后,便可以将任务提交到Spark进行计算;

  • 计算完成之后,将计算结果存储到HIVE和DORIS;

  • 之后业务方便可以根据实际业务需求从HIVE或DORIS中查询使用数据。

000.png

DMP平台整体分为计算存储层、调度层、服务层、和元数据管理四大模块。


所有的标签元信息存储在源数据表中;调度层对业务的整个流程进行任务调度:数据处理、聚合转化为基础标签,基础标签和源表中的数据通过DSL规则转化为可用于数据查询的SQL语义,由调度层将任务调度到计算存储层的Spark进行计算,并将计算结果存储到Hive和Doris中。服务层由标签服务、实体分组服务、基础标签数据服务、画像分析服务四部分组成。

222.png标签的生命周期包含5个阶段:


(1)标签需求:在此阶段,运营提出标签的需求和价值预期,产品评估需求合理性以及紧迫性。


(2)排期生产:此阶段需要数据开发梳理数据,从ods到dwd到dm层整个链路,根据数据建立模型,同时数据开发需要做好质量监控。


(3)人群圈选:标签生产出来之后进行应用,圈选出标签对应的人群。


(4)精准营销:对3中圈选出来的人群进行精准化营销。


(5)效果评估:最后产品、数据开发和运营对标签使用率、使用效果进行效果评估来决定后续对标签进行改进或降级。


总的来说,就是以业务增长为目标,围绕标签的生命周期,投入合理的资源,最大化运营效果。


标签生产


接下来介绍标签生产的整个过程。

6666.png标签的数据分层:


  • 最下层是ods层,包括用户登录日志、埋点记录日志、交易数据以及各种数据库的binlog数据。

  • 对ods层处理后的数据到达dwd明细层,包括用户登录表、用户活动表、订单信息表等。

  • dwd层数据聚合后到dm层,标签全部基于dm层数据实现。

目前我们从原始数据库到ods层数据产出已经完全自动化,从ods层到dwd层实现了部分自动化,从dwd到dm层有一部分自动化操作,但自动化程度还不高,这部分的自动化操作是我们接下来的工作重点。

9999.png

标签根据时效性分为:离线标签、近实时标签和实时标签。


根据聚合粒度分为:聚合标签和明细标签。


通过类别维度可将标签分为:账号属性标签、消费行为标签、活跃行为标签、用户偏好标签、资产信息标签等。

123.png直接将dm层的数据不太方便拿来用,原因在于


基础数据比较原始,抽象层次有所欠缺、使用相对繁琐。通过对基础数据进行与、或、非的组合,形成业务标签供业务方使用,可以降低运营的理解成本,降低使用难度。

90.png

标签组合之后需要对标签进行具体业务场景应用,如人群圈选。配置如上图左侧所示,支持离线人群包和实时行为(需要分开配置)。


配置完后,生成上图右侧所示的DSL规则,以json格式表达,对前端比较友好,也可以转成存储引擎的查询语句。

91.png

92.png

标签有一部分实现了自动化。在人群圈选部分自动化程度比较高。比如分组刷新,每天定时刷新;高级计算,如分组与分组间的交/并/差集;数据清理,及时清理过期失效的实体集。


标签存储


下面介绍一下我们在标签存储方面的实践


严选DMP标签系统需要承载比较大的C端流量,对实时性要求也比较高。


我们对存储的要求包括:


  • 支持高性能查询,以应对大规模C端流量

  • 支持SQL,便于应对数据分析场景

  • 支持数据更新机制

  • 可存储大数据量

  • 支持扩展函数,以便处理自定义数据结构

  • 和大数据生态结合紧密

目前还没有一款存储能够完全满足要求。


我们第一版的存储架构如下图所示:

94.png

离线数据大部分存储在hive中,小部分存储在hbase(主要用于基础标签的查询)。实时数据一部分存储在hbase中用于基础标签的查询,部分双写到KUDU和ES中,用于实时分组圈选和数据查询。离线圈选的数据通过impala计算出来缓存在redis中。


这一版本的缺点包括:


  • 存储引擎过多。

  • 双写有数据质量隐患,可能一方成功一方失败,导致数据不一致。

  • 项目复杂,可维护性较差。

为了减少引擎和存储的使用量,提高项目可维护性,在版本一的基础上改进实现了版本二。

95.png

存储架构版本二引入了ApacheDoris,离线数据主要存储在HIVE中,同时将基础标签导入到Doris,实时数据也存储在doris,基于Spark做HIVE加Doris的联合查询,并将计算出来的结果存储在redis中。经过此版改进后,实时离线引擎存储得到了统一,性能损失在可容忍范围内(Hbase的查询性能比doris好一些,能控制在10ms以内,doris目前是1.0版本,p99,查询性能能控制在20ms以内,p999,能控制在50ms以内);项目简化,降低了运维成本。


在大数据领域,各种存储计算引擎有各自的适用场景,如下表所示:

96.png

高性能查询

97.png

分组存在性判断:判断用户是否在指定的一个分组或者多个分组。包括两大部分:第一部分为静态人群包,提前进行预计算,存入redis中(key为实体的id,value为结果集id),采用lua脚本进行批量判断,提升性能;第二部分为实时行为人群,需要从上下文、API和ApacheDoris中提取数据进行规则判断。性能提升方案包括,异步化查询、快速短路、查询语句优化、控制join表数量等。

98.png

还有一个场景是人群分析:人群分析需要将人群包数据同多个表进行联合查询,分析行为路径。目前doris还不支持路径分析函数,因此我们开发了dorisUDF来支持此业务。doris的计算模型对自定义函数的开发还是很友好的,能够比较好地满足我们的性能需要。

145.png

ApacheDoris在网易严选中已应用于点查、批量查询、路径分析、人群圈选等场景。在实践中具备以下优势


(1)在点查和少量表的联合查询性能QPS超过万级,RT99<50MS。


(2)水平扩展能力很强,运维成本相对比较低。


(3)离线数据和实时数据相统一,降低标签模型复杂度。


不足之处在于大量小数据量的导入任务资源占用较多,性能还需要优化。


未来规划

146.png

(1)提升存储&计算性能


HIVE和Spark逐渐全部转向ApacheDoris。


(2)优化标签体系


  • 建立丰富准确的标签评价体系

  • 提升标签质量和产出速度

  • 提升标签覆盖率

(3)更精准的运营


  • 建立丰富的用户分析模型

  • 从使用频次和用户价值两个方面提升用户洞察模型评价体系

  • 建立通用化画像分析能力,辅助运营智能化决策
目录
相关文章
|
4天前
|
SQL 分布式计算 Apache
Apache Doris + Apache Hudi 快速搭建指南|Lakehouse 使用手册(一)
本文将在 Docker 环境下,为读者介绍如何快速搭建 Apache Doris + Apache Hudi 的测试及演示环境,并对各功能操作进行演示,帮助读者快速入门。
Apache Doris + Apache Hudi 快速搭建指南|Lakehouse 使用手册(一)
|
15天前
|
消息中间件 存储 Java
深度探索:使用Apache Kafka构建高效Java消息队列处理系统
【6月更文挑战第30天】Apache Kafka是分布式消息系统,用于高吞吐量的发布订阅。在Java中,开发者使用Kafka的客户端库创建生产者和消费者。生产者发送序列化消息到主题,消费者通过订阅和跟踪偏移量消费消息。Kafka以持久化、容灾和顺序写入优化I/O。Java示例代码展示了如何创建并发送/接收消息。通过分区、消费者组和压缩等策略,Kafka在高并发场景下可被优化。
72 1
|
17天前
|
SQL 存储 运维
网易游戏如何基于阿里云瑶池数据库 SelectDB 内核 Apache Doris 构建全新湖仓一体架构
随着网易游戏品类及产品的快速发展,游戏数据分析场景面临着越来越多的挑战,为了保证系统性能和 SLA,要求引入新的组件来解决特定业务场景问题。为此,网易游戏引入 Apache Doris 构建了全新的湖仓一体架构。经过不断地扩张,目前已发展至十余集群、为内部上百个项目提供了稳定可靠的数据服务、日均查询量数百万次,整体查询性能得到 10-20 倍提升。
网易游戏如何基于阿里云瑶池数据库 SelectDB 内核 Apache Doris 构建全新湖仓一体架构
|
12天前
|
存储 大数据 关系型数据库
从 ClickHouse 到阿里云数据库 SelectDB 内核 Apache Doris:快成物流的数智化货运应用实践
目前已经部署在 2 套生产集群,存储数据总量达百亿规模,覆盖实时数仓、BI 多维分析、用户画像、货运轨迹信息系统等业务场景。
|
14天前
|
消息中间件 存储 Java
Apache Kafka是分布式消息系统,用于高吞吐量的发布订阅
【7月更文挑战第1天】Apache Kafka是分布式消息系统,用于高吞吐量的发布订阅。在Java中,开发者使用Kafka的客户端库创建生产者和消费者。生产者发送消息到主题,消费者订阅并消费。Kafka提供消息持久化、容灾机制,支持分区和复制以确保高可用性。通过优化如分区、批处理和消费者策略,可适应高并发场景。简单的Java示例展示了如何创建和交互消息。
18 0
|
17天前
|
关系型数据库 MySQL BI
Apache Doris 2.0.12 版本正式发布
Apache Doris 2.0.12发布,含99项改进和修复。
|
19天前
|
SQL Java Apache
阿里云数据库 SelectDB 版内核 Apache Doris 2.1.4 版本正式发布
亲爱的社区小伙伴们,Apache Doris 2.1.4 版本已于 2024 年 6 月 26 日正式发布。在 2.1.4 版本中,我们对数据湖分析场景进行了多项功能体验优化,重点修复了旧版本中异常内存占用的问题,同时提交了若干改进项以及问题修复,进一步提升了系统的性能、稳定性及易用性,欢迎大家下载使用。
|
1月前
|
监控 大数据 Java
使用Apache Flink进行大数据实时流处理
Apache Flink是开源流处理框架,擅长低延迟、高吞吐量实时数据流处理。本文深入解析Flink的核心概念、架构(包括客户端、作业管理器、任务管理器和数据源/接收器)和事件时间、窗口、状态管理等特性。通过实战代码展示Flink在词频统计中的应用,讨论其实战挑战与优化。Flink作为大数据处理的关键组件,将持续影响实时处理领域。
238 5
|
2月前
|
消息中间件 Java Kafka
实时计算 Flink版操作报错之Apache Flink中的SplitFetcher线程在读取数据时遇到了未预期的情况,该怎么解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
4天前
|
关系型数据库 API Apache
Flink CDC:基于 Apache Flink 的流式数据集成框架
本文整理自阿里云 Flink SQL 团队研发工程师于喜千(yux)在 SECon 全球软件工程技术大会中数据集成专场沙龙的分享。
276 1
Flink CDC:基于 Apache Flink 的流式数据集成框架

推荐镜像

更多