找不到目标用户?云原生数仓AnalyticDB MySQL秒级圈人功能大揭秘

简介: 营销域中的洞察分析/智能圈人/经营报表等场景是OLAP分析型数据库的重要应用场景,阿里云瑶池旗下的云原生数据仓库AnalyticDB MySQL在淘宝、饿了么、菜鸟、优酷、盒马等业务的营销场景有比较长时间的积累和沉淀,我们将通过一系列文章来介绍AnalyticDB MySQL在营销域数据产品中的落地与应用,之前文章介绍了“漏斗分析”的实现与应用,本文主要介绍“秒级圈人&画像分析”的实现与应用。

【先打一波小广告】阿里云AnalyticDB MySQL升级为湖仓一体架构,支持高吞吐离线处理和高性能在线分析,可无缝替换CDH/TDH/Databricks/Presto/Spark/Hive等。

免费试用活动(5000ACU时+100GB存储)正在火热进行中,欢迎体验!免费试用链接:https://free.aliyun.com/?searchKey=AnalyticDB%20MySQL,群号:33600023146


业务挑战  


营销域中的洞察分析/智能圈人/经营报表等场景是OLAP分析型数据库的重要应用场景,阿里云瑶池旗下的云原生数据仓库AnalyticDB MySQL在淘宝、饿了么、菜鸟、优酷、盒马等业务的营销场景有比较长时间的积累和沉淀,我们将通过一系列文章来介绍AnalyticDB MySQL在营销域数据产品中的落地与应用,之前文章介绍了“漏斗分析”的实现与应用本文主要介绍“秒级圈人&画像分析”的实现与应用。


技术挑战  


营销域的“搜,广,推”业务中,对用户的运营是一个“Interest Targeting ”循环迭代的过程:对全量用户画像分析-->挖掘目标用户-->AB测试:触达目标用户-->触达效果画像分析-->挖掘目标用户。这个过程抽象出来的技术需求是:人群圈选&画像分析,技术实现的架构大致如下:


这套架构有两个问题:

  • 成本高:用户标签数据生产好之后需要在ETL数仓和OLAP引擎存两份,这就意味着存储成本,同步作业成本和运维成本都很高,系统整体稳定性也存在潜在风险。
  • 用户体验不好:例如现在运营同学希望对生成的人群包进行画像分析,那么他/她只能等ETL引擎将人群包计算好了并且同步回OLAP引擎之后才可以,而数据同步和作业调度往往是分钟/小时级的,运营同学不能立刻进行分析使用。


问题分析

问题的本质原因是因为圈人的计算量太大,出于稳定性和成本的妥协,传统的解决方案中圈人只能放在ETL引擎中处理。

假设所有的用户标签(N个)都在一张大宽表里,表结构大致如下:

tbl_user_tag

user_id

tag1

tag2

tag3

...

tagN

100001

x

a

3

...

...

100002

y

b

6

...

...


现在我们要圈选出满足tag1='x'并且tag2='a'的用户,分析这些用户在tag3维度的画像

圈人SQL实现:

insert overwrite into package_table_1
select user_id from tbl_user_tag where tag1='x' and tag2='a'


画像分析SQL实现

select tag3, count(distinct user_id) from 
(
select user_id from tbl_user_tag where tag1='x' and tag2='a'
)
group by tag3


这两个SQL没有问题,大部分OLAP引擎都可以完成得很好,然而,实际业务实践中我们不可能把所有的标签都放在一张表里,这里面有技术和业务维护两方面的原因:

  1. 技术方面:如果一张表里的字段很多,写时内存hold的block多,内存占用更多,理论上写延迟会更高;标签表一般默认全索引(给所有标签字段建立索引是合理的需求)的话build/load的cpu消耗也会更高。查询时元数据内存占用也会更多。
  2. 业务方面:标签表的上游业务数据来自不同的业务方,我们不可能在一个作业中完成所有标签的计算生产。


因此需要拆表,假设tag1和tag2在两张不同的标签表里:

tbl_user_tag_1

user_id

tag1

tag3

ta5

...

tagN

100001

x

2

3

...

...

100002

y

4

6

...

...


tbl_user_tag_2

user_id

tag2

tag4

tag6

...

tagM

100001

a

2

3

...

...

100002

b

4

6

...

...


圈人SQL实现:

select user_id from tbl_user_tag_1 where tag1='x'
union
select user_id from tbl_user_tag_2 where tag2='a'
或者
select user_id from tbl_user_tag_1 
  inner join tbl_user_tag_2 
  on tbl_user_tag_1.user_id = tbl_user_tag_2.user_id
  where tag1='x' and tag2='a'

这里列举了2种写法,只是写法不同,对计算引擎而言,问题都是引入了“大表JOIN”的问题,参与Join的数据规模和用户ID空间成正比,需要进行的Join计算次数和SQL条件复杂程度:需要使用到的标签表的个数成正比(此处只举了2个标签表的情况,实际中可能是10几个甚至几十个标签表进行Join)。“大表JOIN”对计算引擎的CPU资源消耗较高,执行时间也较长,因此传统解决方案中只能放在相对低成本的ETL引擎中处理。


AnalyticDB MySQL优化方法

针对上述业务痛点问题,AnalyticDB MySQL引入RoaringBitmap及相关计算函数来将圈人场景中“大表Join”问题转化成“小表Join”问题,并且在oss外表中原生支持Roaringbitmap类型,来解决多份标签数据和人群包导出的问题。

我们准备一份测试数据,来介绍一下各个场景的具体做法,数据处理整体流程大致如下:


步骤一 实时构建bitmap标签表

准备一个测试用的原始标签表users_base,假设所有的用户标签都放在users_base表中,创建测试用的原始标签数据表

create table users_base(
   uid int,
   tag1 string, // tag1 取值范围是: x, y, z
   tag2 string, // tag2 取值范围是: a, b
   tag3 int // tag3 取值范围是:1-10
)


生成1亿行随机测试数据

// 生成1亿行随机数据
submit job
insert overwrite users_base
select cast(row_number() over (order by c1) as int) as uid,  substring('xyz', floor(rand() * 3) + 1, 1) as tag1, substring('ab', floor(rand() * 2) + 1, 1) as tag2, cast(floor(rand() * 10) + 1 as int) as tag3 from  
(
select A.c1 from
unnest(rb_build_range(0, 10000)) as A(c1)
  join
  (select c1 from
unnest(rb_build_range(0, 10000)) as B(c1)
))
mysql> select * from users_base limit 10;
+--------+------+------+------+
| uid    | tag1 | tag2 | tag3 |
+--------+------+------+------+
|  74526 | y    | b    |    3 |
|  75611 | z    | b    |   10 |
|  80850 | x    | b    |    5 |
|  81656 | z    | b    |    7 |
| 163845 | x    | b    |    2 |
| 167007 | y    | b    |    4 |
| 170541 | y    | b    |    9 |
| 213108 | x    | a    |   10 |
|  66056 | y    | b    |    4 |
|  67761 | z    | a    |    2 |
+--------+------+------+------+


构建bitmap标签表, 在设计标签表的时候,考虑到利用分布式计算引擎的并发能力,我们引入一个分组字段(本例中使用user_group),将uid分组并行计算,分组的大小可以根据集群CU总数和实际业务情况进行取舍:

  1. 一般分组越多计算能力越强,但是分组过多又会导致每个bitmap包含的元素太少,不能充分利用bitmap的计算特性。
  2. 实践过程中建议保证每个分组的bitmap空间 < 1亿, 例如,原始的uid空间是100亿,可以使用100个分组,每个分组1亿。


本例子中使用16个分组, uid%16来做分组字段,offset=uid/16来记录分组后的偏移,uid = 16 * offset + user_goup , 后续使用offset来计算bitmap ,这种分组方式只是一个例子,实际业务可以根据业务需要设计分组函数

// 创建添加分组字段后的用户原始表
create table users(
   uid int,
   tag1 string,
   tag2  string,
   tag3 int,
   user_group int, // 分组字段
   offset  int //偏移
)
// 将users_base的数据写入users
submit job
insert overwrite users select uid, tag1, tag2, tag3, cast(uid%16 as int), cast(floor(uid/16) as int) from users_base
// 检查写入后的数据
mysql> select * from users limit 10;
+---------+------+------+------+------------+--------+
| uid     | tag1 | tag2 | tag3 | user_group | offset |
+---------+------+------+------+------------+--------+
|  377194 | z    | b    |   10 |         10 |  23574 |
|  309440 | x    | a    |    1 |          0 |  19340 |
|  601745 | z    | a    |    7 |          1 |  37609 |
|  753751 | z    | b    |    3 |          7 |  47109 |
|  988186 | y    | a    |   10 |         10 |  61761 |
|  883822 | x    | a    |    9 |         14 |  55238 |
|  325065 | x    | b    |    6 |          9 |  20316 |
| 1042875 | z    | a    |   10 |         11 |  65179 |
|  928606 | y    | b    |    5 |         14 |  58037 |
|  990858 | z    | a    |    8 |         10 |  61928 |
+---------+------+------+------+------------+--------+

构建roaringbitmap标签表

// 创建tag1的标签表
create Table `tag_tbl_1` (
  `tag1` string,
  `rb` roaringbitmap,
  `user_group` int) engine = 'oss'
TABLE_PROPERTIES = '{
"endpoint":"oss-cn-zhangjiakou.aliyuncs.com",
"accessid":"******",
"accesskey":"*************",
"url":"oss://your oss bucket/roaringbitmap/tag_tbl_1/",
"format":"parquet"
}'
// 写入tag1标签表
insert overwrite tag_tbl_1 select tag1, rb_build_agg(offset), user_group from users group by tag1, user_group
// 检查写入tag1标签表的数据, 可以看到和原始标签users表是对应的
mysql>  select tag1, user_group, rb_cardinality(rb) from tag_tbl_1;
+------+------------+--------------------+
| tag1 | user_group | rb_cardinality(rb) |
+------+------------+--------------------+
| z    |          7 |            2082608 |
| x    |         10 |            2082953 |
| y    |          7 |            2084730 |
| x    |         14 |            2084856 |
.....
| z    |         15 |            2084535 |
| z    |          5 |            2083204 |
| x    |         11 |            2085239 |
| z    |          1 |            2084879 |
+------+------------+--------------------+
48 rows in set (0.66 sec)
// 创建tag2的标签表
create Table `tag_tbl_2` (
  `tag2` string,
  `rb` roaringbitmap,
  `user_group` int) 
engine = 'oss'
TABLE_PROPERTIES = '{
"endpoint":"oss-cn-zhangjiakou.aliyuncs.com",
"accessid":"******",
"accesskey":"*************",
"url":"oss://your oss bucket/roaringbitmap/tag_tbl_2/",
"format":"parquet"
}'
// 写入tag2标签表
insert overwrite tag_tbl_2 select tag2, rb_build_agg(offset), user_group from users group by tag2, user_group
// 检查tag2标签表写入的数据
select tag2, user_group, rb_cardinality(rb) from tag_tbl_2;
mysql> select tag2, user_group, rb_cardinality(rb) from tag_tbl_2;
+------+------------+--------------------+
| tag2 | user_group | rb_cardinality(rb) |
+------+------------+--------------------+
| b    |         11 |            3121361 |
| a    |          6 |            3124750 |
| a    |          1 |            3125433 |
....
| b    |          2 |            3126523 |
| b    |         12 |            3123452 |
| a    |          4 |            3126111 |
| a    |         13 |            3123316 |
| a    |          2 |            3123477 |
+------+------------+--------------------+
32 rows in set (0.44 sec)


步骤二 使用bitmap标签表计算分析

场景1 圈人分析

过滤筛选分析:分析tag1 in (x, y) 的用户,在tag2维度的柱状图

// 为了方便理解,先求满足条件的用户是哪儿些
select tag2, t1.user_group as user_group, rb_cardinality(rb_and(t2.rb, rb1)) as rb from tag_tbl_2 as t2
join (
select user_group, rb as rb1 from tag_tbl_1 where tag1 in ('x', 'y'))
as t1
on t1.user_group = t2.user_group
// 求满足条件柱状图
select tag2, sum(cnt) from ( 
select tag2, t1.user_group as user_group, rb_cardinality(rb_and(t2.rb, rb1)) as cnt from tag_tbl_2 as t2
join (
select user_group, rb as rb1 from tag_tbl_1 where tag1 in ('x', 'y'))
as t1
on t1.user_group = t2.user_group
) group by tag2
+------+----------+
| tag2 | sum(cnt) |
+------+----------+
| a    | 33327868 |
| b    | 33335220 |
+------+----------+
2 rows in set (0.67 sec)

这个场景使用传统解法的等效实现如下(注:这里模拟真实场景中“大表JOIN”使用子查询的方式查了同一张表的数据):


select
  tag2,
  count(distinct A.uid)
from
  (
    select
      uid
    from
      users
    where
      tag1 in ('x', 'y')
  ) as A
  inner join (
    select
      uid,
      tag2
    from
      users
  ) as B on A.uid = B.uid
group by
  tag2;
+------+-----------------------+
| tag2 | count(distinct A.uid) |
+------+-----------------------+
| b    |              33335220 |
| a    |              33327868 |
+------+-----------------------+
2 rows in set (2.79 sec)

从执行耗时可以看到,使用bitmap的方案性能是使用传统方案的4倍以上,而roaringbitmap的方案中我们使用的存储是oss是成本更低的方案。


场景2 交并差计算

bitmap表交并差:求同时满足条件 tag1 = 'x' or tag2 = 'y' 和 tag2 = ‘b’的用户

select user_group , rb_cardinality(rb) from (
    select
      t1.user_group as user_group,
      rb_and(rb1, rb2) as rb
    from
      (
        select
          user_group,
          rb_or_agg(rb) as rb1
        from
          tag_tbl_1
        where
          tag1 = 'x'
          or tag1 = 'y'
        group by
          user_group
      ) as t1
      join (
        select
          user_group,
          rb_or_agg(rb) as rb2
        from
          tag_tbl_2
        where
          tag2 = 'b'
        group by
          user_group
      ) as t2 on t1.user_group = t2.user_group
  group by user_group)
+------------+--------------------+
| user_group | rb_cardinality(rb) |
+------------+--------------------+
|         10 |            2083679 |
|          3 |            2082370 |
|          9 |            2082847 |
|          2 |            2086511 |
...
|          1 |            2082291 |
|          4 |            2083290 |
|         14 |            2083581 |
|         15 |            2084110 |
+------------+--------------------+
16 rows in set (0.71 sec)


场景3 交叉计算

原始标签表和bitmap标签表交叉计算,求同时满足条件 tag1 = 'x' or tag2 = 'y' 和 tag2 = ‘b’的用户,但是tag2 = ‘b‘ 这个条件的数据从users表中读取,进行交叉计算

select user_group , rb_cardinality(rb) from (
    select
      t1.user_group as user_group,
      rb_and(rb1, rb2) as rb
    from
      (
        select
          user_group,
          rb_or_agg(rb) as rb1
        from
          tag_tbl_1
        where
          tag1 = 'x'
          or tag1 = 'y'
        group by
          user_group
      ) as t1
      join (
        select
          user_group,
          rb_build_agg(offset) as rb2
        from
          users
        where
          tag2 = 'b'
        group by
          user_group
      ) as t2 on t1.user_group = t2.user_group
  group by user_group)
+------------+--------------------+
| user_group | rb_cardinality(rb) |
+------------+--------------------+
|          3 |            2082370 |
|          1 |            2082291 |
|          0 |            2082383 |
|          4 |            2083290 |
|         11 |            2081662 |
|         13 |            2085280 |
...
|         14 |            2083581 |
|         15 |            2084110 |
|          9 |            2082847 |
|          8 |            2084860 |
|          5 |            2083056 |
|          7 |            2083275 |
+------------+--------------------+
16 rows in set (0.95 sec)


场景4  圈人

将满足场景2的roaringbitmap导出到oss提供给其他系统使用

// 创建计算结果的标签表
create Table `tag_tbl_3` (
  `rb` roaringbitmap) 
engine = 'oss'
TABLE_PROPERTIES = '{
"endpoint":"oss-cn-zhangjiakou.aliyuncs.com",
"accessid":"******",
"accesskey":"*************",
"url":"oss://your oss bucket/roaringbitmap/tag_tbl_3/",
"format":"parquet"
}'
// 将计算结果导出到结果标签表
insert overwrite tag_tbl_3
    select
        rb_and(rb1, rb2) as rb,
      t1.user_group as user_group
    from
      (
        select
          user_group,
          rb_or_agg(rb) as rb1
        from
          tag_tbl_1
        where
          tag1 = 'x'
          or tag1 = 'y'
        group by
          user_group
      ) as t1
      join (
        select
          user_group,
          rb_or_agg(rb) as rb2
        from
          tag_tbl_2
        where
          tag2 = 'b'
        group by
          user_group
      ) as t2 on t1.user_group = t2.user_group
// 执行结束之后文件会以parquet格式存放在 oss://your oss bucket/roaringbitmap/tag_tbl_3


场景5 加速查询

将 tag1的标签表 的数据导入内表加速查询效果

// 创建一个内表,需要将rb字段定义为varbinary格式
Create Table `tag_tbl_1_cstore` (
 `tag1` varchar,
 `rb` varbinary,
 `user_group` int
)
// 将tag1标签表的数据从oss导入到tag_tbl_1_cstore
insert into tag_tbl_1_cstore select tag1, rb_to_varbinary(rb), user_group from tag_tbl_1
// 检查导入的数据
mysql> select tag1, user_group, rb_cardinality(rb_or_agg(rb_build_varbinary(rb))) from tag_tbl_1_cstore group by tag1, user_group;
+------+------------+---------------------------------------------------+
| tag1 | user_group | rb_cardinality(rb_or_agg(rb_build_varbinary(rb))) |
+------+------------+---------------------------------------------------+
| y    |          3 |                                           2082919 |
| x    |          9 |                                           2083085 |
| x    |          3 |                                           2082140 |
| y    |         11 |                                           2082268 |
| z    |          4 |                                           2082451 |
...
| z    |          2 |                                           2081560 |
| y    |          6 |                                           2082194 |
| z    |          7 |                                           2082608 |
+------+------------+---------------------------------------------------+
48 rows in set (0.16 sec)


总结

 本文介绍了AnalyticDB MySQL在圈人场景的实践,AnalyticDB MySQL引入RoaringBitmap及相关计算函数来将圈人场景中“大表Join”问题转化成“小表Join”问题,减少了计算量,并且在oss外表中原生支持Roaringbitmap类型,来解决多份标签数据和人群包导出的问题。Roaringbitmap的具体使用方式可以参考官方文档:https://help.aliyun.com/document_detail/600552.html?spm=a2c4g.600977.0.i2


相关实践学习
数据库实验室挑战任务-初级任务
本场景介绍如何开通属于你的免费云数据库,在RDS-MySQL中完成对学生成绩的详情查询,执行指定类型SQL。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
2月前
|
存储 容灾 安全
在阿里云RDS(Relational Database Service)迁移前准备目标区域选择
在阿里云RDS(Relational Database Service)迁移前准备目标区域选择
25 3
|
3月前
|
SQL 关系型数据库 MySQL
在云数据仓库AnalyticDB MySQL版中,有几个参数可能影响SELECT查询的执行及其稳定性
在云数据仓库AnalyticDB MySQL版中,有几个参数可能影响SELECT查询的执行及其稳定性【1月更文挑战第16天】【1月更文挑战第80篇】
292 4
|
3月前
|
存储 关系型数据库 MySQL
在阿里云的AnalyticDB MySQL版中使用CREATE TABLE语句来创建内表
在阿里云的AnalyticDB MySQL版中使用CREATE TABLE语句来创建内表【1月更文挑战第16天】【1月更文挑战第78篇】
212 3
|
3月前
|
关系型数据库 MySQL Serverless
阿里云云原生数据库 PolarDB MySQL Serverless:卓越的性能与无与伦比的弹性
阿里云原生数据库 PolarDB MySQL Serverless 拥有卓越性能和无与伦比的弹性。通过实验体验,深入了解其基本管理和配置、智能弹性伸缩特性和全局一致性特性。实验包括主节点和只读节点的弹性压测以及全局一致性测试,旨在亲身体验 PolarDB 的强大性能。通过实验,可以更好地在实际业务场景中应用 PolarDB,并根据需求进行性能优化和调整。
682 2
|
3月前
|
Cloud Native 关系型数据库 分布式数据库
阿里云原生数据库 PolarDB MySQL:云原生时代的数据库新篇章
阿里云原生数据库 PolarDB MySQL,它是阿里云自主研发的下一代云原生关系型数据库。PolarDB具有多主多写、多活容灾、HTAP等特性,交易性能和存储容量均表现出色。此外,PolarDB MySQL Serverless具有动态弹性升降资源和全局一致性等特性,能够适应高吞吐写入和高并发业务场景。本文详细分析了PolarDB的性能、稳定性和可扩展性,以及它在成本、性能和稳定性方面的优势。PolarDB为企业提供了高效、可靠的数据库解决方案,是值得考虑的选择。
307 0
|
1月前
|
SQL Cloud Native 关系型数据库
AnalyticDB MySQL湖仓版是一个云原生数据仓库
【2月更文挑战第15天】AnalyticDB MySQL湖仓版是一个云原生数据仓库
24 2
|
3月前
|
关系型数据库 MySQL 分布式数据库
PolarDB MySQL企业版与标准版功能对比:如何选择适合您的版本?
随着数字化时代的到来,企业对于数据处理的需求越来越高,而数据库作为数据处理的核心,其性能和成本成为了企业关注的焦点。阿里云全新推出的PolarDB MySQL企业版和标准版,以全新的架构和优化,为企业提供了高性能、低成本的数据库解决方案。但在功能上,这两个版本有很多差异,我们该如何选择呢?
59 2
|
3月前
|
Cloud Native 关系型数据库 MySQL
AnalyticDB MySQL文章汇总
AnalyticDB MySQL文章汇总
35 0
|
3月前
|
人工智能 关系型数据库 MySQL
一键实现穿衣自由|揭秘淘宝AI试衣间硬核技术:AnalyticDB MySQL向量在线召回
在AI试衣间功能的背后,阿里云瑶池旗下的云原生数据仓库AnalyticDB MySQL提供了高维向量低延时的在线向量召回检索服务,下面将进行介绍。
|
3月前
|
分布式计算 DataWorks 关系型数据库
在云数据仓库AnalyticDB MySQL版中,LIMIT的大小是由系统参数max_limit控制的
【1月更文挑战第7天】【1月更文挑战第31篇】在云数据仓库AnalyticDB MySQL版中,LIMIT的大小是由系统参数max_limit控制的
30 1

相关产品

  • 云原生数据仓库AnalyticDB MySQL版