大数据-165 Apache Kylin Cube优化 案例 2 定义衍生维度及对比 & 聚合组 & RowKeys

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 大数据-165 Apache Kylin Cube优化 案例 2 定义衍生维度及对比 & 聚合组 & RowKeys

点一下关注吧!!!非常感谢!!持续更新!!!

目前已经更新到了:

Hadoop(已更完)

HDFS(已更完)

MapReduce(已更完)

Hive(已更完)

Flume(已更完)

Sqoop(已更完)

Zookeeper(已更完)

HBase(已更完)

Redis (已更完)

Kafka(已更完)

Spark(已更完)

Flink(已更完)

ClickHouse(已更完)

Kudu(已更完)

Druid(已更完)

Kylin(正在更新…)

章节内容

上节我们完成了如下的内容:


Cube 剪枝优化

检查 Cube 数量、大小

案例 1:定义衍生维度及对比(整体详细流程)

88b6605098ff30ada42f8dbe865a8f62_2d160b48d1fd4673a5b454e5e6e6ad6b.png

定义Cube7

省略Model等操作。

构建前面Cube4类似的Cube7,仅在维度定义有区别。(我这里是Clone Cube4,然后修改的)

wzk_test_kylin_cube_7的字段中,都是Normal:

生成的如下图:

构建Cube7

大小对比

查看Size的对比:

由于之前数据太多跑的太慢,我的 cube-4 是125条数据占用22KB,我的cube-7是15条占用9KB。

粗略可以估计出来,cube-7的大小要比cube-4的大小大很多(如果同数据量的话)

精度对比

wzk_kylin_test_cube_4

kylin.sh org.apache.kylin.engine.mr.common.CubeStatsReader wzk_kylin_test_cube_4
• 1

对应的信息如下:

wzk_kylin_test_cube_7

kylin.sh org.apache.kylin.engine.mr.common.CubeStatsReader wzk_kylin_test_cube_7
• 1

对应的信息如下:

聚合组

随着维度数目的增加,Cuboid的数量会爆炸式的增长,为了缓解Cube的构建压力,Apache Kylin 引入了一系列高级的设置,帮助用户筛选出真正需要的Cuboid(本质是要减少Cube构建过程中的预计算),这些高级设置包括:


聚合组(Aggregation Group)

强制维度(Mandatory Dimension)

层级维度(Hierachy Dimension)

联合维度(Joint Dimension)

d61296793847020e6cb1552fe4950e7e_f5a7d2b46a274f2fab5420e0e4e9c6be.png 默认Kylin会把所有维度放在同一个聚合组中

如果维度数较多(如维度数>15),建议用户根据查询的习惯和模式,将维度分布到多个聚合组中。通过使用多个聚合组,可以大大降低Cube中的Cuboid数量。

如一个Cube有(M+N)个维度:


这些维度放在一个聚合组中,默认有2^(M+N)个Cuboid

将这些维度分为两个不相交的聚合组,第一个组有M个维度,第二个组有N个维度。那么Cuboid的总数为(2^M + 2^N)个维度

一个维度可以出现在多个聚合组中

在单个组合组中,可以对维度设置一些高级属性,包括强制思维、层级维度、联合维度。一个维度只能出现在一个属性组中。

构建N个维度的Cube会生成的2^N个Cuboid,如下图所示,构建一个4个维度(A、B、C、D)的Cube,需要生成16个Cuboid。

c5c632d561d8fbbc163206cf9c01c8aa_56ebf241bf3c42c19153f75138bf7efd.png 根据用户关注的维度组合,可以维度划分不同的组合类,这些组合类在Kylin中被称为聚合组,如用户仅仅关注维度AB组合和维度CD组合,那么该Cube则可以被分化成两个聚合组,分别是聚合组AB和聚合组CD。生成的Cuboid数目从16个缩减为8个。

用户关心的聚合组之间可能包含相同的维度,如聚合组ABC和聚合组BCD都包含维度B和维度C,这些聚合组之间会衍生相同的Cuboid。聚合组ABC会产生Cuboid BC,聚合组BCD也会产生Cuboid BC。

这些Cuboid不会重复生成,一份Cuboid为这些聚合组所共有。

有了聚合组就可以粗粒度的对Cuboid进行筛选,获取自己想要的维度组合。Kylin的建模需要业务专家参数。


强制维度(Mandatory Dimension)

强制/必要 维度:指的是那些总会出现在Where条件或Group By语句中的维度。

通过指定某些维度为强制维度,Kylin不预计算那些不包含此维度的Cuboid,从而减少计算量。

维度A是强制维度,那么生成的Cube如下图所示,维度数从16变成9。

8858bd0815d16a7151467e10442977fb_85f2fea43a984422913f2479a43bfe09.png 层级维度(Hierachy Dimension)

层级维度:是指一组有层级关系的维度

维度中常常会出现具有层级关系的维度,例如:国家、省份、城市这三个维度,从上而下来说:国家/省份/城市之间分别是一对多的关系。假设维度A代表国家,维度B代表省份,维度C代表城市,ABC三个维度可以被设置为层级维度,生成的Cube如下图所示:

b2161316dc28b1dafbd7738513d60d0e_89dac627eb6a420e9895ba6170079ae5.png Cuboid[A,C,D] = Cuboid[A,B,C,D], Cuboid[B,D] = Cuboid[A,B,D],因而Cuboid[A,C,D] 和 Cuboid[B,D] 就不必重复存储。


联合维度(Joint Dimension)

联合维度:是将多个维度视作一个维度,在进行组合计算的时候,它们要么一起出现,要么均不出现。

通常适用于以下几种情形:


总是在一起查询的维度

彼此之间有一定映射关系,如USER_ID和EMAIL

基数很低的维度,如性别、布尔类型的属性

维度的基数:维度有多少个不同的值。

联合维度并不关心维度之间各种细节的组合方式,如用户查询语句中仅仅会出现GROUP BY A,B,C,而不会出现GROUP BY A、B或者GROUP BY C等等这细化的维度组合。这一类问题就是联合维度所解决的问题。


例如将A、B、C定义为联合维度,Apache Kylin就仅仅构建Cuboid ABC,而Cuboid AB、BC、A等等Cuboid都不会被生成,最终Cube结果如下图所示的,Cuboid数目从16减少到4:

2b5ec53c198d999fc9630a1b67713afa_8f48d21917fc4fb9bd383f0b58e6768d.png 总结内容

在单个聚合组中,可以对维度进行设置,包括强制维度、层级维度、联合维度。

强制维度:指的是那些总会出现在Where条件或者GROUP BY子句中的维度

层级维度:一组具有层级关系的维度(如:国家、省、市)

联合维度:将多个维度看成一个角度,要么一起出现,要么都不出现

RowKeys

简单的说Cuboid的维度会映射为HBase的Rowkey,Cuboid的指标会映射为HBase的Value。

1eba6182cc141b0aae70428fceeb4eca_c7986224139c43d7a6bf953dff1998a5.png 如上图原始表所示:Hive表有两个维度列year、city,有一个指标列 price。

如上图预聚合表所示:我们具体要计算的是year和city这两个维度所有维度组合(即4个cuboid)下的sum(prices)指标,这个指标的具体计算过程就由MapReduce完成的。

如上图的字典编码所示:为了节省存储资源,Kylin对维度值进行了字典编码,图中将beijing和shanghai依次编码0和1。

如上图HBase KV存储所示:在计算Cuboid过程中,会将Hive表的数据转换为HBase的KV形式。Rowkey的具体格式是 Cuboid id + 具体的维度值(最新的Rowkey中为了并发查询还加入了Shard Key),以预聚合表内容的第2行为列,其维度组合是(year,city),所以Cuboid id就是00000011,Cuboid是8位,具体维度值是1994和shanghai,所以编码后的维度值对应上图的字典编码也是11,所以HBase的Rowkey就是00000011,对应HBase Value就是sum(price)的具体值。

所有的Cuboid计算完成后,会将Cuboid转换为HBase的KeyValue格式生成HBase的HFile,最后将HFile Load进Cube对应的HBase表中。

a5905cb9286d1e02ceb370443be64723_d95e2ee1a66742f285f00d4fa3f04589.png 编码

Kyelin以Key-Value的方式将Cube存储到HBase中,HBase的Key就是Rowkey,是由各维度的值拼接而成的,为了更高效的的存储这些值,Kylin会对它们进行编码和压缩,每个维度均可以选择合适的编码方式,为了更搞笑存储这些值,Kylin会对它们进行编码和压缩,每个维度均可以选择合适的编码方式,默认采用的是字典(Dictionary)编码技术。字段支持的基本编码类型如下:


Dictionary 字典编码将所有此维度下的值构成一张映射表,从而大大节约存储空间,适用于大部分字段,默认推荐使用。Dictionary产生的编码非常紧凑,尤其在维度的值基数小且长度大的情况下,但在超高基情况下,可能引起内存不足的问题,在Kylin中字典编码允许的基数上限默认是500万(由参数kylin.dictionay.max.cardinality配置)

boolean:适用于字段为:ture、false、TURE、FALSE、t、f、T、F、yes、no、YES、NO、y、n、Y、N、1、0

date:适用于字段为日期字符,支持的格式包括yyyyMMdd、yyyy-MM-dd、yyyy-MM-dd HH:mm:ss.SSS

time:适用于字段为时间戳字符,支持范围为[1970-01-01 00:00:00],[2038-01-09 03:14:07],毫秒部分会被忽略,time编码适用于time、datetime、timestamp等类型

fix_length:使用超高基环境,将选取字段的前N个字节为编码值,当N小于字段长度,会造成字段阶段,当N较大时,造成RowKey过长,查询性能下降,只适用于varchar、nvarchar类型

fixed_length_hex:适用于字段为十六进制字符,比如1A2BFF或者FF00FF,每两个字符需要一个字节,只适用于varchar或nvarchar类型

顺序

各维度在RowKeys中的顺序,对于查询的性能会产生较明显的影响,在这里用户可以根据查询的模式和习惯,通过拖拽的方式调整各个维度在RowKeys上的顺序,推荐的顺序为:


Mandatory 维度

where 过滤条件中出现频率较多的维度

高基数维度

低基数维度放后面

不常用的维度放在后面

这样做的好处是,充分利用过滤条件来缩小在HBase中扫描的范围,从而提高查询的效率。

分片

指定ShardBy的列,明细数据将按照该列的值分片,没有指定的ShardBy的列,则默认根据所有列中的数据进行分片,选择适当的ShardBy列,可以使明细数据较为均匀的分散在多个数据片上,提高并行性,进而获得更理想的查询。

建议选择基数较大的列作为ShardBy列,以避免数据分散不均匀。


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2天前
|
SQL 分布式计算 NoSQL
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
6 1
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
|
2天前
|
消息中间件 分布式计算 大数据
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
14 5
|
2月前
|
存储 消息中间件 Java
Apache Flink 实践问题之原生TM UI日志问题如何解决
Apache Flink 实践问题之原生TM UI日志问题如何解决
41 1
|
1月前
|
SQL 消息中间件 关系型数据库
Apache Doris Flink Connector 24.0.0 版本正式发布
该版本新增了对 Flink 1.20 的支持,并支持通过 Arrow Flight SQL 高速读取 Doris 中数据。
|
2月前
|
消息中间件 监控 数据挖掘
基于RabbitMQ与Apache Flink构建实时分析系统
【8月更文第28天】本文将介绍如何利用RabbitMQ作为数据源,结合Apache Flink进行实时数据分析。我们将构建一个简单的实时分析系统,该系统能够接收来自不同来源的数据,对数据进行实时处理,并将结果输出到另一个队列或存储系统中。
128 2
|
2月前
|
消息中间件 分布式计算 Hadoop
Apache Flink 实践问题之Flume与Hadoop之间的物理墙问题如何解决
Apache Flink 实践问题之Flume与Hadoop之间的物理墙问题如何解决
39 3
|
2月前
|
消息中间件 运维 Kafka
Apache Flink 实践问题之达到网卡的最大速度如何解决
Apache Flink 实践问题之达到网卡的最大速度如何解决
39 2
|
2月前
|
消息中间件 前端开发 Kafka
【Azure 事件中心】使用Apache Flink 连接 Event Hubs 出错 Kafka error: No resolvable bootstrap urls
【Azure 事件中心】使用Apache Flink 连接 Event Hubs 出错 Kafka error: No resolvable bootstrap urls
|
27天前
|
消息中间件 资源调度 API
Apache Flink 流批融合技术介绍
本文源自阿里云高级研发工程师周云峰在Apache Asia Community OverCode 2024的分享,内容涵盖从“流批一体”到“流批融合”的演进、技术解决方案及社区进展。流批一体已在API、算子和引擎层面实现统一,但用户仍需手动配置作业模式。流批融合旨在通过动态调整优化策略,自动适应不同场景需求。文章详细介绍了如何通过量化指标(如isProcessingBacklog和isInsertOnly)实现这一目标,并展示了针对不同场景的具体优化措施。此外,还概述了社区当前进展及未来规划,包括将优化方案推向Flink社区、动态调整算子流程结构等。
326 31
Apache Flink 流批融合技术介绍
|
2天前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
14 1

推荐镜像

更多