物化视图在 SparkSQL 中的实践

本文涉及的产品
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 物化视图作为一种预计算的优化方式,广泛应用于传统数据库中,如Oracle,MSSQL Server等。随着大数据技术的普及,各类数仓及查询引擎在业务中扮演着越来越重要的数据分析角色,而物化视图作为数据查询的加速器,将极大增强用户在数据分析工作中的使用体验。本文将基于 SparkSQL(2.4.4) + Hive (2.3.6), 介绍物化视图在SparkSQL中的实现及应用。

本文转载自公众号: 数据湖技术
作者:马骏杰


什么是物化视图

物化视图主要用于预先计算并保存表连接或聚合等耗时较多的操作的结果,这样,在执行查询时,就可以避免进行这些耗时的操作,从而快速的得到结果。物化视图使用查询重写(query rewrite)机制,不需要修改原有的查询语句,引擎自动选择合适的物化视图进行查询重写,完全对应用透明。它和视图的区别在于,物化视图将存储实际的数据,而视图只是存储SQL语句。使用物化视图的基本流程为:

  1. 创建物化视图
  2. Query查询
  3. 基于物化视图,对Query进行查询重写,生成新的Query
  4. 基于新的Query进行查询

如下图,user,item,ui是3张表,先创建物化视图mv,使用Query查询时,将基于mv对Query进行重写,生成新的基于物化视图的Query,再进行查询。这个例子中可以看到,在最终生成的Query里,消除了所有的join操作,将3表join查询转换成了单表查询。对于大数据查询引擎来说,大表join将会产生shuffle过程,是造成查询缓慢的瓶颈之一,这种转换将极大的提升查询效率。

image.png

物化视图现状及实践目标
传统数据库,如Oracle,MSSQL Server等都已经支持物化视图,但是在大数据领域里,支持这类预计算优化的有Hive,Kylin,ClickHouse,其中只有Hive是基于物化视图,而Kylin由于并非将数据存储在原有数仓中,而是存储在自定义的介质中(HBase,Parquet等),所以和物化视图还是有很大的差别。基于使用方式,ClickHouse在使用时需要输入物化视图的表名,不能做到查询时对用户透明。

SparkSQL目前有哪些预计算相关的优化呢?

已有实现:
  • Cache Table
  • Reuse Exchange (该优化重用同一个Query中相同的表扫描操作)
各大公司的自有实现:
  • Relational cache (阿里巴巴)
  • eBay, 字节跳动等内部数据平台,在各种场合的分享中,也提到了对SparkSQL进行了物化视图的优化
Spark社区的相关JIRA(未实现):
  • SPARK-29038: SPIP: Support Spark Materialized View
  • SPARK-26764: [SPIP] Spark Relational Cache
  • SPARK-29059: [SPIP] Support for Hive Materialized Views in Spark SQL

基于目前现状,我们希望能将物化视图的优化功能加入到SparkSQL中,并使用Hive对相关元数据进行管理。从实现角度看,Hive的实现是基于Calcite,将Hive的plan转换成Calcite的结构,使用Calcite的AbstractMaterializedViewRule进行优化后,再转换回Hive的plan,最终提交给计算引擎进行计算。我们目标是借鉴Calcite的实现方式(基于参考文献【1】),将物化视图的优化整合进Spark Catalyst框架。不引入Calcite的优势是,避免核心功能强依赖于第三方库,便于后续改动及功能增强。

物化视图设计详解

物化视图的功能将拆分为2部分,分别是SparkSQL + Hive整合,Plan Rewrite,其中Plan Rewrite是作为整个功能的核心模块,接下来将分别对这2部分进行描述。

SparkSQL + Hive 整合

为什么选择Hive2.3

因为Hive是在2.3将物化视图功能引入(官网里显示是 3.0.0版本才被引入),虽然这个版本对于物化视图支持还不够完善,但是我们所需要的相关元数据管理已经具备。目前SparkSQL对于Hive的支持只实现到Hive2.3(参考HiveClientImpl),当然,内部Hive3.0还未开始大规模使用也是原因之一。这里需要注意的是,2.3和3.0版本最主要的区别是存储Materialized View的字段不同,在2.3中是存储在View Original Text,而在3.0是存储在View Expanded Text。

基于Hive的物化视图DDL命令,在SparkSQL中新增DDL命令,用来管理物化视图,新增命令如下:

  • create materialized view
  • drop materialized view
  • alter materialized view enable/disable rewrite
  • alter materialized view rebuild

由于物化视图本质是一种类型的表,所以desc命令同样适用,无需新增。

在Spark中,HiveShim中并未实现新的物化视图的元数据接口,需要进行实现,实现后的整合如下图:

image.png

来看一个实际的例子,使用如下Query创建物化视图后,

create materialized view mv_q1

STORED AS ORC

AS

SELECT

  d_year
,

  sr_customer_sk AS ctr_customer_sk
,

  sr_store_sk AS ctr_store_sk
,

  sum
(
sr_return_amt
)
 AS ctr_total_return

FROM tpcds_bin_partitioned_orc_2
.
store_returns
,

     tpcds_bin_partitioned_orc_2
.
date_dim

WHERE sr_returned_date_sk 
=
 d_date_sk

GROUP BY d_year
,
 sr_customer_sk
,
 sr_store_sk

使用desc命令展示物化视图的元数据,结果如下图:

image.png

需要关注的是,Table Type和View Original Text,和普通表相比存储了物化视图相关的信息。在整合完成后,SparkSQL和Hive对于物化视图的操作就完全打通,创建等操作互相可见。

Plan Rewrite 设计

设计概览

image.png

上图展示了Plan Rewrite功能实现涉及的基本流程,其中,Materialized Optimizer作为单独节点接入到整个SparkSQL流程中,为什么不和其它优化规则一起并入Optimizer?最主要的原因是,单独列出来可以使用explain命令对优化后的LogicalPlan进行检查。物化视图的优化涉及到大量的代码,这样做对于后续的debug也是很有帮助。再回到基本流程,图的下半部分是关于物化视图优化的具体步骤,而SessionCatalog那条路径则是用来从Hive侧获取物化视图的Query。

优化步骤简介

关于优化步骤,简单来说就是提取实际Query和物化视图的相关信息,进行信息相互的匹配,匹配成功后生成新的Query,再将新的Query转换成LogicalPlan并返回,如下图所示:

image.png

由于涉及的细节比较多,上图并未全部展开,对于图中列出的信息,其中:

  • table: (x, t1), (t1, t1), (t2, t2):对于每个表,记录(表名,表名)的键值对,如果有别名,则增加(别名,表名)键值对
  • output: (t2.id, t2.id), (c, count(1)):对于每个输出列,保存信息方式如表名
  • equalPreds: (t1.id, (t2.id)), (t2.id,(t1.id)):(col1,(col2,col3))说明col1,col2,col3是相等的列
  • otherPreds: (x.id > 10):除了列相等以外的查询条件
  • groupby: t1.id:groupBy字段

本文由于不会涉及到实现的细节,所以上述的数据结构仅用来让大家了解在实现过程所用到的部分辅助数据结构。在获取到相关信息后,将进行匹配及替换过程,最终生成新的Query并返回LogicalPlan。

优化过程中的问题

基于参考文献【1】,物化视图在优化过程中需要考虑到一系列问题,接下来将例举其中的部分:

列相等问题

查询:

select qed.deptno as ed
from db2.depts qdd join db1.emps qed
wher qed.deptno = qdd.deptno 
group by qed.deptno

物化视图:

select dd.deptno as md

from db2.depts dd join db1.emps de

where de.deptno = dd.deptno

group by dd.deptno

优化结果:

select mv_db.testmv.`md` AS `ed`

from mv_db.testmv

在上面例子中,查询的输出是db1.emps.deptno,物化视图的输出是db2.depts.deptno,但是由于都存在列相等条件db1.emps.deptno = db2.depts.deptno,所以这类场景是可以被优化的。

条件匹配问题

查询:

select deptno

from db1.emps

where(deptno >=0 and deptno <10)

   or(deptno >10and deptno <=20)

   or(deptno >=1and deptno <9)

物化视图:

select deptno from db1.emps

where(deptno >=0
 
and deptno <10)
   or(deptno >10
 
and deptno <=20)

优化结果:

selec mv_db.testmv.`deptno` AS `deptno`

from mv_db.testmv

where(((mv_db.testmv.`deptno`>=0 AND mv_db.testmv.`deptno`<10)
 OR (mv_db.testmv.`deptno`>10 AND mv_db.testmv.`deptno`<=20))

   OR (mv_db.testmv.`deptno`>=1) AND (mv_db.testmv.`deptno`<9))

条件匹配问题的核心其实是物化视图包含的数据是否包含所有查询所需的数据,如果没有,则优化失败。

表达式匹配问题

查询:

select empid +1 as empAdd1, empid as newEmpId
from db1.emps
where deptno =10

物化视图:

select empid 
from db1.emps 
where deptno =10

优化结果:

select(mv_db.testmv.`empid`+1) AS `empAdd1`,     mv_db.testmv.`empid` AS `newEmpId`
from mv_db.
testmv

条件匹配问题用来判断查询所需要的表达式,是否可以通过物化视图的输出列进行计算,查询的表达式不仅包含输出列,还有where语句中存在的表达式。

多表查询问题

我们将通过2个例子来了解下这个问题:查询:

select depts.deptno
from db1.emps join db2.depts on emps.deptno 
= depts.deptno

物化视图:

select deptno from db1.emps

优化结果:

select db2.depts.`deptno` AS `deptno`
from db2.depts, mv_db.testmv
where(mv_db.testmv.`deptno`= db2.depts.`deptno`
)

上述例子中,查询的表的数量大于物化视图,在优化后需要额外join不在物化视图中的表。

查询:

select depts.deptno
from db2.depts, db2.dependents, db2.locations
where depts.name = dependents.name
and locations.name = dependents.
name

物化视图:

select depts.deptno
from db2.depts, db2.dependents, db2.locations
, db1.emps
where depts.name = dependents.name  
and locations.name = dependents.name  
and emps.deptno = depts.deptno

优化结果:?

在这个例子中,查询的表的数量小于物化视图,这个时候能优化吗?由于SparkSQL不支持主外键模型,所以这个问题系统是无法判断的,需要用户进行判断物化视图的数据是否包含了查询所需的所有数据。我们为这种情况添加了相关参数,默认不支持,但是用户可以根据需要自行开启。

聚合函数问题

我们依然通过2个例子来了解下这个问题:

查询:

select deptno, count(*) as c1
from db1.emps
group by deptno

物化视图:

select deptno, count(*) as c
from db1.emps
group by deptno

优化结果:

select mv_db.testmv.`c` AS `c1`,mv_db.testmv.`deptno` AS `deptno`
from mv_db.testmv

这个例子中,查询和物化视图的groupBy语句里包含相同的字段,所以优化结果可以直接使用mv_db.testmv.c替换查询里的c1。

查询:

select name, count(*)as c
from db1.empsgroup
 by name

物化视图:

select deptno, name, count(*)as c
from db1.empsgroup by deptno, name

优化结果:

select sum(mv_db.testmv.`c`) AS `c`,
 mv_db.testmv.`name` AS `name`
from mv_db.testmv
group by mv_dbtestmv.`name`

这个例子中,查询和物化视图的groupBy语句里包含的字段,所以优化结果对于聚合函数需要做额外的处理。

多个物化视图匹配问题

查询:

select emps.deptnofrom db2.depts join db1.emps
where emps.deptno = depts.deptno  and emps.deptno >0
group by emps.deptno

物化视图1:

select depts.deptno from db2.depts join db1.emps
where emps.deptno = depts.deptno
group by depts.deptno

物化视图2:

select deptno
 from db1.emps

物化视图3:

select depts.deptno
from db2.depts join db1.emps
where emps.deptno = depts.deptno

物化视图4(被选中):

select depts.deptno
from db2.depts join db1.emps
where emps.deptno = depts.deptno  and emps.deptno > 0
group by depts.deptno

优化结果:

select mv_db.tmv4.`deptno` AS `deptno`
from mv_db.tmv4

这个例子展示了当多个物化视图匹配时,会选择较优的物化视图进行优化,如何判断较优目前仅比较优化结果里join和groupby的数量,相同时再比较filter的数量。由于篇幅有限,这里不再一一列出更为细节的问题了。

物化视图实战

本节将基于TPC-DS(100G),Query17,对物化视图的实战能力进行一次测试。

测试用的查询

由于物化视图和查询中同一个Table在from语句里不能出现多次,所以我们对测试用的查询做了一些调整,具体如下:

1.    调整前:
2.    SELECT
3.      i_item_id,
4.      i_item_desc,
5.      s_state,
6.      count(ss_quantity) AS store_sales_quantitycount,
7.      avg(ss_quantity) AS store_sales_quantityave,
8.      stddev_samp(ss_quantity) AS store_sales_quantitystdev,
9.      stddev_samp(ss_quantity) / avg(ss_quantity) AS store_sales_quantitycov,
10.      count(sr_return_quantity) as_store_returns_quantitycount,
11.      avg(sr_return_quantity) as_store_returns_quantityave,
12.      stddev_samp(sr_return_quantity) as_store_returns_quantitystdev,
13.      stddev_samp(sr_return_quantity) / avg(sr_return_quantity) AS store_returns_quantitycov,
14.      count(cs_quantity) AS catalog_sales_quantitycount,
15.      avg(cs_quantity) AS catalog_sales_quantityave,
16.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitystdev,
17.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitycov
18.    FROM store_sales, store_returns, catalog_sales, date_dim d1, date_dim d2, date_dim d3, store, item
19.    WHERE d1.d_quarter_name = '2001Q1'
20.      AND d1.d_date_sk = ss_sold_date_sk
21.      AND i_item_sk = ss_item_sk
22.      AND s_store_sk = ss_store_sk
23.      AND ss_customer_sk = sr_customer_sk
24.      AND ss_item_sk = sr_item_sk
25.      AND ss_ticket_number = sr_ticket_number
26.      AND sr_returned_date_sk = d2.d_date_sk
27.      AND d2.d_quarter_name IN ('2001Q1', '2001Q2', '2001Q3')
28.      AND sr_customer_sk = cs_bill_customer_sk
29.      AND sr_item_sk = cs_item_sk
30.      AND cs_sold_date_sk = d3.d_date_sk
31.      AND d3.d_quarter_name IN ('2001Q1', '2001Q2', '2001Q3')
32.    GROUP BY i_item_id, i_item_desc, s_state
33.    ORDER BY i_item_id, i_item_desc, s_state
34.    LIMIT 100
35.    调整后:
36.    SELECT
37.      i_item_id,
38.      i_item_desc,
39.      s_state,
40.      count(ss_quantity) AS store_sales_quantitycount,
41.      avg(ss_quantity) AS store_sales_quantityave,
42.      stddev_samp(ss_quantity) AS store_sales_quantitystdev,
43.      stddev_samp(ss_quantity) / avg(ss_quantity) AS store_sales_quantitycov,
44.      count(sr_return_quantity) as_store_returns_quantitycount,
45.      avg(sr_return_quantity) as_store_returns_quantityave,
46.      stddev_samp(sr_return_quantity) as_store_returns_quantitystdev,
47.      stddev_samp(sr_return_quantity) / avg(sr_return_quantity) AS store_returns_quantitycov,
48.      count(cs_quantity) AS catalog_sales_quantitycount,
49.      avg(cs_quantity) AS catalog_sales_quantityave,
50.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitystdev,
51.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitycov
52.    FROM tpcds_bin_partitioned_orc_100.store_sales,
53.       tpcds_bin_partitioned_orc_100.store_returns,
54.       tpcds_bin_partitioned_orc_100.catalog_sales,
55.       tpcds_bin_partitioned_orc_100.date_dim d1,
56.       tpcds_bin_partitioned_orc_100.store,
57.       tpcds_bin_partitioned_orc_100.item
58.    WHERE d1.d_date_sk = ss_sold_date_sk
59.    AND i_item_sk = ss_item_sk
60.    AND s_store_sk = ss_store_sk
61.    AND ss_customer_sk = sr_customer_sk
62.    AND ss_item_sk = sr_item_sk
63.    AND ss_ticket_number = sr_ticket_number
64.    AND sr_customer_sk = cs_bill_customer_sk
65.    AND sr_item_sk = cs_item_sk
66.    AND d_quarter_name = '2001Q1'
67.    GROUP BY i_item_id, i_item_desc, s_state;

测试用的物化视图

将创建2个物化视图用来测试,一个是基于Kylin风格,另一个是更灵活的风格。



1.    物化视图1:
2.    create materialized view mv_db.mv_100_t17 AS SELECT
3.      i_item_id,
4.      i_item_desc,
5.      s_state,
6.      d_quarter_name,
7.      count(ss_quantity) AS store_sales_quantitycount,
8.      avg(ss_quantity) AS store_sales_quantityave,
9.      stddev_samp(ss_quantity) AS store_sales_quantitystdev,
10.      stddev_samp(ss_quantity) / avg(ss_quantity) AS store_sales_quantitycov,
11.      count(sr_return_quantity) as_store_returns_quantitycount,
12.      avg(sr_return_quantity) as_store_returns_quantityave,
13.      stddev_samp(sr_return_quantity) as_store_returns_quantitystdev,
14.      stddev_samp(sr_return_quantity) / avg(sr_return_quantity) AS store_returns_quantitycov,
15.      count(cs_quantity) AS catalog_sales_quantitycount,
16.      avg(cs_quantity) AS catalog_sales_quantityave,
17.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitystdev,
18.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitycov
19.    FROM tpcds_bin_partitioned_orc_100.store_sales,
20.       tpcds_bin_partitioned_orc_100.store_returns,
21.       tpcds_bin_partitioned_orc_100.catalog_sales,
22.       tpcds_bin_partitioned_orc_100.date_dim d1,
23.       tpcds_bin_partitioned_orc_100.store,
24.       tpcds_bin_partitioned_orc_100.item
25.    WHERE d1.d_date_sk = ss_sold_date_sk
26.    AND i_item_sk = ss_item_sk
27.    AND s_store_sk = ss_store_sk
28.    AND ss_customer_sk = sr_customer_sk
29.    AND ss_item_sk = sr_item_sk
30.    AND ss_ticket_number = sr_ticket_number
31.    AND sr_customer_sk = cs_bill_customer_sk
32.    AND sr_item_sk = cs_item_sk
33.    GROUP BY d_quarter_name, i_item_id, i_item_desc, s_state;
34.    物化视图2:
35.    create materialized view mv_db.mv_100_t17_2
36.    STORED AS ORC
37.    AS
38.    SELECT
39.      i_item_id,
40.      i_item_desc,
41.      s_state,
42.      d_quarter_name,
43.      ss_quantity,
44.      sr_return_quantity,
45.      cs_quantity
46.    FROM tpcds_bin_partitioned_orc_100.store_sales,
47.       tpcds_bin_partitioned_orc_100.store_returns,
48.       tpcds_bin_partitioned_orc_100.catalog_sales,
49.       tpcds_bin_partitioned_orc_100.date_dim d1,
50.       tpcds_bin_partitioned_orc_100.store,
51.       tpcds_bin_partitioned_orc_100.item
52.    WHERE d1.d_date_sk = ss_sold_date_sk
53.    AND i_item_sk = ss_item_sk
54.    AND s_store_sk = ss_store_sk
55.    AND ss_customer_sk = sr_customer_sk
56.    AND ss_item_sk = sr_item_sk
57.    AND ss_ticket_number = sr_ticket_number
58.    AND sr_customer_sk = cs_bill_customer_sk
59.    AND sr_item_sk = cs_item_sk;

注意的是物化视图1里的输出列和groupby语句里增加了d_quarter_name字段,由于这个变化,所以针对物化视图1的查询将变更为:

  1.    SELECT i_item_id,
2.      i_item_desc,
3.      s_state,
4.      count(ss_quantity) AS store_sales_quantitycount,
5.      avg(ss_quantity) AS store_sales_quantityave,
6.      stddev_samp(ss_quantity) AS store_sales_quantitystdev,
7.      stddev_samp(ss_quantity) / avg(ss_quantity) AS store_sales_quantitycov,
8.      count(sr_return_quantity) as_store_returns_quantitycount,
9.      avg(sr_return_quantity) as_store_returns_quantityave,
10.      stddev_samp(sr_return_quantity) as_store_returns_quantitystdev,
11.      stddev_samp(sr_return_quantity) / avg(sr_return_quantity) AS store_returns_quantitycov,
12.      count(cs_quantity) AS catalog_sales_quantitycount,
13.      avg(cs_quantity) AS catalog_sales_quantityave,
14.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitystdev,
15.      stddev_samp(cs_quantity) / avg(cs_quantity) AS catalog_sales_quantitycov
16.    FROM tpcds_bin_partitioned_orc_100.store_sales,
17.       tpcds_bin_partitioned_orc_100.store_returns,
18.       tpcds_bin_partitioned_orc_100.catalog_sales,
19.       tpcds_bin_partitioned_orc_100.date_dim d1,
20.       tpcds_bin_partitioned_orc_100.store,
21.       tpcds_bin_partitioned_orc_100.item
22.    WHERE d1.d_date_sk = ss_sold_date_sk
23.    AND i_item_sk = ss_item_sk
24.    AND s_store_sk = ss_store_sk
25.    AND ss_customer_sk = sr_customer_sk
26.    AND ss_item_sk = sr_item_sk
27.    AND ss_ticket_number = sr_ticket_number
28.    AND sr_customer_sk = cs_bill_customer_sk
29.    AND sr_item_sk = cs_item_sk
30.    AND d_quarter_name = '2001Q1'
31.    GROUP BY d_quarter_name, i_item_id, i_item_desc, s_state;

逻辑计划比较

下图展现了3种情况下,最终的逻辑执行计划,可以看到物化视图优化后,从多表join已经变成了单表查询,而物化视图2比物化视图1多了Aggregate运算,这个是由groupBy产生。
image.png

Spark UI统计比较

下图展示了3种情况下,各自的执行job/stage,注意,测试时开启了Spark Adaptive Execution特性。
image.png

性能数据比较

下图展示了3种情况下,各自的耗时数据,其中Spark统计耗时是来自Spark UI,而这个数据向我们展示了物化视图在查询效率方面的可能性,明明计算只用了0.6s,为什么查询需要6s?在追求更快的响应时间时,这些额外的消耗是否能优化呢?比如资源调度耗时等,这个也是作为一个后续的优化方向。
image.png

物化视图 VS Kylin

物化视图属于一种基于预计算方式的查询优化,也是我们常说的空间换时间。在大数据领域,提到查询预计算,Kylin肯定会被提及,该项目在各个领域中有了很多的成功应用案例。那么物化视图和Kylin相比,区别在哪里呢?接下来将分别和Kylin的两种结构,做一些比较。比较内容仅限于离线预计算及查询,毕竟Kylin还支持适时建cube等功能。

Kylin on HBase

E85C9025-B511-49a6-BE83-A36F87932B60.png
基于上述比较,物化视图使用更为灵活,方便,也易于维护,但是Kylin在查询效率,特别是计算量不大的查询(如,没有distinct),有着巨大的优势。对于这两者的应用更多要依赖于实际使用场景,比如:

报表类的场景,维度度量都不会经常变化,前端对于延时要求又比较高,那Kylin是一种很好的选择。在上节例子中,mv_100_t17就是模拟Kylin创建物化视图,在目前的SparkSQL实现中,延迟和Kylin差距还是非常大,但是相信经过适当的优化,性能会有很大的提升。

数据探索类的场景,如果在探索的过程中经常会尝试新的数据维度,那么物化视图就能更好的满足这种灵活性的需求。可以想象下这样的状况,分别通过Kylin和物化视图,对于多张事实表和维度表进行预计算,忽然在数据分析过程中,还想增加维度信息。对于Kylin来说,重新建Cube,而物化视图则支持直接查询。当预计算成本很高时,这样的灵活性还是能给分析工作带来便捷的。在上节的例子中,mv_100_t17_2这类物化视图,就能很好的体现这种灵活性。

Kylin自带Cube管理界面,便于用户对Cube进行管理,而物化视图目前需要用户自行搭建管理平台或使用脚本方式,这个在使用时也应该加以考虑。

Kylin on Parquet

从2020/04开始,Kylin社区开始逐步推进下一代架构,Kylin on Parquet,主要的原因是为了解决HBase运维不便,单点计算等问题。在舍弃HBase后,Cube的存储将使用Parquet,而查询将使用Spark引擎。虽然该架构还在推进演变中,但相比Kylin on HBase,这个架构和SparkSQL物化视图更为接近,物化视图也能将数据以Parquet格式存储,查询引擎使用的是SparkSQL。为了保证低延时,Kylin对Spark进行了优化(比如,从yarn获取资源后,不再释放,消除资源申请耗时),而这类优化对于SparkSQL是通用的,相信物化视图也能从中获取收益。假如在延时上Kylin不能占据绝对的优势,那我认为物化视图带来的灵活性是Kylin目前做不到的,毕竟cube的数据即使存储在parquet中也不能和Hive中的数据进行交互。

总结

本文介绍了数据库常用的优化方式,物化视图,在SparkSQL这个流行的大数据查询引擎上的相关实践,包括了实现的架构,实现的简介,实战中的表现等。同时也和业界大佬Kylin进行了对比,展示了这类优化方式的适用场景。后续有计划将该优化在Spark社区进行开源,和大家一起将SparkSQL打造成更好的大数据计算引擎。

参考资料

【1】Optimizing Queries Using Materialized Views: A Practical, Scalable Solution


阿里巴巴开源大数据技术团队成立Apache Spark中国技术社区,定期推送精彩案例,技术专家直播,问答区近万人Spark技术同学在线提问答疑,只为营造纯粹的Spark氛围,欢迎钉钉扫码加入!
image.png

对开源大数据和感兴趣的同学可以加小编微信(下图二维码,备注“进群”)进入技术交流微信群。
image.png

Apache Spark技术交流社区公众号,微信扫一扫关注

image.png

相关实践学习
基于EMR Serverless StarRocks一键玩转世界杯
基于StarRocks构建极速统一OLAP平台
快速掌握阿里云 E-MapReduce
E-MapReduce 是构建于阿里云 ECS 弹性虚拟机之上,利用开源大数据生态系统,包括 Hadoop、Spark、HBase,为用户提供集群、作业、数据等管理的一站式大数据处理分析服务。 本课程主要介绍阿里云 E-MapReduce 的使用方法。
相关文章
|
6月前
|
存储 测试技术 分布式数据库
提升 Apache Hudi Upsert 性能的三个建议
提升 Apache Hudi Upsert 性能的三个建议
105 1
|
SQL BI Apache
Apache Doris 行列转换可以这样玩
Apache Doris 行列转换可以这样玩
576 0
|
6月前
|
SQL 分布式计算 大数据
Paimon 与 Spark 的集成(二):查询优化
通过一系列优化,我们将 Paimon x Spark 在 TpcDS 上的性能提高了37+%,已基本和 Parquet x Spark 持平,本文对其中的关键优化点进行了详细介绍。
118258 30
|
6月前
|
SQL 存储 Apache
Paimon 实践 | 基于 Flink SQL 和 Paimon 构建流式湖仓新方案
Paimon 实践 | 基于 Flink SQL 和 Paimon 构建流式湖仓新方案
1837 59
|
6月前
|
消息中间件 存储 Apache
Apache Paimon 表模式最佳实践
Apache Paimon 表模式最佳实践
1844 57
|
6月前
|
SQL 分布式计算 Apache
流数据湖平台Apache Paimon(六)集成Spark之DML插入数据
流数据湖平台Apache Paimon(六)集成Spark之DML插入数据
222 0
|
SQL JSON 分布式计算
Spark 操作 kudu--dataFrame , sparkSQL 操作 | 学习笔记
快速学习 Spark 操作 kudu--dataFrame , sparkSQL 操作
345 0
Spark 操作 kudu--dataFrame , sparkSQL 操作 | 学习笔记
|
SQL 存储 分布式计算
SparkSQL 读写_Hive_整合 | 学习笔记
快速学习 SparkSQL 读写_Hive_整合
164 0
SparkSQL 读写_Hive_整合 | 学习笔记
|
SQL 分布式计算 Java
KuduSpark_DDL | 学习笔记
快速学习 KuduSpark_DDL
KuduSpark_DDL | 学习笔记
|
SQL 分布式计算 Java
大数据平台的SQL查询引擎有哪些—SparkSQL
大数据平台的SQL查询引擎有哪些—SparkSQL
大数据平台的SQL查询引擎有哪些—SparkSQL