PolarDB for MySQL优化器查询变换系列 - join条件下推

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 本篇是PolarDB 优化器查询变换系列的第四篇,之前的文章请见:窗口函数解相关:https://ata.alibaba-inc.com/articles/194578IN-list变换:https://ata.alibaba-inc.com/articles/254779Join消除:https://ata.alibaba-inc.com/articles/252403引言在数据库的查询优化特性

引言

在数据库的查询优化特性中,基于关系代数的等价变换一直是一个比较有挑战但又收益较高的方向,也就是我们常说的查询变换。很多变换可以在严格验证不存在性能回退的情况下做到启发式的应用(无脑变换),从而对性能产生巨大提升,一般是1~2个数量级。如上文章列举的join消除,就是这么一个启发式应用的例子。

而利用MySQL8.0的窗口函数对相关子查询做展开,在满足特定前提条件下,也可以实现无回退的性能收益,具体可以详见上面第1篇文章。基于window function的解相关让PolarDB TPC-H Q2/Q17的性能提升了很多倍。

但这里其实还有更优的解法:


之前SQL团队资深的优化器架构师Oystein在对Q17的分析中,提到了一种基于Lateral derived table的变换方案,可以做到更稳定的性能表现和更高的加速比:

SELECT SUM(l_extendedprice) / 7.0 AS avg_yearly
FROM lineitem
	JOIN part ON p_partkey = l_partkey
WHERE p_brand = 'Brand#34'
	AND p_container = 'MED BOX'
	AND l_quantity < (
		SELECT 0.2 * AVG(l_quantity)
		FROM lineitem
		WHERE l_partkey = p_partkey
	);

上图中Q17big是修改了外层查询中对于part表的选择率,而Table push-down是一个类似窗口函数的方案。可以看到这里LATERAL的性能在两种情况下都是最优的,那么这个LATERAL的变换是什么样的呢?

SELECT SUM(l_extendedprice) / 7.0 AS avg_yearly
FROM lineitem
	JOIN part ON p_partkey = l_partkey
	JOIN LATERAL((
		SELECT 0.2 * AVG(l_quantity)
		FROM lineitem
		WHERE l_partkey = p_partkey
	))  AS ldt (avg_qty)
WHERE p_brand = 'Brand#34'
	AND p_container = 'MED BOX'
	AND l_quantity < avg_qty;

这里产生了一个JOIN LATERAL,和一个带有相关性的derived table ldt,对应的执行计划:


可能从原始的Q17一下跳转到这样一个计划有些不好理解,我们分步来看下:


  • 基于原始的相关子查询,第一步是转换为一个带有group by条件的derived table: pq(avg_qty, pk),再与外层的part表/lineitem表做join,由于相关条件作为group by列,因此对外层的每一行数据,derived table只会有对应分组的数据参与join和过滤计算,保证了和原来相关子查询结果的一致性。但这里有一个问题:

  pq这张derived table,需要对lineitem表做全表扫描,然后完成聚集计算并一次性物化

考虑到lineitem是TPC-H中最大数据量的表,这种解相关的方式不一定会保证性能可以更优,这个变换PolarDB已经实现,但默认并不是开启的。

  • 第二步将pq.pk = l_partkey这个join条件,进一步下推到pq这个derived table中,就变成了前面给出的lateral derived table的形式,相当于在左侧变换的基础上,下推了join条件,这产生了3方面的变化:

  1. 内层增加了过滤条件 l_partkey=p_partkey,可能可以使用索引,过滤掉lineitem的大量数据

  2. 由于下推条件覆盖group by的所有字段,每次对外层一行数据,内层总是针对特定分组的数据做计算,group by已经不再需要,可以消除

  3. ldt表是要反复物化的,但如果它所依赖的part表数据量相对很少,则即使反复物化也比一次全量物化的成本更低

基于上面这3方面的因素,这种变换带来了很大的性能提升,比window function的变换要更大,但也能看到,这里有很多不确定的因素,也就是说这并不是一个启发式的无脑变换,需要基于代价决定。

由于实现的复杂度也较高,一开始并不在短期的研发计划中。但后来在线上的客户中遇到了实际的问题:

SELECT *
FROM (
	SELECT *
	FROM db_order.tb_order
	WHERE create_date >= DATE_SUB(CAST('xxxx' AS datetime), INTERVAL 5 MINUTE)
		AND product_type IN (?, ?)
) o
	LEFT JOIN (
        ...
	) od
	ON o.order_id = od.order_id
	LEFT JOIN (
		SELECT t.*, row_number() OVER (PARTITION BY detail_id ORDER BY update_date DESC) AS rn
		FROM db_order.tb_order_sku t
		WHERE update_date >= DATE_SUB('xxxx', INTERVAL 50 MINUTE)
			AND coalesce(product_type, 'xx') <> '?'
	) os
	ON od.id = os.detail_id
...

查询做了大量简化和模糊,但总体问题就是,对于os这个derived table,由于内层表tb_order_sku的数据量很大而且没有合适的索引,需要做大量的聚集计算和物化大量数据,通过反复尝试优化,给出了这样的手动改写:

SELECT *
FROM (
...
) o
LEFT JOIN (
...
) od
ON o.order_id = od.order_id
LEFT JOIN LATERAL((
		SELECT t.*, row_number() OVER (PARTITION BY detail_id ORDER BY update_date DESC) AS rn
		FROM db_order.tb_order_sku t
		WHERE update_date >= DATE_SUB('2022-12-05 15:12:05', INTERVAL 50 MINUTE)
			AND coalesce(product_type, '0') <> '5'
			AND od.id = detail_id
)) os;

可以看到将join条件下推了进去,变成了lateral join,性能从60s+提升到0.5s

正是由于线上客户的实际需求,推动我们实现了这个基于代价的join条件下推变换。

Join Predicate Pushdown

最早看到这个优化功能,是在Oracle著名的CBQT paper中,关于这篇文章的解读知乎有很多,笔者也写过一篇:


里面的一个章节介绍了这个优化: Join Predicate PushDown(JPPD),虽然篇幅不多,但还是非常准确的切中了变换的核心:

适用条件

在查询中存在derived table和外层表的join,并且采用了nested loop join的方式,此外在join列在derived table的内层,有适当的索引可以使用来加速对内层表的物化计算,并且有准确的统计信息支撑,确保下推后可以在内层过滤大量的数据。

为什么需要是nested loop join,因为对外层的每一行数据,都需要能触发内层表的重新物化,这个过程发生在外层读取每一行数据时,但如果是hash join,不仅要反复物化还要反复构建hash table,从iterator的迭代模型上触发模式也不合理(破坏了一侧先build,另一侧再probe的流程)。

收益条件

在满足适用条件的前提下,我们记外层表的数据量为N,内层的原数据量是M,内层基于join条件下推后的数据量是m,那大致的计算公式如下:

下推前:

N * Lookup_cost(M) + Mat_cost(M)

下推后:

N * (Lookup_cost(m) + Mat_cost(m))

下推前 > 下推后,即可保证可以产生更优的执行计划。

实现方案

很明显,这是一个需要基于代价决策的变换。虽然实现有些复杂,但思路还是比较朴素的:

  1. 在先进行的derived table内层优化的过程中:

  2. 完成内层derived table的join ordering优化,获取非下推情况下的全量物化代价

  3. 判断是否适合做JPPD,如果适合则打上标记,并收集这种潜在的candidate

  4. 返回到外层优化过程中,基于与该candidate derived table的join条件,构建相关的优化结构,并传递到derived table的内层,构建内部针对下推join条件的相关优化结构

  5. 外层开始join ordering枚举时,对于潜在下推的derived table,保留其原有的join plan,基于新构建的下推条件优化结构,重新做join ordering优化,看是否可以选中下推条件所对应的索引,如果选中说明内层产生了适合的候选计划,没有选中则恢复原有的join plan

  6. 如果选中,调整derived table在外层的输出行数 + 物化代价,继续参与到外层的枚举过程中

  7. 最终外层选中的最优join计划中,如果对于derived table就是选择了下推后的新plan,说明新的优化策略基于代价被选中

  8. 在外层构建物理执行结构时,也将条件推入derived table内层并构建相关执行结构,建立依赖关系,消除不必要的group by条件等

用流程图描述和一个例子可能更清晰些:


可以看到,这里会在外层做join ordering的过程中,反复枚举内层可能的新join plan,如果内层查询比较大这个开销也是不可接受的,因此对内层计划也需要一个caching机制,在于外层可能的关联表和关联索引的情况下,最优计划被保留下来,后续如果还是同样的依赖关系,虽然所处的外层join顺序变化了(枚举过程中),内层计划还是可以复用的。

同时如果内层的group by列,完全可以被下推的join条件所覆盖,那就可以保证对外层每一行,内层选中的数据都是同一个分组的数据,group by就可以消除掉了,避免不必要的分组计算(但前提要有聚集函数,否则group by带来的去重效果就没有了,导致不正确的结果)

实际效果

我们仍以TPC-H Q17来看,使用10s的数据量串行执行,原始查询

EXPLAIN
SELECT SUM(l_extendedprice) / 7.0 AS avg_yearly
FROM lineitem
	JOIN part ON p_partkey = l_partkey
WHERE p_brand = 'Brand#34'
	AND p_container = 'MED BOX'
	AND l_quantity < (
		SELECT 0.2 * AVG(l_quantity)
		FROM lineitem
		WHERE l_partkey = p_partkey
	);

执行计划是:

| -> Aggregate: sum(lineitem.L_EXTENDEDPRICE)
    -> Nested loop inner join  (cost=779599.70 rows=511050)
        -> Filter: ((part.P_CONTAINER = 'MED BOX') and (part.P_BRAND = 'Brand#34'))  (cost=217445.20 rows=19743)
            -> Table scan on part  (cost=217445.20 rows=1974262)
        -> Filter: (lineitem.L_QUANTITY < (select #2))  (cost=25.89 rows=26)
            -> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY)  (cost=25.89 rows=26)
            -> Select #2 (subquery in condition; dependent)
                -> Aggregate: avg(lineitem.L_QUANTITY)
                    -> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY)  (cost=28.47 rows=26)

可以看到,针对外层lineitem的每行数据,内层都要执行一遍,虽然使用了LINEITEM_FK2这个索引,但执行方式是固化的。

执行时间 3.49s

如果单独开启针对标量子查询转为derived table的变化,计划为

| -> Aggregate: sum(lineitem.L_EXTENDEDPRICE)
    -> Nested loop inner join
        -> Nested loop inner join  (cost=722658.72 rows=511050)
            -> Filter: ((part.P_CONTAINER = 'MED BOX') and (part.P_BRAND = 'Brand#34'))  (cost=202430.95 rows=19743)
                -> Table scan on part  (cost=202430.95 rows=1974262)
            -> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY)  (cost=23.76 rows=26)
        -> Filter: (lineitem.L_QUANTITY < derived_1_2.Name_exp_1)
            -> Index lookup on derived_1_2 using  (Name_exp_2=part.P_PARTKEY)
                -> Materialize
                    -> Group aggregate: avg(lineitem.L_QUANTITY)
                        -> Index scan on lineitem using LINEITEM_FK2  (cost=5896444.53 rows=54300917)

可以看到,子查询做了全量物化后,与外层查询进行join,join顺序是part -> lineitem -> dt

执行时间太长中间就kill了。

但如果加入JPPD的优化,就可以生成如文章开头所产生的最优计划:

| -> Aggregate: sum(lineitem.L_EXTENDEDPRICE)
    -> Nested loop inner join
        -> Nested loop inner join
            -> Invalidate materialized tables (row from part)  (cost=202430.95 rows=19743)
                -> Filter: ((part.P_CONTAINER = 'MED BOX') and (part.P_BRAND = 'Brand#34'))  (cost=202430.95 rows=19743)
                    -> Table scan on part  (cost=202430.95 rows=1974262)
            -> Index lookup on derived_1_2 using  (Name_exp_2=part.P_PARTKEY)
                -> Materialize (invalidate on row from part)
                    -> Group aggregate: avg(lineitem.L_QUANTITY)
                        -> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY)  (cost=9.06 rows=26)
        -> Filter: (lineitem.L_QUANTITY < derived_1_2.Name_exp_1)  (cost=6.47 rows=9)
            -> Index lookup on lineitem using LINEITEM_FK2 (L_PARTKEY=part.P_PARTKEY)  (cost=6.47 rows=26)

可以看到L_PARTKEY=part.P_PARTKEY这个外层join条件被下推了,和part表先做lateral join,最后与lineitem join,与预期一致。

执行时间 1.05s

而线上客户的案例更是从60+s ,缩减到了0.5s,可以说效果非常明显。

总结

针对上面给出的TPC-H Q17,大家可能有一个疑问,既然这个转换并不一定是更优的,虽然结合JPPD可以产生最优计划,但却无法默认把它打开,这不是矛盾么?确实如此,这也是我们在做的另外一个更为重要的工作:Cost-based query transformation所要解决的问题。

CBQT的核心是要建立一个枚举框架,在这个框架中,各种变换规则可以不用固化的加入到codebase中,而是基于基于代价决定每个变换是否完成,并考虑变换之间的关联性,使某些变换可以相互应用、反复应用,同时在过程中最小化重复优化所带来的额外开销(统计信息的重新估计、query block的重新优化等),在时间+空间与计划最优性之间取得一个合理的tradeoff。

最后不得不感叹一下,优化器的开发工作是一个持续积累的过程,虽然各个特性看起来是case by case,但逐渐积累就会最终产生质变。而我们能做的就是在客户需求的导向下,针对每一个功能特性深入挖掘,尽可能适用更多的场景,产生尽量优的效果。







相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
10天前
|
缓存 关系型数据库 MySQL
MySQL索引策略与查询性能调优实战
在实际应用中,需要根据具体的业务需求和查询模式,综合运用索引策略和查询性能调优方法,不断地测试和优化,以提高MySQL数据库的查询性能。
|
17天前
|
SQL 前端开发 关系型数据库
SpringBoot使用mysql查询昨天、今天、过去一周、过去半年、过去一年数据
SpringBoot使用mysql查询昨天、今天、过去一周、过去半年、过去一年数据
46 9
|
19天前
|
缓存 监控 关系型数据库
如何优化MySQL查询速度?
如何优化MySQL查询速度?【10月更文挑战第31天】
45 3
|
24天前
|
SQL NoSQL 关系型数据库
2024Mysql And Redis基础与进阶操作系列(5)作者——LJS[含MySQL DQL基本查询:select;简单、排序、分组、聚合、分组、分页等详解步骤及常见报错问题所对应的解决方法]
MySQL DQL基本查询:select;简单、排序、分组、聚合、分组、分页、INSERT INTO SELECT / FROM查询结合精例等详解步骤及常见报错问题所对应的解决方法
|
23天前
|
监控 关系型数据库 MySQL
数据库优化:MySQL索引策略与查询性能调优实战
【10月更文挑战第27天】本文深入探讨了MySQL的索引策略和查询性能调优技巧。通过介绍B-Tree索引、哈希索引和全文索引等不同类型,以及如何创建和维护索引,结合实战案例分析查询执行计划,帮助读者掌握提升查询性能的方法。定期优化索引和调整查询语句是提高数据库性能的关键。
117 1
|
26天前
|
SQL 关系型数据库 MySQL
定时任务频繁插入数据导致锁表问题 -> 查询mysql进程
定时任务频繁插入数据导致锁表问题 -> 查询mysql进程
44 1
|
24天前
|
监控 关系型数据库 MySQL
数据库优化:MySQL索引策略与查询性能调优实战
【10月更文挑战第26天】数据库作为现代应用系统的核心组件,其性能优化至关重要。本文主要探讨MySQL的索引策略与查询性能调优。通过合理创建索引(如B-Tree、复合索引)和优化查询语句(如使用EXPLAIN、优化分页查询),可以显著提升数据库的响应速度和稳定性。实践中还需定期审查慢查询日志,持续优化性能。
53 0
|
6月前
|
达摩院 开发者 容器
「达摩院MindOpt」优化形状切割问题(MILP)
在制造业,高效地利用材料不仅是节约成本的重要环节,也是可持续发展的关键因素。无论是在金属加工、家具制造还是纺织品生产中,原材料的有效利用都直接影响了整体效率和环境影响。
「达摩院MindOpt」优化形状切割问题(MILP)
|
6月前
|
人工智能 自然语言处理 达摩院
MindOpt 云上建模求解平台:多求解器协同优化
数学规划是一种数学优化方法,主要是寻找变量的取值在特定的约束情况下,使我们的决策目标得到一个最大或者最小值的决策。
|
1月前
|
机器学习/深度学习 算法 数据可视化
如果你的PyTorch优化器效果欠佳,试试这4种深度学习中的高级优化技术吧
在深度学习领域,优化器的选择对模型性能至关重要。尽管PyTorch中的标准优化器如SGD、Adam和AdamW被广泛应用,但在某些复杂优化问题中,这些方法未必是最优选择。本文介绍了四种高级优化技术:序列最小二乘规划(SLSQP)、粒子群优化(PSO)、协方差矩阵自适应进化策略(CMA-ES)和模拟退火(SA)。这些方法具备无梯度优化、仅需前向传播及全局优化能力等优点,尤其适合非可微操作和参数数量较少的情况。通过实验对比发现,对于特定问题,非传统优化方法可能比标准梯度下降算法表现更好。文章详细描述了这些优化技术的实现过程及结果分析,并提出了未来的研究方向。
28 1
下一篇
无影云桌面