Testing the Accuracy of Query Optimizers

本文涉及的产品
云原生数据库 PolarDB 分布式版,标准版 2核8GB
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
简介: 在前文最后,我们提到了围绕着Orca打造的测试工具集,其中一个就是本篇paper的主角: TAQO。这个测试框架目标是为了测试优化器cost model的精确性,它针对优化的本质目标,提出了一种简单灵活,且易于扩展的方案,且便于实现。目前在PolarDB的分布式优化器中,我们已经采用了这种方法去度量分布式exchange 算子(Enforcer)和复杂计算(aggregation...)的代价因子。当然,这个框架不局限于Orca,它可以在近乎黑盒的情况下对cost model进行校准,并针对不同optimizer的cost model质量进行横向评估,如果有开发或扩展优化器cost mode

上篇介绍基于Cascades的查询优化器Orca的文章:https://developer.aliyun.com/article/789901?groupCode=polardb

在前文最后,我们提到了围绕着Orca打造的测试工具集,其中一个就是本篇paper的主角: TAQO。这个测试框架目标是为了测试优化器cost model的精确性,它针对优化的本质目标,提出了一种简单灵活,且易于扩展的方案,且便于实现。目前在PolarDB的分布式优化器中,我们已经采用了这种方法去度量分布式exchange 算子(Enforcer)和复杂计算(aggregation...)的代价因子。

当然,这个框架不局限于Orca,它可以在近乎黑盒的情况下对cost model进行校准,并针对不同optimizer的cost model质量进行横向评估,如果有开发或扩展优化器cost model的需求,这会是个不错的选择。

基本思想

比如说我们想给自己开发的新优化器创建新的代价模型或扩展的现有模型增加新的cost unit,那么这个unit的值该怎么去测定呢?如果非常intuitive的去考虑,也许你会想,设计一些特定的场景,并针对目标操作所占用的资源(cpu cycles, cpu time..)进行profiling,并和某些标准值进行比较(比如认定random page IO是1),然后成比例的给出一个值,至少这是我想到的第一个方法 :)。但如果仔细考虑,这种方法存在一些问题:

  1. 测定结果和实际硬件环境有关。
  2. 由于影响因素的复杂性(比如是IO bound或CPU bound? cache miss ? CPU pipelining情况 ?)用cost value去和执行的wall clock time做对应或许并不有效。

那么换个角度来看呢?Cost based optimizer的本质能力是根据不同cost选择不同plan,因此其精确性/正确性实际上用对不同estimated cost的plan进行正确排序的能力。最为理想的优化器,应该是cost最小的,就是最优的plan,因此这个问题就变成了,根据cost做排序的问题。

image.png

因此可以利用PSA(   )的思路,在plan space中选择一定量的样本plan,评估其estimated cost的顺序和actual cost(执行时间)的顺序,是否保持一致。而选取样本plan,我们可以利用不同优化器提供的hint / optimizer_switch机制,来控制生成不同plan。

算法原理

有了以上的思路,问题就简化了:

给定一组样本集输入,也就是样本plan: { p1, p2 ... pn} ,其对应的estimated cost是 {e1, e2... en},准确执行时间是{a1, a2... an}。量化的定义一个accuracy metric的度量指标,用来对plan之间是否遵循了顺序的准确性这个标准:

image.png

用这个指标对optimizer进行打分,如果cost和actual time的顺序不一致,就增加其惩罚分数,最后惩罚分数越低,optimizer cost model质量越好,这个metric受到3方面因素的影响:

  • 样本集中的任意plan pair < pi, pj >,其基于estimated cost的顺序,与actual cost的顺序,是否一致,不一致就是ranking error
  • 每个样本plan是有不同权重的,理论上,越接近最优plan,越为重要,其如果存在ranking error,则penalty应越大。
  • 给定一个plan pair,如果其actual cost本身就很接近,则很可能发生error,这种相对可以接受,因此penalty应该越小。

最终的accuracy分数如下计算:

  • 基本的ranking error评估:

假设{ p1, p2 ... pn}已经按照实际的执行时间ai从小到大排序,也就是p1是最优plan

image.png

sgn是取符号函数,也就说,只要 j > i,但ej < ei,说明a和e的顺序排反了,就扣1分。

  • 每个plan pm,其相对权重,用actual cost的比重来表示

image.png

a1是最优plan ,pm的实际cost越小,权重越大

  • pi / pj 的距离

image.png

(an-a1)以及(maxe - mine)表示了cost和执行时间的最大跨度,那么aj与ai/ej与ej越小,说明两者距离越近,应该penalty越小。

  • 最终metric公式

综合以上3个因素,最终公式就是

image.png

这个代表了penalty,因此值越小,越精确。

TAQO框架

具体到TAQO的实现上,其框架如下

image.png

  1. Configure generator,基于输入的optimizer hints集合,生成目标数量的有效plan hints组合。
  2. Execution tracker,获取实际的plan执行时间
  3. Plan Deduplicator,可能不同hint组合产生相同的plan,因此必须有去重能力,通过一个plan parser来实现,同时这个plan parser还负责对plan estimated cost + plan body的识别+提取。parser针对不同Optimizer各有不同,需要自定义实现。
  4. Ranker,做correlation score的计算,但本身是可以扩展的,也就是可以替代上一节中的计算公式,用其他方法来度量准确性。

可以看到,这个框架是可移植+可扩展的:

1)利用JDBC可连接不同dbms,需要对应实现的就是hints组合 + plan parser

2)在ranker中替换不同计算metric的方式,可以有不同的评估标准。

Evaluation

paper的最后对4个开源/商业optimizer进行了评估,但没有透露具体都是哪些系统:

image.png

可以看到A/B/C/D 4个系统的estimate cost/实际执行时间的分布情况,越是优秀的cost model,其拟合曲线应该越具有单调性,很明显能看到,C系统最具有这种单调性,而D系统则最为糟糕。

目录
相关文章
|
数据库连接 Linux API
R-Retrieve Data (step 1)
R is a data analysis and visualization platform.
1235 0
Warning: Can save best model only with val_acc available, skipping
本文解决了在使用DenseNet网络结构保存最优模型时出现的"Warning: Can save best model only with val_acc available, skipping"问题,方法是将`ModelCheckpoint`回调函数中的`monitor`参数值从`val_acc`改为`val_accuracy`。
|
机器学习/深度学习 Go
训练集(train set) 验证集(validation set) 测试集(test set)
在有监督(supervise)的机器学习中,数据集常被分成2~3个,即:训练集(train set) 验证集(validation set) 测试集(test set)。
1176 0
|
资源调度
from sklearn.cross_validation import train_test_split发生报错
from sklearn.cross_validation import train_test_split发生报错
293 0
from sklearn.cross_validation import train_test_split发生报错
【sklearn报错解决方案】UndefinedMetricWarning: Precision is ill-defined and being set to 0.0
【sklearn报错解决方案】UndefinedMetricWarning: Precision is ill-defined and being set to 0.0
1956 0
【sklearn报错解决方案】UndefinedMetricWarning: Precision is ill-defined and being set to 0.0
|
4月前
|
自然语言处理 数据中心
Scaling LLM Test-Time Compute Optimally: 一种更有效的方法
【10月更文挑战第14天】本文探讨了大型语言模型(LLMs)在测试时通过增加计算资源来提升性能的可能性。研究发现,通过优化测试时计算的分配,特别是采用基于过程的验证器搜索和自适应更新响应分布的方法,LLM可以显著提高对复杂问题的应对能力,甚至在某些情况下超越更大规模的模型。论文提出了“计算最优”策略,旨在根据问题难度自适应调整计算资源,以最大化性能提升。未来工作将聚焦于增强测试时计算缩放、快速评估问题难度及实现自我改进循环。
202 6
|
算法框架/工具 Caffe
caffe: test code 执行出问题: Check failed: FLAGS_weights.size() > 0 (0 vs. 0) Need model weights to score.
Check failed: FLAGS_weights.size() > 0 (0 vs. 0) Need model weights to score. 出现这个错误,但是我记得昨天还好好的,网上搜了也没有答案,后来仔细检查才发现,原来存放 .caffemodel 的文件名字 中间有空格!!! 把文件夹路径上的名字去掉,果断就可以了。
|
SQL Oracle 关系型数据库