Hologres新手如何基于ChatGPT优化Hologres慢SQL

简介: Hologres新手如何基于ChatGPT优化Hologres慢SQL。

Hologress是为全集团TL提供实时OKR分析看板的数据存储及计算库,方便团队TL聚焦重点、统一目标、跟踪进展,做好目标管理及协同。


鉴于最近ChatGPT的火热应用,我们尝试着将Hologres的慢SQL通过ChatGPT调优,有一些有意思的收获,下面给大家分享一下使用教程和使用收获,也希望这个分享能帮助大家在日常工作中利用AI的能力集思广益,释放手工生产力!


工具:Hologres,ChatGPT。作者是用VSCODE安装ChatGPT插件。(开源ChatGPT也可以的)

步骤:

  1. VSCODE 安装ChatGPT中文版
  2. 将Hologres慢SQL的执行计划复制到ChatGPT

VSCODE 安装ChatGPT中文版,将执行计划复制到ChatGPT

机1.png

继续提问:如何优化

机2.png

ChatGPT还不支持自动返回优化脚本,但可以继续问,例如如何创建索引

机3.png

但如果有不清楚的专业名词可以继续提问,例如:PostgreSQL优化全表扫描和数据重新分发操作

机4.png

机5.png

机6.png

通过上面的调优建议和方案,再结合Hologres的官方调优建议,总结出的调优方案如下:

参考Hologres调优文档:

1. 基于ChatGPT的性能调优

1.1 执行计划

执行计划如下:

Limit(cost=0.00..26.95 rows=1 width=16)->  Result  (cost=0.00..26.95 rows=1 width=16)->Limit(cost=0.00..25.95 rows=1 width=24)->  Partial Aggregate  (cost=0.00..25.95 rows=1 width=24)->  Gather  (cost=0.00..25.94 rows=10 width=24)->  Partial Aggregate  (cost=0.00..25.94 rows=10 width=24)->  Result  (cost=0.00..23.19 rows=54569 width=40)->  Result  (cost=0.00..19.39 rows=54569 width=232)->  Hash Right Join(cost=0.00..18.00 rows=54569 width=224)                                                  Hash Cond:(ads_is_rd_okr_emp_pxxxi.work_no= ads_is_rd_okr_emxxxxxe_df_i.work_no)->  Partial HashAggregate  (cost=0.00..11.45 rows=27285 width=167)Group Key: ads_is_rd_okr_xxxf_i.work_no->  Redistribution  (cost=0.00..9.66 rows=27285 width=263)->  Exchange (Gather Exchange)(cost=0.00..8.96 rows=27285 width=263)->  Result  (cost=0.00..8.94 rows=27285 width=263)->  Decode  (cost=0.00..8.94 rows=27285 width=263)->  Partial HashAggregate  (cost=0.00..8.84 rows=27285 width=263)Group Key: ads_is_rd_xxxiod_df_i.work_no->  Seq Scan on ads_is_rd_okxxxx_df_i  (cost=0.00..6.08 rows=27285 width=259)                                                                                            Filter:((COALESCE(is_deleted,'1'::text)<>'Y'::text)AND(period_id = ANY ('{61e79735a,621baa21bd16,621baa7dbd16,6295ffb8,62b122830a33af,630f858094}'::text[])))->  Hash  (cost=5.02..5.02 rows=1000 width=72)->  Redistribution  (cost=0.00..5.02 rows=1000 width=72)->  Seq Scan on ads_is_rd_okr_xxx_df_i  (cost=0.00..5.01 rows=1000 width=72)                                                                    Filter:((dept_full_path ~~'%00001%'::text)AND(s_dept_no = ANY ('{00002,}'::text[])))

1.2 执行计划解读(来自ChatGPT)

  • 首先执行Seq Scan on ads_is_rdxxxt_tree_df_i,对表进行全表扫描。这个操作的代价为5.01,将结果存储在一个Hash表中。
  • 接下来执行Partial HashAggregate,对ads_is_rd_okr_emp_period_df_i表进行聚合操作,将work_no相同的记录合并在一起。这个操作的代价为8.84。
  • 然后执行Decode,对ads_is_xxxx_df_i表进行解码操作。这个操作的代价为8.94。
  • 然后执行Result操作,将ads_is_rdxxxxdf_i表的结果发送给Exchange节点。这个操作的代价为8.94。
  • 然后执行Exchange(Gather Exchange)操作,将Exchange节点的结果聚集到一个节点上。这个操作的代价为8.96。
  • 然后执行Redistribution操作,对数据进行重新分发。这个操作的代价为9.66。
  • 然后执行Partial HashAggregate,对adxxxxxd_df_i表进行聚合操作,将work_no相同的记录合并在一起。这个操作的代价为11.45。
  • 然后执行Hash Right Join操作,对ads_is_xxxe_df_i和ads_is_rdxxxxx_df_i进行哈希连接。这个操作的代价为18.00
  • 然后执行Result操作,将结果发送给Limit节点。这个操作的代价为19.39。
  • 然后执行Result操作,将结果发送给Limit节点。这个操作的代价为23.19。
  • 然后执行Partial Aggregate操作,对结果进行聚合操作。这个操作的代价为25.95。
  • 最后执行Limit操作,返回结果集中的前1条记录。这个操作的代价为26.95。

综上所述,这段执行计划的主要操作是对两个表进行聚合和连接操作,其中大量使用了哈希表和哈希连接来优化查询性能。同时,在执行计划中还出现了全表扫描和数据重新分发等操作,代价较高。需要进一步优化查询语句和数据结构,以提高查询性能和效率。


2. 优化方案(结合ChatGPT)

根据ChatGPT的解读和优化建议,再根据Hologres的调优建议,最终总结出来慢SQL的优化方案如下:

2.1 修改表存储模式和加索引

ChatGPT:在查询语句中使用到的字段上添加索引,可以减少全表扫描的操作,提高查询性能。

优化手段:将Hologres行存储表改成列存储表,并加上索引。

温馨提示:行存储表不能直接改列存储表,可以先复制一张备份表B,改成列存储,在通过rename方式,把A换成C,B换成A,这样达到删表重建效果,不影响线上)

机7.png

改列存储原因:1. 存储模式提示文案修改:Hologres支持列存、行存和行列共存3种存储模式。默认为列存,列存适合各种OLAP场景的复杂查询;行存适用于适用于基于主键(PK)的KV查询场景。行列共存则同时适用列存和行存的场景。

机8.png


先复制一张备份表B:

机9.png

改成列存储:

机10.png

通过rename方式完成删表重建功能,不影响线上

机11.png

第一个慢SQL优化后时间缩短一半:

机12.png

第二个慢SQL优化前:

机13.png

第二个慢SQL优化后:

机14.png

2.2 调整查询条件

ChatGPT:在查询语句中添加合适的查询条件,过滤掉不必要的记录,减少数据处理的代价。

优化手段:暂时还没有做这一步,因为查询性能已经达到要求了。

2.3 调整数据分布

ChatGPT:调整数据分片的方式,让相同的数据均匀地分布在不同的节点上,避免数据重新分发的操作。

优化手段:

  • 将join的key或者group by 频繁的key设置成distribution key,这样实现local join的能力,减少执行计划中的redistribution key(因为涉及的改动较多,所以这次没有改动了)
  • 将查询条件用到的字段bitmap和dictionary都设置为on。因为表的字段长度都很长,设置bitmap和dictionary会加快查询。
BEGIN;CALL UPDATE_TABLE_PROPERTY('public.ads_is_rd_okr_emp_period_df_i','dictionary_encoding_columns','"is_deleted:on","period_id:on"');CALL UPDATE_TABLE_PROPERTY('public.ads_is_rd_okr_emp_period_df_i','bitmap_columns','"is_deleted:on","period_id:on"');COMMIT;
  • 字典编码列:字典编码列,即dictionary_encoding_columns,为该列构建字典编码映射。字典编码可以将字符串的比较转成数字的比较,加速group by、filter等查询。默认所有text列设置为auto模式,系统基于字段基数自动判断是否生成字典编码,建表后可修改。
  • 位图列:位图列,即bitmap_columns,为该列构建bitmap索引。bitmap索引可以对数据进行快速的等值过滤,建议把等值查询列建成位图列。默认所有 text 列都会被隐式地设置到bitmap_columns中,建表后可修改。

调整前:

机15.png

调整后:减少5毫秒

机16.png

3. 优化后效果

根据建议优化后:从早上10点半优化后,访问人数最高到8.32,没有出现一条慢SQL,而前一天半小时内慢SQL能达到上千条。

机17.png

附上测试同学对我调优之后的压测报告:

机18.png

4. 总结

以上是我根据ChatGPT做的部分慢SQL调优,取得一些比较好的反馈。但是上述分享只是我个人的经验所得,实际调优请以Hologres官方文档为准,这次分享的核心目的是希望在释放手工生产力提升工作效率方面有更多的思路。


说明:本文为业务方基于兴趣总结的经验,仅供参考,实际SQL调优请以Hologres官网文档为准。


相关实践学习
基于Hologres+PAI+计算巢,5分钟搭建企业级AI问答知识库
本场景采用阿里云人工智能平台PAI、Hologres向量计算和计算巢,搭建企业级AI问答知识库。通过本教程的操作,5分钟即可拉起大模型(PAI)、向量计算(Hologres)与WebUI资源,可直接进行对话问答。
相关文章
|
14天前
|
SQL 分布式计算 关系型数据库
实时数仓 Hologres产品使用合集之湖仓加速版查询maxcompute外部表,有什么优化途径吗
实时数仓Hologres的基本概念和特点:1.一站式实时数仓引擎:Hologres集成了数据仓库、在线分析处理(OLAP)和在线服务(Serving)能力于一体,适合实时数据分析和决策支持场景。2.兼容PostgreSQL协议:Hologres支持标准SQL(兼容PostgreSQL协议和语法),使得迁移和集成变得简单。3.海量数据处理能力:能够处理PB级数据的多维分析和即席查询,支持高并发低延迟查询。4.实时性:支持数据的实时写入、实时更新和实时分析,满足对数据新鲜度要求高的业务场景。5.与大数据生态集成:与MaxCompute、Flink、DataWorks等阿里云产品深度融合,提供离在线
|
1天前
|
SQL 分布式计算 大数据
MaxCompute产品使用问题之如果oss文件过大,如何在不调整oss源文件大小的情况下优化查询sql
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
8天前
|
SQL 关系型数据库 MySQL
SQL优化方法有哪些?
【6月更文挑战第16天】SQL优化方法有哪些?
217 5
|
4天前
|
SQL 存储 关系型数据库
不懂索引,简历上都不敢写自己熟悉SQL优化
大家好,我是考哥。今天给大家带来MySQL索引相关核心知识。对MySQL索引的理解甚至比你掌握还重要,索引是优化SQL的前提和基础,我们一步步来先打好地基。当MySQL表数据量不大时,缺少索引对查询性能的影响都不会太大,可能都是0.0几秒;但当表数据量逐日递增时,建立一个合适且优雅的索引就至关重要了。
712 0
不懂索引,简历上都不敢写自己熟悉SQL优化
|
8天前
|
SQL 数据处理 数据库
如何进行SQL查询优化?
【6月更文挑战第16天】如何进行SQL查询优化?
359 3
|
14天前
|
SQL 弹性计算 分布式计算
实时数仓 Hologres操作报错合集之在执行SQL查询时遇到了问题,报错原因是“Invalid index column id: 2”,该怎么处理
在使用阿里云实时数仓Hologres时,可能会遇到不同类型的错误。例如:1.内存超限错误、2.字符串缓冲区扩大错误、3.分区导入错误、4.外部表访问错误、5.服务未开通或权限问题、6.数据类型范围错误,下面是一些常见错误案例及可能的原因与解决策略的概览。
|
11天前
|
SQL 存储 关系型数据库
慢查询优化方案-SQL篇【JavaPub版】
慢查询优化方案-SQL篇【JavaPub版】
120 0
|
14天前
|
分布式计算 算法 关系型数据库
实时数仓 Hologres产品使用合集之如何优化查询性能
实时数仓Hologres的基本概念和特点:1.一站式实时数仓引擎:Hologres集成了数据仓库、在线分析处理(OLAP)和在线服务(Serving)能力于一体,适合实时数据分析和决策支持场景。2.兼容PostgreSQL协议:Hologres支持标准SQL(兼容PostgreSQL协议和语法),使得迁移和集成变得简单。3.海量数据处理能力:能够处理PB级数据的多维分析和即席查询,支持高并发低延迟查询。4.实时性:支持数据的实时写入、实时更新和实时分析,满足对数据新鲜度要求高的业务场景。5.与大数据生态集成:与MaxCompute、Flink、DataWorks等阿里云产品深度融合,提供离在线
|
17天前
|
SQL 存储 关系型数据库
PolarDB产品使用合集之有的sql里面有自定义存储函数 如果想走列存有什么优化建议吗
PolarDB是阿里云推出的一种云原生数据库服务,专为云设计,提供兼容MySQL、PostgreSQL的高性能、低成本、弹性可扩展的数据库解决方案,可以有效地管理和优化PolarDB实例,确保数据库服务的稳定、高效运行。以下是使用PolarDB产品的一些建议和最佳实践合集。
289 0
|
17天前
|
SQL 关系型数据库 MySQL
MySQL数据库——SQL优化(3/3)-limit 优化、count 优化、update 优化、SQL优化 小结
MySQL数据库——SQL优化(3/3)-limit 优化、count 优化、update 优化、SQL优化 小结
247 0

热门文章

最新文章

相关产品

  • 实时数仓 Hologres