Presto【实践 01】Presto查询性能优化(数据存储+SQL优化+无缝替换Hive表+注意事项)及9个实践问题分享

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: Presto【实践 01】Presto查询性能优化(数据存储+SQL优化+无缝替换Hive表+注意事项)及9个实践问题分享

1.优化

1.1 数据存储

  1. 合理设置分区:与Hive类似,Presto 会根据元信息读取分区数据,合理的分区能减少 Presto 数据读取量,提升查询性能。
  2. 使用列式存储:Presto 对 ORC 文件读取做了特定优化,因此在 Hive 中创建 Presto 使用的表时,建议采用 ORC 格式存储。相对于 Parquet,Presto 对 ORC 支持更好。
  3. 使用压缩:数据压缩可以减少节点间数据传输对 IO 带宽压力,对于即席查询需要快速解压,建议采用 Snappy 压缩。
  4. 预先排序:对于已经排序的数据,在查询的数据过滤阶段,ORC 格式支持跳过读取不必要的数据。
-- 对于经常需要过滤的字段可以预先排序
INSERT INTO TABLE table_name PARTITION ( field_name )
SELECT * FROM nation_file SORT BY sort_field_name;
-- 如果通过 sort_field_name 字段对数据进行过滤则性能将提升
SELECT COUNT(*) FROM table_name WHERE sort_field_name='xxx';

1.2 查询SQL优化

  1. 只查询必要的字段:由于采用列式存储,选择需要的字段可加快字段的读取、减少数据量。避免采用 * 读取所有字段。
-- GOOD 
SELECT field_name_1, field_name_2, field_name_3 FROM table_name;
-- NOT GOOD
SELECT * FROM table_name;
  1. 过滤条件优先使用分区字段:对于有分区的表,WHERE 语句中优先使用分区字段进行过滤。partition_time 是分区字段,normal_time 是非分区字段。
-- GOOD 
SELECT field_name_1, field_name_2 FROM table_name WHERE partition_time='xxx';
-- NORMAL
SELECT field_name_1, field_name_2 FROM table_name WHERE normal_time='xxx';
  1. GROUP BY 语句优化:合理安排 GROUP BY 语句中字段顺序对性能有一定提升。将 GROUP BY 语句中字段按照每个字段 DISTINCT 数据多少进行降序排列
-- GOOD 
SELECT field_name_1, field_name_2 FROM table_name GROUP BY id, type;
-- NOT GOOD
SELECT field_name_1, field_name_2 FROM table_name GROUP BY type, id;
  1. ORDER BY 时使用 LIMIT :ORDER BY 需要扫描数据到单个 worker 节点进行排序,导致单个worker 需要大量内存。如果是查询 Top N 或者 Bottom N,使用 LIMIT 可减少排序计算和内存压力。
-- GOOD 
SELECT field_name_1, field_name_2 FROM table_name ORDER BY sort_field_name LIMIT 100;
-- NOT GOOD
SELECT field_name_1, field_name_2 FROM table_name ORDER BY sort_field_name;
  1. 使用近似聚合函数:Presto 有一些近似聚合函数,对于允许有少量误差的查询场景,使用这些函数对查询性能有大幅提升。比如使用 APPROX_DISTINCT(x) 函数比 COUNT(DISTINCT x) 有大概 2.3% 的误差。
SELECT APPROX_DISTINCT(field_name) FROM table_name;
  1. 用 REGEXP_LIKE 代替多个 LIKE 语句:Presto 查询优化器没有对多个 LIKE 语句进行优化,使用 REGEXP_LIKE 对性能有较大提升。
-- GOOD 
SELECT field_name_1, field_name_2 FROM table_name 
WHERE REGEXP_LIKE(field_name, 'GET|POST|PUT|DELETE');
-- NOT GOOD
SELECT field_name_1, field_name_2 FROM table_name
WHERE
  field_name LIKE '%GET%' OR field_name LIKE '%POST%' OR
  field_name LIKE '%PUT%' OR field_name LIKE '%DELETE%';
  1. 使用 JOIN 语句时将大表放在左边 :Presto 中 JOIN 的默认算法是 BROADCAST JOIN,即将 JOIN 左边的表分割到多个 worker,然后将 JOIN 右边的表数据整个复制一份发送到每个 worker 进行计算。如果右边的表数据量太大,则可能会报内存溢出错误。
-- GOOD 
SELECT field_name_1, field_name_2 FROM large_table l JOIN small_table s ON l.id = s.id;
-- NOT GOOD
SELECT field_name_1, field_name_2 FROM small_table s JOIN large_table l ON l.id = s.id;
  1. 使用 RANK 函数代替 ROW_NUMBER 函数来获取 Top N:在进行一些分组排序场景时,使用 RANK 函数性能更好。
-- GOOD 
SELECT checksum(rnk)
FROM (
  SELECT RANK() OVER (PARTITION BY l_orderkey, l_partkey ORDER BY l_shipdate DESC) AS rnk
  FROM lineitem
) t
WHERE rnk = 1
-- NOT GOOD
SELECT checksum(rnk)
FROM (
  SELECT ROW_NUMBER() OVER (PARTITION BY l_orderkey, l_partkey ORDER BY l_shipdate DESC) AS rnk
  FROM lineitem
) t
WHERE rnk = 1

1.3 无缝替换Hive表

如果之前的hive表没有用到 ORC 和 snappy,那么怎么无缝替换而不影响线上的应用?比如如下一个hive表:

CREATE TABLE bdc_dm.res_category(
channel_id1 int comment '1级渠道id',
province string COMMENT '省',
city string comment '市', 
uv int comment 'uv'
)
comment 'example'
partitioned by (landing_date int COMMENT '日期:yyyymmdd')
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' COLLECTION ITEMS TERMINATED BY ',' MAP KEYS TERMINATED BY ':' LINES TERMINATED BY '\n';

建立对应的 ORC 表

CREATE TABLE bdc_dm.res_category_orc(
channel_id1 int comment '1级渠道id',
province string COMMENT '省',
city string comment '市', 
uv int comment 'uv'
)
comment 'example'
partitioned by (landing_date int COMMENT '日期:yyyymmdd')
row format delimited fields terminated by '\t'
stored as orc 
TBLPROPERTIES ("orc.compress"="SNAPPY");

先将数据灌入orc表,然后更换表名

insert overwrite table bdc_dm.res_category_orc partition(landing_date)
select * from bdc_dm.res_category where landing_date >= 20171001;
ALTER TABLE bdc_dm.res_category RENAME TO bdc_dm.res_category_tmp;
ALTER TABLE bdc_dm.res_category_orc RENAME TO bdc_dm.res_category;

其中res_category_tmp是一个备份表,若线上运行一段时间后没有出现问题,则可以删除该表。

1.4 注意事项

ORC 和 Parquet 都支持列式存储,但是 ORC 对 Presto 支持更好(Parque t对 Impala 支持更好)

对于列式存储而言,存储文件为二进制的,对于经常增删字段的表,建议不要使用列式存储(修改文件元数据代价大)。对比数据仓库,dwd 层建议不要使用 ORC,而 dm 层则建议使用。

2.实践

2.1 加快在Presto上的数据统计

很多的时候,在 Presto 上对数据库跨库查询,例如 MySQL 数据库。这个时候 Presto 的做法是从MySQL 数据库端拉取最基本的数据,然后再去做进一步的处理,例如统计等聚合操作。

举个例子:

SELECT COUNT(id) FROM table_name WHERE condition_field=1;

上面的SQL语句会分为3个步骤进行:

  1. Presto发起到Mysql数据库进行查询
SELECT id FROM table_name WHERE condition_field=1;
  1. 对结果进行count计算
  2. 返回结果

对于 Presto 来说,其跨库查询的瓶颈是在数据拉取这个步骤。若要提高数据统计的速度,可考虑把 MySQL 中相关的数据表定期转移到 HDFS 中,并转存为高效的列式存储格式 ORC。定时归档是一个很好的选择,这里还要注意,在归档的时候要选择一个归档字段,如果是按日归档,可以用日期作为这个字段的值,采用 yyyyMMdd 的形式,例如20211214。

-- 创建归档数据库的SQL语句如下
CREATE TABLE IF NOT EXISTS table_name (
id INTEGER,
........
partition_date INTEGER
) WITH ( format = 'ORC', partitioned_by = ARRAY['partition_date'] );
-- 查看创建的库结构(只适用于 Presto)
SHOW CREATE TABLE table_name;

带有分区的表创建完成之后,每天只要更新分区字段 partition_date 就可以了,Presto 就能将数据放置到规划好的分区了。如果要查看一个数据表的分区字段是什么,可以下面的语句:

SHOW PARTITIONS FROM table_name;

2.2 分区字段过滤

如果数据被规当到 HDFS 中,并带有分区字段。在每次查询归档表的时候,要带上分区字段作为过滤条件,这样可以加快查询速度。因为有了分区字段作为查询条件,就能帮助 Presto 避免全区扫描,减少 Presto 需要扫描的 HDFS 的文件数。

2.3 使用WITH语句

使用 Presto 分析统计数据时,可考虑把多次查询合并为一次查询,用 Presto 提供的子查询完成。这点和MySQL的使用不是很一样。例如:

-- 子查询 subquery_1 注意:多个子查询需要用逗号分隔
WITH 
subquery_1 AS (
    SELECT a1, a2, a3 
    FROM Table_a 
    WHERE a3 between 20180101 and 20180131
),      
-- 最后一个子查询后不要带逗号   
subquery_2 AS (
    SELECT b1, b2, b3
    FROM Table_b
    WHERE b3 between 20180101 and 20180131
)
SELECT subquery_1.a1, subquery_1.a2, subquery_2.b1, subquery_2.b2
FROM subquery_1 JOIN subquery_2 ON subquery_1.a3 = subquery_2.b3;

2.4 减少读表次数

具体做法是,将使用频繁的表作为一个子查询抽离出来,避免多次 read。

2.5 字段名引用

Presto 中的字段名引用使用双引号分割(跟 GreenPlum 一样),这个要区别于MySQL的反引号`。

SELECT field_name AS "fieldName" FROM table_name;

2.6 时间函数

对于 timestamp,需要进行比较的时候,需要添加 timestamp 关键字,而 MySQL 中对 timestamp 可以直接进行比较。

-- MySQL的写法
SELECT time_field  FROM table_name WHERE time_field > '2017-01-01 00:00:00'; 
-- Presto中的写法
SELECT time_field  FROM table_name  WHERE time_field > timestamp '2017-01-01 00:00:00';

2.7 MD5函数使用

Presto 中 MD5 函数传入的是 binary 类型,返回的也是 binary 类型,要对字符串进行 MD5 操作时,需要转换。

SELECT TO_HEX(MD5(TO_UTF8('1212')));

2.8 不支持 INSERT OVERWRITE 语法

Presto中不支持 INSERT OVERWRITE 语法,只能先 DELETE,然后 INSERT INTO。

2.9 ORC和PARQUET格式

  • Presto 中对 ORC 文件格式进行了针对性优化,但在 Impala 中目前不支持 ORC 格式的表,Hive 中支持 ORC 格式的表,所以想用列式存储的时候可以优先考虑 ORC 格式。
  • Presto目前支持 PARQUET 格式,支持查询,但不支持 INSERT。
相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
7月前
|
SQL HIVE
【Hive SQL 每日一题】环比增长率、环比增长率、复合增长率
该文介绍了环比增长率、同比增长率和复合增长率的概念及计算公式,并提供了SQL代码示例来计算商品的月度增长率。环比增长率是相邻两期数据的增长率,同比增长率是与去年同期相比的增长率,复合增长率则是连续时间段内平均增长的速率。文章还包含了一组销售数据用于演示如何运用这些增长率进行计算。
269 4
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
81 3
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
104 0
|
4月前
|
SQL 存储 分布式计算
插入Hive表数据SQL
【8月更文挑战第10天】
|
4月前
|
SQL 物联网 数据处理
"颠覆传统,Hive SQL与Flink激情碰撞!解锁流批一体数据处理新纪元,让数据决策力瞬间爆表,你准备好了吗?"
【8月更文挑战第9天】数据时代,实时性和准确性至关重要。传统上,批处理与流处理各司其职,但Apache Flink打破了这一界限,尤其Flink与Hive SQL的结合,开创了流批一体的数据处理新时代。这不仅简化了数据处理流程,还极大提升了效率和灵活性。例如,通过Flink SQL,可以轻松实现流数据与批数据的融合分析,无需在两者间切换。这种融合不仅降低了技术门槛,还为企业提供了更强大的数据支持,无论是在金融、电商还是物联网领域,都将发挥巨大作用。
65 6
|
4月前
|
SQL 存储 NoSQL
从SQL到NoSQL:理解不同数据库类型的选择与应用——深入比较数据模型、扩展性、查询语言、一致性和适用场景,为数据存储提供全面决策指南
【8月更文挑战第31天】在信息技术飞速发展的今天,数据库的选择至关重要。传统的SQL数据库因其稳定的事务性和强大的查询能力被广泛应用,而NoSQL数据库则凭借其灵活性和水平扩展性受到关注。本文对比了两种数据库类型的特点,帮助开发者根据应用场景做出合理选择。SQL数据库遵循关系模型,适合处理结构化数据和复杂查询;NoSQL数据库支持多种数据模型,适用于非结构化或半结构化数据。SQL数据库在一致性方面表现优异,但扩展性较差;NoSQL数据库则设计之初便考虑了水平扩展性。SQL使用成熟的SQL语言,NoSQL的查询语言更为灵活。
97 0
|
5月前
|
SQL 分布式计算 关系型数据库
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
78 2
|
5月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版产品使用问题之如何使用Flink SQL连接带有Kerberos认证的Hive
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
SQL HIVE
【Hive SQL】字符串操作函数你真的会用吗?
本文介绍了SQL中判断字符串是否包含子串的几种方法。`IN`函数判断元素是否完全等于给定元素组中的某项,而非包含关系。`INSTR`和`LOCATE`函数返回子串在字符串中首次出现的位置,用于检测是否存在子串。`SUBSTR`则用于提取字符串的子串。`LIKE`用于模糊匹配,常与通配符配合使用。注意`IN`并非用于判断子串包含。
517 3
下一篇
DataWorks