一文带你了解MySQL之基于成本的优化

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: 我们之前老说MySQL执行一个查询可以有不同的执行方案,它会选择其中成本最低,或者说代价最低的那种方案去真正的执行查询,怎么就带大家详细了解一下

一、什么是成本

我们之前老说MySQL执行一个查询可以有不同的执行方案,它会选择其中成本最低,或者说代价最低的那种方案去真正的执行查询。不过我们之前对成本的描述是非常模糊的,其实在MySQL中一条查询语句的执行成本是由下边这两个方面组成的:


I/O成本


我们的表经常使用的MyISAM、InnoDB存储引擎都是将数据和索引都存储到磁盘上的,当我们想查询表中的记录时,需要先把数据或者索引加载到内存中然后再操作。这个从磁盘到内存这个加载的过程损耗的时间称之为I/O成本。


CPU成本


读取以及检测记录是否满足对应的搜索条件、对结果集进行排序等这些操作损耗的时间称之为CPU成本。


对于InnoDB存储引擎来说,页是磁盘和内存之间交互的基本单位,MySQL规定读取一个页面花费的成本默认是0.25(MySQL 5.7默认1.0),读取以及检测一条记录是否符合搜索条件的成本默认是0.1(MySQL 5.7默认0.2)。0.25和0.1这些数字称之为成本常数,这两个成本常数我们最常用到,其余的成本常数我们后边再说。


小提示:

需要注意的是,不管读取记录时需不需要检测是否满足搜索条件,其成本都算是0.1。

这里使用的MySQL版本是8.0.32,各个版本之间成本会有差异。在本章后边详细讲解.


二、单表查询的成本

2.1 准备数据

为了我们正常的学习,我们还是用之前的demo8,怕大家忘记这个别表长啥样子,在给大家抄一篇:


mysql> USE testdb;

mysql> create table demo8 (    

id int not null auto_increment,    

key1 varchar(100),    

key2 int,    

key3 varchar(100),    

key_part1 varchar(100),    

key_part2 varchar(100),    

key_part3 varchar(100),    

common_field varchar(100),

primary key (id),

key idx_key1 (key1),    

unique key idx_key2 (key2),    

key idx_key3 (key3),    

key idx_key_part(key_part1, key_part2, key_part3));


demo8 表一共创建了1个聚簇(主键)索引和4个二级索引:


为id列创建的聚簇索引;

为key1列创建的二级索引;

为key2列创建的唯一二级索引;

为key3列创建的二级索引;

为key_part1、key_part2、key_part3列创建的复合(联合)二级索引。

然后我们需要为这个表插入20000条记录,除id列外其余的列都插入随机值就好了


mysql> delimiter //

create procedure demo8data()

begin    

declare i int;    

set i=0;    

while i<20000 do        

 insert into demo8(key1,key2,key3,key_part1,key_part2,key_part3,common_field) values(

 substring(md5(rand()),1,2),

 i+1,

 substring(md5(rand()),1,3),

 substring(md5(rand()),1,4),

 substring(md5(rand()),1,5),

 substring(md5(rand()),1,6),

 substring(md5(rand()),1,7)

 );        

 set i=i+1;    

end while;

end;

//

delimiter ;


mysql> call demo8data();


下边正式开始我们的学习


2.2 基于成本的优化步骤

在一条单表查询语句真正执行之前,MySQL的查询优化器会找出执行该语句所有可能使用的方案,对比之后找出成本最低的方案,这个成本最低的方案就是所谓的执行计划,之后才会调用存储引擎提供的接口真正的执行查询,这个过程总结一下就是这样:


根据搜索条件,找出所有可能使用的索引

计算全表扫描的代价

计算使用不同索引执行查询的代价

对比各种执行方案的代价,找出成本最低的那一个

下边我们就以一个实例来分析一下这些步骤,单表查询语句如下:


mysql> select * from demo8 where

key1 in ('aa','bb','cc') and

key2 > 10 and key2 < 1000 and

key3 > key2 and

key_part1 like '%3f%' and

common_field='1281259';


是不是看上去很复杂,我们一步一步的分析一下


步骤一: 根据搜索条件,找出所有可能适用的索引


我们前边说过,对于B+树索引来说,只要索引列和常数使用=、<=>、IN、NOT IN、IS NULL、IS NOT NULL、>、<、>=、<=、BETWEEN AND、!=(不等于也可以写成<>)或者LIKE操作符连接起来,就可以产生一个所谓的范围区间(LIKE匹配字符串前缀也行),也就是说这些搜索条件都可能使用到索引,MySQL把一个查询中可能使用到的索引称之为possible keys。


我们分析一下上边查询涉及到的几个授权条件:


key1 in ('aa','bb','cc'),这个搜索条件可以使用到二级索引idx_key1

key2 > 10 and key2 < 1000,这个搜索条件可以使用到二级索引idx_key2

key3 > key2,这个搜索条件的搜索列由于没有和常数比较,所以并不能使用到索引。

key_part1 like '%3f%',key_part1通过like操作符和以通配符开头的字符串做比较,不可以使用索引

common_field=‘1281259’,由于该列压根没有索引,所以不会用到索引

综上所述,上边查询语句可能用到的索引,也就是possible keys只有idx_key1和idx_key2。


步骤二: 计算全表扫描的代价


对于InnoDB存储引擎来说,全表扫描的意思就是把聚簇索引中的记录都依次和给定的搜索条件做一下比较,把符合搜索条件的记录加入到结果集,所以需要将聚簇索引对应的页面加载到内存中,然后再检测记录是否符合搜索条件。由于查询成本=I/O成本+CPU成本,所以计算全表扫描的代价需要两个信息:


聚簇索引占用的页面数

该表中的记录数

这两个信息从哪来呢?MySQL为每个表维护了一系列的统计信息,关于这些统计信息是如何收集起来的我们放在本章后边详细讲解,现在看看怎么查看这些统计信息。MySQL给我们提供了show table status语句来查看表的统计信息,如果要看指定的某个表的统计信息,在该语句后加对应

的like语句就好了,比如说我们要查看demo8这个表的统计信息可以这么写:


mysql> show table status like 'demo8' \G;

*************************** 1. row ***************************

          Name: demo8

        Engine: InnoDB

       Version: 10

    Row_format: Dynamic

          Rows: 20187

Avg_row_length: 78

   Data_length: 1589248

Max_data_length: 0

  Index_length: 2785280

     Data_free: 4194304

Auto_increment: 20001

   Create_time: 2023-05-16 16:36:53

   Update_time: 2023-05-16 16:38:21

    Check_time: NULL

     Collation: utf8mb4_0900_ai_ci

      Checksum: NULL

Create_options:

       Comment:

1 row in set (0.00 sec)

ERROR:

No query specified

虽然出现了很多统计选项,但我们目前只关心两个:


Rows:本选项表示表中的记录条数。对于使用MyISAM存储引擎的表来说,该值是准确的,对于使用InnoDB存储引擎的表来说,该值是一个估计值。从查询结果可以看出来,由于我们的demo8表使用的是InnoDB存储引擎,所以虽然表中实际记录有20000条记录,但是show table status显示的 Rows值为20187条记录。


Data_length:本选项表示占用的存储空间的字节数。使用MyISAM存储引擎的表来说,该值就是数据文件的大小,对于使用InnoDB存储引擎的表来说,该值就相当于聚簇索引占用的存储空间大小


也就是说可以这样计算该值的大小:


Data_length = 聚簇索引的页面数量 * 每个页面的大小


我们的demo8表使用的默认16KB的页面大小,根据上面的查询结果,所以我们可以计算出聚簇索引的页面数量:


聚簇索引的页面数 = 1589248 ÷ 16 ÷ 1024 = 97


我们现在已经得到了聚簇索引占用的页面数量以及该表记录数的估计值,现在可以看一下全表扫描成的计算过程:


I/O成本: 97 * 0.25 =24.25

97指的是聚簇索引占用的页面数,0.25指的是加载一个页面的成本常数

CPU成本:20187 * 0.1 = 2018.7

20187指的是统计数据中表的记录数,对于InnoDB存储引擎来说是一个估计值,0.1是指访问一条记录所需的成本常数

总成本:24.25 +2018.7 = 2042.95

综上所述,对于demo8的全表扫描所需的总成本就是2042.95,直接上代码,不用废话,来个华丽的验证

微信图片_20230525201810.png

mysql> explain format=json select * from demo8 ;


小提示:

我们前边说过表中的记录其实都存储在聚簇索引对应B+树的叶子节点中,所以只要我们通过根节点获得了最左边的叶子节点,就可以沿着叶子节点组成的双向链表把所有记录都查看一遍。也就是说全表扫描这个过程其实有的B+树内节点是不需要访问的,但是MySQL在计算全表扫描成本时直接使用聚簇索引占用的页面数作为计算I/O成本的依据,是不区分内节点和叶子节点的,有点简单粗暴,大家注意一下就好了。


步骤三: 计算不同索引执行的查询代价


从第1步分析我们得到,上述查询可能使用到idx_key1和idx_key2这两个索引,我们需要分别分析单独使用这些索引执行查询的成本,最后还要分析是否可能使用到索引合并。这里需要提一点的是,MySQL查询优化器先分析使用唯一二级索引的成本,再分析使用普通索引的成本,所以我们也先分析idx_key2的成本,然后再看使用idx_key1的成本。


使用idx_key2执行的查询成本


idx_key2对应的搜索条件是:key2 > 10 and key2 < 1000,也就是说对应范围区间就是:(10,1000),使用idx_key2搜索示意图就是如下:

微信图片_20230525201938.png



对于二级索引+回表方式的查询,MySQL计算这种查询的成本依赖两个方面的数据:


范围区间的数量:不论某个范围区间的二级索引到底占用了多少页面,查询优化器粗暴的认为读取索引的一个范围区间的I/O成本和读取一个页面是相同的。本例中使用idx_key2的范围区间只有一个:(10,1000),所以相当于访问这个范围区间的二级索引付出的I/O成本就是:1 * 0.25 = 0.25


需要回表的记录数: 优化器需要计算二级索引的某个范围区间到底包含多少条记录,对于比例来说就要计算idx_key2在(10,1000)这个范围区间包含多少二级索引记录,计算过程如下:


步骤1: 先根据key2 > 10这个条件访问一下idx_key2对应的B+树索引,找到满足key2 > 10这个条件的第一条记录,我们把这条记录称之为区间最左记录。我们前头说过在B+数树中定位一条记录的过程是贼快的,是常数级别的,所以这个过程的性能消耗是可以忽略不计的


步骤2: 然后再根据key2 < 1000这个条件继续从idx_key2对应的B+树索引中找出第一条满足这个条件的记录,我们把这条记录称之为区间最右记录,这个过程的性能消耗也可以忽略不计的。


步骤3: 如果区间最左记录和区间最右记录相隔不太远(在MySQL 5.7.21这个版本中,只要相隔不小于10个页面即可),那就可以精确统计出满足key2> 10 AND key2 < 1000条件的二级索引记录条数。否则只沿着区间最左记录向右读10个页面,计算平均每个页面中包含多少记录,然后用这个平均值乘以区间最左记录和区间最右记录之间的页面数量就可以了。那么问题又来了,怎么估计区间最左记录和区间最右记录之间有多少个页面呢?解决这个问题还得回到B+树索引的结构中来:

微信图片_20230525202010.png


如图比如区间最左记录在页34中,区间最右记录在页40中,那么我想计算区间最左记录和区间最右记录之间的页面数量就相当于计算页34和页40之间有多少页面,而每一条目录项记录都对应一个数据页,所以计算页34和页41之间有多少页面就相当于计算它们父节点(也就是页42)中对应的目录项记录之间隔着几条记录不就可以了吗。如果页34和页41之前的页面太多(对应的目录项不在同一个父节点页面中),那就继续递归进行统计,这个统计过程在父节点页面进行,之前我们说过一个B+树有4层高已经很了不得了,所以也不是很耗费性能。


知道了如何统计二级索引某个范围区间的记录数之后,就需要回到现实问题中来,根据上述算法测得idx_key2在区间(10, 1000)之间大约有989条记录。读取这989条二级索引记录需要付出的CPU成本就是:989 * 0.1 = 98.9


其中989是需要读取的二级索引记录条数,0.1 是读取一条记录成本常数


在通过二级索引获取到记录记录,还需要干两件事:


根据这些记录里的主键值到聚簇索引中做回表操作


这里需要大家使劲的仔细瞧,MySQL评估回表操作的I/O成本依旧很豪放,他们认为每次回表操作都相当于访问一个页面,也就是说二级索引范围区间有多少记录,就需要进行多少次回表操作,也就是需要进行多少次页面I/O。我们上边统计了使用idx_key2二级索引执行查询时,预计有989条二级索引记录需要进行回表操作,所回表操作带来的I/O成本就是:989 x 0.25 = 247.25


其中989是预计的二级索引记录数,0.25是一个页面的I/O成本常数。


回表操作后得到的完整的户记录,然后再检测其他搜索条件是否成立


回表操作的本质就是通过二级索引记录的主键值到聚簇索引中找到完整的用户记录,然后再检测除key2 > 10 and key2 < 1000这个搜索条件以外的搜索条件是否成立。因为我们通过范围区间获取到二级索引记录共989条,也就对应着聚簇索引中989条完整的用户记录,读取并检测这些完整的用户记录是否符合其余的搜索条件的CPU成本如下:989 x 0.1 = 98.9


其中989是待检测记录的条数, 0.1是检测一条记录是否符合给定的搜索条件的成本常数


所以本例中使用idx_key2执行查询的成本就如下所示:


I/O成本:1.0x 0.25 + 989 x 0.25 = 247.5 (范围区间的数量 + 预估的二级索引记录条数)


CPU成本:989 x 0.1 + 0.01 + 989 x 0.1 = 197.81 (读取二级索引记录的成本 + 读取并检测回表后聚簇索引记录的成本)


综上所述,使用idx_key2执行查询的总成本就是:247.5 + 197.81 = 445.31 ,直接上代码,不用废话,来个华丽的验证:

微信图片_20230525202155.png

mysql> explain format=json select * from demo8 where key2 > 10 and key2 < 1000 and key3 > key2 and key_part1 like '%3f%' and common_field='1281259';


小提示:

若走索引,读二级索引条件有微调,读聚簇索引没有,扫描区间、回表任何一条记录都相当于读取一页。若不走索引,微调值另外分析,和前者不同。


使用idx_key2执行的查询成本


idx_key1对应的搜索条件是 key1 in ('aa','bb','cc'),也相当于3个单点区间:


['aa','aa']

['bb','bb']

['cc','cc']

使用idx_key1搜索示意图就是如下:

微信图片_20230525202227.png


与使用的idx_key2的情况类似,我们也需要使用idx_key1时需要的访问的范围区间数量以及需要回表的记录数。


范围区间数量:使用idx_key1查询时很显然有三个单点区间,所以访问这三个范围区间二级索引付出的 I/O成本是 3 x 0.25 = 0.75

需要回表的记录数:

查找单点区间['aa','aa']对应的二级索引记录数和查找连续范围区间对应的二级索引记录数是一样的,都是先计算区间最左记录和区间最右记录,然后计算出它们之间的记录数,具体方法已经讲过了,就不在唠叨了,最后我们得出单点区间['aa','aa']二级索引记录是:67

查找单点区间['bb','bb']对应的二级索引记录是:88

查找单点区间['cc','cc']对应的二级索引记录是:75

所以这三个单点区间总共需要回表的记录数是:67+88+75 = 230,读取这些二级索引记录的CPU成本就是:230 x 0.1 + 0.01 = 23.01


得到总共需要回表的记录数之后,就要考虑:


根据这些记录里的主键值到聚簇索引中做回表操作,所需要的I/O成本就是:230 x 0.25 = 57.5

回表操作后得到完整的用户记录,然后在比较其他搜索条件是否成立的此步骤对应的CPU成本就是:230 x 0.1 = 23

所以本例中使用idx_key1执行查询的成本如下所示:


I/O成本:0.75 + 57.5 = 58.25

CPU成本:23 + 23.01 = 46.01

综上所述,使用idx_key1的执行查询总成本就是:58.25 + 46.01 = 104.26 ,直接上代码,不用废话,来个华丽的验证:


mysql> explain format=json select * from demo8 where key1 in ('aa','bb','cc') and key2 > 10 and key2 < 1000 and key3 > key2 and key_part1 like '%3f%' and common_field='1281259';

微信图片_20230525202256.png

是否有可能使用索引合并(Index Merge)


本例中有关key1和key2的搜索条件是使用AND连接起来的,而对于idx_key1和idk_key2都是范围查询,也就是说查找到的非聚集索引记录并不是按照主键值进行排序的,并不满足使用Intersection索引合并的条件,所以并不会使用索引合并。


小提示:

MySQL查询优化器计算索引合并成本的算法也比较麻烦,这里不讲,理解成本如何计算,知道MySQL会按照这种算法选择索引即可。


步骤四: 对比各种执行方案的代价,找出成本最低的一个


下边把执行本例中的查询的各种可执行方案以及他们对应成本列出来:


全表扫描的成本:2042.95

使用idx_key2的成本:445.31

使用idx_key1的成本:104.26

很显然,使用idx_key1的成本最低,所以当然选择idx_key1来执行查询。


2.3 基于索引统计数据的成本计算

有时候使用索引执行查询时会有许多单点区间,比如使用IN语句就很容易产生非常多的单点区间,比如下边这个查询(下边查询语句中的…表示还有很多参数):


select * from demo8 where key1 in ('aa', 'bb', 'cc', ... , 'ee');


很显然,这个查询可能使用到的索引就是idx_key1,由于这个索引并不是唯一二级索引,所以并不能确定一个单点区间对应的二级索引记录的条数有多少,需要我们去计算。计算方式我们上边已经介绍过了,就是先获取索引对应的B+树的区间最左记录和区间最右记录,然后再计算这两条记录之间有多少记录(记录条数少的时候可以做到精确计算,多的时候只能估算)。MySQL把这种通过直接访问索引对应的B+树来计算某个范围区间对应的索引记录条数的方式称之为index dive。


小提示:

dive直译为中文的意思是跳水、俯冲的意思,原谅我的英语。 index dive,索引跳水?索引俯冲?好像都不太合适,所以压根就不翻译了。不过大家要意会index dive就是直接利用索引对应的B+树来计算某个范围区间对应的记录条数。


有几个单点区间的话,使用index dive的方式去计算这些单点区间对应的记录数也不是什么问题,可是你架不住有的小伙伴们使劲往IN语句塞东西,如果IN语句里有20000个参数的,这就意味着MySQL的查询优化器为了计算这些单点区间对应的索引记录条数,要进行20000次index dive操作,这性能损耗可就高了,搞不好计算这些单点区间对应的索引记录条数的成本比直接全表扫描的成本都高了。MySQL当然考虑到了这种情况,所以提供了一个系统变量eq_range_index_dive_limit,我们看一下这个系统变量的默认值:


mysql> show variables like '%dive%';

+---------------------------+-------+

| Variable_name             | Value |

+---------------------------+-------+

| eq_range_index_dive_limit | 200   |

+---------------------------+-------+

1 row in set (0.00 sec)


也就是说如果我们的IN语句中的参数个数小于200个的话,将使用index dive的方式计算各个单点区间对应的记录条数,如果大于或等于200个的话,可就不能使用index dive了,要使用所谓的索引统计数据来进行估算。怎么个估算法?继续往下看。


MySQL会为每个表维护一份统计数据一样,MySQL也会为表中的每一个索引维护一份统计数据,查看某个表中索引的统计数据可以使用show index from 表名的语法,比如我们查看一下demo8的各个索引的统计数据可以这么写:


mysql> show index from demo8;

+-------+------------+--------------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+---------+------------+

| Table | Non_unique | Key_name     | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment | Visible | Expression |

+-------+------------+--------------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+---------+------------+

| demo8 |          0 | PRIMARY      |            1 | id          | A         |       18750 |     NULL |   NULL |      | BTREE      |         |               | YES     | NULL       |

| demo8 |          0 | idx_key2     |            1 | key2        | A         |       18565 |     NULL |   NULL | YES  | BTREE      |         |               | YES     | NULL       |

| demo8 |          1 | idx_key1     |            1 | key1        | A         |         256 |     NULL |   NULL | YES  | BTREE      |         |               | YES     | NULL       |

| demo8 |          1 | idx_key3     |            1 | key3        | A         |        4053 |     NULL |   NULL | YES  | BTREE      |         |               | YES     | NULL       |

| demo8 |          1 | idx_key_part |            1 | key_part1   | A         |       16122 |     NULL |   NULL | YES  | BTREE      |         |               | YES     | NULL       |

| demo8 |          1 | idx_key_part |            2 | key_part2   | A         |       18570 |     NULL |   NULL | YES  | BTREE      |         |               | YES     | NULL       |

| demo8 |          1 | idx_key_part |            3 | key_part3   | A         |       18570 |     NULL |   NULL | YES  | BTREE      |         |               | YES     | NULL       |

+-------+------------+--------------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+---------+------------+

7 rows in set (0.02 sec)

是不是有很多属性,不过这些属性都不难理解,我们这里把这些属性都简单的介绍一遍:


属性名

Table

索引所属表的名称

Non_unique

索引列的值是否是唯一的,聚簇索引和唯一二级索引的该列值为0,普通二级索引该列值为1

Key_name

索引的名称

Seq_in_index

索引列在索引中的位置,从1开始计数。比如对于联合索引idx_key_part,来说,key_part1、key_part2和key_part3对应的位置分别是1、2、3

Column_name

索引列的名称

Collation

索引列中的值是按照何种排序方式存放的,值为A时代表升序存放,为NULL时代表降序存放

Cardinality

索引列中不重复值的数量。后边我们会重点看这个属性的。

Sub_part

索引列如何被压缩,NULL值表示未被压缩。这个属性我们暂时不了解,可以先忽略掉

Null 该索引列是否允许存储NULL值。

Index_type

使用索引的类型,我们最常用的就是BTREE,其实也就是B+树索引

Comment

索引列注释信息

Index_comment

索引注释信息


上述属性除了Packed大家可能看不懂以外,应该没有啥看不懂的了,如果有的话肯定是大家看前边文章的时候跳过了。其实我们现在最在意的是Cardinality属性,Cardinality直译过来就是基数的意思,表示索引列中不重复值的个数。比如对于一个一万条记录的表来说,某个索引列的Cardinality属性是10000,那意味着该列中没有重复的值,如果Cardinality属性是1的话,就意味着该列的值全部是重复的。不过需要注意的是,对于InnoDB存储引擎来说,使用show index语句展示出来的某个索引列的Cardinality属性是一个估计值,并不是精确的。关于这个Cardinality属性的值是如何被计算出来的我们后边再说,先看看它有什么用途。


前边说过,当IN语句中的参数个数>=系统变量eq_range_index_dive_limit的值的话,就不会使用index dive的方式计算各个单点区间对应的索引记录条数,而是使用索引统计数据,这里所指的索引统计数据指的是这两个值:


使用show table status语句展示出的Rows值,也就是一个表中有多少条记录


使用show index语句展示出的Cardinality属性


结合上一个Rows统计数据,我们可以针对索引列,计算出平均一个值重复多少次。一个值的重复次数≈Rows÷Cardinality,以demo8表的idx_key1索引为例,它的Rows值是20187,它对应索引列key1的Cardinality值是256,所以我们可以计算key1列平均单个值的重复次数就是:20187÷256≈79


此时再看上面那条查询语句:


select * from demo8 where key1 in ('aa', 'bb', 'cc', ... , 'ee');


假设IN语句中有20000个参数的话,就直接使用统计数据来估算这些参数需要单点区间对应的记录条数了,每个参数大约对应79条记录,所以总共需要回表的记录数就是:20000 x 79 = 1580000


使用统计数据来计算单点区间对应的索引记录条数可比index dive的方式简单多了,但是它的致命弱点就是:不精确!使用统计数据算出来的查询成本与实际所需的成本可能相差非常大。


小提示:

当你的查询中使用到了IN查询,但是却实际没有用到索引,就应该考虑一下是不是由于eq_range_index_dive_limit值太小导致的


相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
18天前
|
关系型数据库 MySQL 索引
mysql 分析5语句的优化--索引添加删除
mysql 分析5语句的优化--索引添加删除
14 0
|
24天前
|
存储 关系型数据库 MySQL
轻松入门MySQL:数据库设计之范式规范,优化企业管理系统效率(21)
轻松入门MySQL:数据库设计之范式规范,优化企业管理系统效率(21)
|
24天前
|
存储 SQL 关系型数据库
轻松入门MySQL:加速进销存!利用MySQL存储过程轻松优化每日销售统计(15)
轻松入门MySQL:加速进销存!利用MySQL存储过程轻松优化每日销售统计(15)
|
18天前
|
SQL 缓存 关系型数据库
mysql性能优化-慢查询分析、优化索引和配置
mysql性能优化-慢查询分析、优化索引和配置
83 1
|
1天前
|
SQL 关系型数据库 MySQL
【MySQL】SQL优化
【MySQL】SQL优化
|
2天前
|
SQL 关系型数据库 MySQL
不允许你不知道的 MySQL 优化实战(一)
不允许你不知道的 MySQL 优化实战(一)
10 2
|
3天前
|
存储 缓存 关系型数据库
掌握MySQL数据库这些优化技巧,事半功倍!
掌握MySQL数据库这些优化技巧,事半功倍!
|
3天前
|
缓存 关系型数据库 MySQL
MySQL数据库优化技巧:提升性能的关键策略
索引是提高查询效率的关键。根据查询频率和条件,创建合适的索引能够加快查询速度。但要注意,过多的索引可能会增加写操作的开销,因此需要权衡。
|
4天前
|
SQL Oracle 关系型数据库
下次老板问你MySQL如何优化时,你可以这样说,老板默默给你加工资
现在进入国企或者事业单位做技术的网友越来越多了,随着去O的力度越来越大,很多国企单位都开始从Oracle向MySQL转移,相对于Oracle而言,MySQL最大的问题就是性能,所以,这个时候,在公司如果能够处理好MySQL的性能瓶颈,那么你也就很容易从人群中脱颖而出,受到老板的青睐。
22 1
|
12天前
|
SQL 关系型数据库 数据库
【后端面经】【数据库与MySQL】SQL优化:如何发现SQL中的问题?
【4月更文挑战第12天】数据库优化涉及硬件升级、操作系统调整、服务器/引擎优化和SQL优化。SQL优化目标是减少磁盘IO和内存/CPU消耗。`EXPLAIN`命令用于检查SQL执行计划,关注`type`、`possible_keys`、`key`、`rows`和`filtered`字段。设计索引时考虑外键、频繁出现在`where`、`order by`和关联查询中的列,以及区分度高的列。大数据表改结构需谨慎,可能需要停机、低峰期变更或新建表。面试中应准备SQL优化案例,如覆盖索引、优化`order by`、`count`和索引提示。优化分页查询时避免大偏移量,可利用上一批的最大ID进行限制。
39 3