我们前面说过MySQL 执行一个查询可以有不同的执行方案,它会选择其中成本最低的那种方案去真正的执行查询。那么不同方案的成本是如何计算的呢?其实在 MySQL 中一条查询语句的执行成本是由下边这两方面成本决定的:
对于 InnoDB 存储引擎来说,页是磁盘和内存之间交互的基本单位,在MySQL中规定读取一个页面花费的成本默认是 1.0 ,读取以及检测一条记录是否符合搜索条件的成本默认是 0.2 ,可以看到和磁盘相关的操作一般都比较费时。 1.0 、0.2 这些数字称之为成本常数 ,这两个成本常数我们最常用到,当然还有其他的成本常数我们后边再说。
注意:不管读取记录时需不需要检测是否满足搜索条件,其成本都算是0.2。
为方便测试,我们还是使用之前用到的 single_table 表,如下:
CREATE TABLE single_table (
id INT NOT NULL AUTO_INCREMENT,
key1 VARCHAR(100),
key2 INT,
key3 VARCHAR(100),
key_part1 VARCHAR(100),
key_part2 VARCHAR(100),
key_part3 VARCHAR(100),
common_field VARCHAR(100),
PRIMARY KEY (id),
KEY idx_key1 (key1),
UNIQUE KEY idx_key2 (key2),
KEY idx_key3 (key3),
KEY idx_key_part(key_part1, key_part2, key_part3)
) Engine=InnoDB CHARSET=utf8;
这个表中假设插入了的10000条记录,除 id 列外其余的列都插入随机值。
mysql> select count(*) from single_table ;
+----------+
| count(*) |
+----------+
| 10000 |
+----------+
1 row in set (0.13 sec)
在一条单表查询语句真正执行之前, MySQL 中的查询优化器会找出执行该语句所有可能使用的方案,对比之后找出成本最低的方案,这个成本最低的方案就是最后的执行计划 ,之后才会调用存储引擎提供的接口真正执行这个查询,这个过程大致总结如下:
下面通过一个实例来对应上面这些步骤,单表查询语句如下:
SELECT * FROM single_table WHERE
key1 IN (‘a’, ‘b’, ‘c’) AND
key2 > 10 AND key2 < 1000 AND
key3 > key2 AND
key_part1 LIKE ‘%hello%’ AND
common_field = ‘123’;
这个搜索条件看上去有点儿头疼,下面我们一步一步进行分析。
我们知道对于 B+ 树索引来说,只要索引列和常数使用 = 、 <=> 、 IN 、 NOT IN 、 IS NULL 、 IS NOT NULL 、 > 、 < 、 >= 、 <= 、 BETWEEN 、 != (不等于也可以写成 <> )或者 LIKE 操作符连接起来,就可以产生一个所谓的范围区间 ( LIKE匹配字符串前缀也行),也就是说这些搜索条件都可能使用到索引,在MySQL 中我们把一个查询中可能使用到的索引称之为 possible keys 。 我们分析一下上面查询中使用到的几个搜索条件:
从上面的分析可以看到该查询语句可能用到的索引( possible keys) 只有 idx_key1 和 idx_key2 。
对于 InnoDB 存储引擎来说,全表扫描就是把聚簇索引中的所有记录都依次和给定的搜索条件做一下比较,把符合搜索条件的记录加入到最后的结果中,所以需要将聚簇索引对应的页面加载到内存中,然后再检测记录是否符合搜索条件。由于查询成本= I/O 成本+ CPU 成本,所以计算全表扫描的代价需要两个信息:
这两个信息从哪获取呢?其实在MySQL 中已经为每个表维护了一系列的统计信息 ,关于这些统计信息是如何得来的我们后续说明,现在我们先来看如何查看。在 MySQL 中我们可以通过 SHOW TABLE STATUS like 表名
来查看相关表的统计信息。比如我们要查看 single_table 这个表的统计信息,如下:
mysql> show table status like '%single_table%'\G
*************************** 1. row ***************************
Name: single_table
Engine: InnoDB
Version: 10
Row_format: Dynamic
Rows: 10078
Avg_row_length: 157
Data_length: 1589248
Max_data_length: 0
Index_length: 2326528
Data_free: 4194304
Auto_increment: 10001
Create_time: 2023-10-25 09:53:13
Update_time: 2023-10-25 09:56:22
Check_time: NULL
Collation: utf8_general_ci
Checksum: NULL
Create_options:
Comment:
1 row in set (0.00 sec)
返回的结果中有很多统计选项,现在我们只关注两个:
我们现在已经得到了聚簇索引占用的页面数量以及该表记录数的估计值,所以就可以计算全表扫描成本了,但是在 MySQL 中真实计算成本时会进行一些微调 ,但是由于这些微调的值十分的小,对结果的影响不大。现在可以看一下全表扫描成本的计算过程:
综上所述,对于 single_table 的全表扫描所需的总成本就是 2,114.7。
注意:我们前边说过表中的记录其实都存储在聚簇索引对应B+树的叶子节点中,所以只要我们通过根节点获得了最左边的叶子节点,就可以沿着叶子节点组成的双向链表把所有记录都查看一遍。也就是说全表扫描这个过程其实有的B+树内节点是不需要访问的,但是在MySQL中计算全表扫描成本时是直接使用聚簇索引占用的页面数作为计算I/O成本的依据,没有区分叶子节点和非叶子节点的,所以结果不太精确。
从第1步分析我们得到,上述查询可能使用到这两个索引 idx_key1 和 idx_key2 ,我们需要分别分析单独使用这些索引执行查询的成本,最后还要分析是否可能使用到索引合并。需要注意的是, MySQL 查询优化器会先分析使用唯一二级索引的成本,再分析使用普通索引的成本,所以我们也先分析 idx_key2 的成本,然后再看使用idx_key1 的成本。
使用idx_key2执行查询的成本分析
idx_key2 对应的搜索条件是: key2 > 10 AND key2 < 1000 ,也就是说对应的范围区间就是: (10, 1000) ,
使用 idx_key2 搜索的示意图如下:
对于使用 二级索引 + 回表 方式的查询,在MySQL中计算这种查询的成本依赖两个方面的数据:
在通过二级索引获取到记录之后,下面就是回表:
设计MySQL
的人只计算这个查找过程所需的I/O
成本,也就是我们上一步骤中得到的95.0
,在内存中的定位完整用户记录的过程的成本是忽略不计的。在定位到这些完整的用户记录后,需要检测除key2 > 10 AND key2 < 1000
这个搜索条件以外的搜索条件是否成立,这个比较过程花费的CPU
成本就是:
95 x 0.2 = 19.0
其中95
是待检测记录的条数,0.2
是检测一条记录是否符合给定的搜索条件的成本常数。
所以本例中使用 idx_key2 执行查询的成本就如下所示:
使用idx_key1执行查询的成本分析
idx_key1 对应的搜索条件是: key1 IN (‘a’, ‘b’, ‘c’) ,也就是说相当于3个单点区间:
[‘a’, ‘a’]
[‘b’, ‘b’]
[‘c’, ‘c’]
使用 idx_key1 搜索的示意图如下:
与使用 idx_key2 的情况类似,我们也需要计算使用 idx_key1 时需要访问的范围区间数量以及需要回表的记录数:
所以,这三个单点区间总共需要回表的记录数就是:
35 + 44 + 39 = 118
读取这些二级索引记录的 CPU 成本就是:
118 x 0.2 + 0.01 = 23.61
得到总共需要回表的记录数之后,就要考虑:
所以本例中使用 idx_key1 执行查询的成本就如下所示:
是否有可能使用索引合并(Index Merge)
本例中有关 key1 和 key2 的搜索条件是使用 AND 连接起来的,而对于 idx_key1 和 idx_key2 都是范围查询,也就是说查找到的二级索引记录并不是按照主键值进行排序的,并不满足使用 Intersection 索引合并的条件,所以并不会使用索引合并。
下边把执行本例中的查询的各种可执行方案以及它们对应的成本列出来:
全表扫描的成本: 2037.7
使用 idx_key2 的成本: 134.01
使用 idx_key1 的成本: 168.21
很显然,使用 idx_key2 的成本最低,所以当然选择 idx_key2 来执行查询。
有时候使用索引执行查询时会有多个单点区间,比如使用 IN 语句就很容易产生非常多的单点区间,比如下边这个查询:
SELECT * FROM single_table WHERE key1 IN (‘aa1’, ‘aa2’, ‘aa3’, … , ‘zzz’);
很显然,这个查询可能使用到的索引就是 idx_key1 ,由于这个索引并不是唯一二级索引,所以并不能确定一个单点区间对应的二级索引记录的条数有多少,需要我们去计算。计算方式我们上边已经介绍过了,就是先获取索引对应的 B+ 树的 区间最左记录和区间最右记录 ,然后再计算这两条记录之间有多少记录(记录条数少的时候可以做到精确计算,多的时候只能估算)。在MySQL中把这种通过直接访问索引对应的 B+ 树来计算某个范围区间对应的索引记录条数的方式称之为 index dive 。
解释:“index dive”(索引深度)是指通过索引进行数据查找时所需要的层级深度或跳转次数。索引用于加快数据库查询效率,通过在数据表上创建索引,可以使查询速度更快。当进行数据查询时,MySQL 使用索引以快速定位到符合条件的数据行。较浅的索引深度意味着查询速度更快,因为需要更少的跳转次数来定位到目标数据。较深的索引深度可能会导致查询性能下降,因为需要进行更多的跳转操作。
有零星几个单点区间的话,使用 index dive 的方式去计算这些单点区间对应的记录数也不是什么问题,但是也不能往IN语句里面写太多参数,因为MySQL 的查询优化器为了计算这些单点区间对应的索引记录条数,有多少参数就需要进行多少次的 index dive 操作,这性能损耗很大,甚至有可能这些单点区间对应的索引记录条数的成本比直接全表扫描的成本都大。MySQL 也考虑到了这种情况,所以提供了一个系统变量eq_range_index_dive_limit ,我们看一下在 MySQL 5.7.21 中这个系统变量的默认值:
mysql> show variables like "%eq_range_index_dive_limit%";
+---------------------------+-------+
| Variable_name | Value |
+---------------------------+-------+
| eq_range_index_dive_limit | 200 |
+---------------------------+-------+
1 row in set (0.01 sec)
也就是说如果我们的 IN 语句中的参数个数小于200个的话,将使用 index dive 的方式计算各个单点区间对应的记录条数,如果大于或等于200个的话,可就不能使用 index dive 了,要使用所谓的索引统计数据来进行估算。估算的方法下面介绍。
像会为每个表维护一份统计数据一样, MySQL 也会为表中的每一个索引维护一份统计数据,查看某个表中索引的统计数据可以使用 SHOW INDEX FROM 表名 的语法,比如我们查看一下 single_table 的各个索引的统计数据可以这么写:
mysql> SHOW INDEX FROM single_table;
+--------------+------------+--------------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment |
+--------------+------------+--------------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| single_table | 0 | PRIMARY | 1 | id | A | 9982 | NULL | NULL | | BTREE | | |
| single_table | 0 | idx_key2 | 1 | key2 | A | 9904 | NULL | NULL | YES | BTREE | | |
| single_table | 1 | idx_key1 | 1 | key1 | A | 9904 | NULL | NULL | YES | BTREE | | |
| single_table | 1 | idx_key3 | 1 | key3 | A | 9904 | NULL | NULL | YES | BTREE | | |
| single_table | 1 | idx_key_part | 1 | key_part1 | A | 9905 | NULL | NULL | YES | BTREE | | |
| single_table | 1 | idx_key_part | 2 | key_part2 | A | 9905 | NULL | NULL | YES | BTREE | | |
| single_table | 1 | idx_key_part | 3 | key_part3 | A | 9905 | NULL | NULL | YES | BTREE | | |
+--------------+------------+--------------+--------------+-------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
7 rows in set (0.03 sec)
可以看到index有很多属性,说明如下:
属性名 | 描述 |
---|---|
Table | 索引所属表的名称。 |
Non_unique | 索引列的值是否是唯一的,聚簇索引和唯一二级索引的该列值为 0 ,普通二级索引该列值为 1 。 |
Key_name | 索引的名称。 |
Seq_in_index | 索引列在索引中的位置,从1开始计数。比如对于联合索引 idx_key_part ,来说, key_part1 、 key_part2和 key_part3 对应的位置分别是1、2、3。 |
Column_name | 索引列的名称。 |
Collation | 索引列中的值是按照何种排序方式存放的,值为 A 时代表升序存放,为 NULL 时代表降序存放。 |
Cardinality | 索引列中不重复值的数量。 |
Sub_part | 对于存储字符串或者字节串的列来说,有时候我们只想对这些串的前 n 个字符或字节建立索引,这个属性表示的就是那个 n 值。如果对完整的列建立索引的话,该属性的值就是 NULL 。 |
Packed | 索引列如何被压缩, NULL 值表示未被压缩。这个属性我们暂时不了解,可以先忽略掉。 |
Null | 该索引列是否允许存储 NULL 值。 |
Index_type | 使用索引的类型,我们最常见的就是 BTREE ,其实也就是 B+ 树索引。 |
Comment | 索引列注释信息。 |
Index_comment | 索引注释信息。 |
下面重点看一下Cardinality 属性, Cardinality 直译过来就是基数的意思,表示索引列中不重复值的个数。比如对于一个一万行记录的表来说,某个索引列的 Cardinality 属性是 10000 ,那意味着该列中没有重复的值,如果 Cardinality 属性是 1 的话,就意味着该列的值全部是重复的。需要注意的是,对于InnoDB存储引擎来说,使用SHOW INDEX语句展示出来的某个索引列的Cardinality属性是一个估计值,并不是精确的。关于这个 Cardinality 属性的值是如何被计算出来的我们后边再说,先看看它有什么用途。
前边说过,当 IN 语句中的参数个数大于或等于系统变量 eq_range_index_dive_limit 的值的话,就不会使用index dive 的方式计算各个单点区间对应的索引记录条数,而是使用索引统计数据,这里所指的索引统计数据指的是这两个值:
以 single_table 表的 idx_key1 索引为例,它的 Rows 值是 10078,它对应索引列 key1 的 Cardinality 值是9904,所以我们可以计算 key1 列平均单个值的重复次数就是:
10078÷ 9904≈ 1 (条)
此时再看上边那条查询语句:
SELECT * FROM single_table WHERE key1 IN (‘aa1’, ‘aa2’, ‘aa3’, … , ‘zzz’);
假设 IN 语句中有20000个参数的话,就直接使用统计数据来估算这些参数需要单点区间对应的记录条数了,每个参数大约对应 1 条记录,所以总共需要回表的记录数就是:
20000 x 1 = 20000
使用统计数据来计算单点区间对应的索引记录条数比 index dive 的方式简单多了,但是它的缺点就是:不精确!。使用统计数据算出来的查询成本与实际所需的成本可能相差非常大。
注意:大家需要注意一下,在MySQL 5.7.3以及之前的版本中,eq_range_index_dive_limit的默认值为10,之后的版本默认值为200。所以如果大家采用的是5.7.3以及之前的版本的话,很容易使用索引统计数据而不是index dive的方式来计算查询本。当你的查询中使用到了IN查询,但是却实际没有用到索引,就应该考虑一下是不是由于 eq_range_index_dive_limit 值太小导致的。
连接查询至少是要有两个表的,只有一个 single_table 表是不够的,为例测试说明,我们直接构造一个和 single_table 表一模一样的 single_table2 表。方便说明,我们把 single_table 表称为 s1 表,把 single_table2 表称为 s2 表。
前面说过, MySQL 中连接查询采用的是嵌套循环连接算法,驱动表会被访问一次,被驱动表可能会被访问多次,所以对于两表连接查询来说,它的查询成本由下边两个部分构成:
我们把对驱动表进行查询后得到的记录条数称之为驱动表的 扇出 (fanout )。很显然驱动表的扇出值越小,对被驱动表的查询次数也就越少,连接查询的总成本也就越低。当查询优化器想计算整个连接查询所使用的成本时,就需要计算出驱动表的扇出值,有的时候扇出值的计算是很容易的,比如下边这两个查询:
但是有的查询扇出值的计算就比较困难,比如下面几个查询:
在MySQL中把这个猜的过程称之为 condition filtering 。当然,这个过程可能会使用到索引,也可能使用到统计数据,总之比较复杂。
注意:在MySQL 5.7之前的版本中,查询优化器在计算驱动表扇出时,如果是使用全表扫描的话,就直接使用表中记录的数量作为扇出值,如果使用索引的话,就直接使用满足范围条件的索引记录条数作为扇出值。在MySQL 5.7中,引入的这个condition filtering的功能,就是还要猜一猜剩余的那些搜索条件能把驱动表中的记录再过滤多少条,其目的就是为了让成本估算更精确。
连接查询的成本计算公式是这样的:
连接查询总成本 = 单次访问驱动表的成本 + 驱动表扇出数 x 单次访问被驱动表的成本
对于左(外)连接和右(外)连接查询来说,它们的驱动表是固定的,所以想要得到最优的查询方案只需要:
但是对于内连接来说,驱动表和被驱动表的位置是可以互换的,所以需要考虑两个方面的问题:
可以看出计算内连接查询成本的方式稍复杂一些,下面我们以内连接为例来看看如何计算出最优的连接查询方案。
注意:左(外)连接和右(外)连接查询在某些特殊情况下可以被优化为内连接查询,我们在之后的章节中会说明这种情况。
比如下面这个查询:
SELECT * FROM single_table AS s1 INNER JOIN single_table2 AS s2 ON s1.key1 = s2.common_field WHERE s1.key2 > 10 AND s1.key2 < 1000 AND s2.key2 > 1000 AND s2.key2 < 2000;
可以选择的连接顺序有两种:
查询优化器需要分别考虑这两种情况下的最优查询成本,然后选取那个成本更低的连接顺序以及该连接顺序下各个表的最优访问方法作为最终的查询计划。我们分别来看一下(采用定性的分析,不像分析单表查询那样定量的分析):
使用 s1 作为驱动表的情况
所以此时使用 single_table 作为驱动表时的总成本就是(暂时不考虑使用 join buffer 对成本的影响):使用idx_key2访问s1的成本 + s1的扇出 × 使用idx_key2访问s2的成本
最后优化器会比较这两种方式的最优访问成本,选取那个成本更低的连接顺序去真正的执行查询。从上边的计算过程也可以看出来,连接查询成本占大头的其实是 驱动表扇出数 x 单次访问被驱动表的成本 ,所以我们的优化重点其实是下边这两个部分:
这一点对于我们实际书写连接查询语句时十分有用,我们需要尽量在被驱动表的连接列上建立索引,这样就可以使用 ref 访问方法来降低访问被驱动表的成本了。如果可以,被驱动表的连接列最好是该表的主键或者唯一二级索引列,这样就可以把访问被驱动表的成本降到更低了。
首先要考虑一下多表连接时可能产生出多少种连接顺序:
有 n 个表进行连接, MySQL 查询优化器要每一种连接顺序的成本都计算一遍么?那可是 n! 种连接顺序呀。其实真的是要都算一遍,不过在Mysql中有很多办法减少计算非常多种连接顺序的成本的方法:
前边介绍了两个成本常数 :
IO:读取一个页面花费的成本默认是 1.0
CPU:检测一条记录是否符合搜索条件的成本默认是 0.2
其实除了这两个成本常数, MySQL 还支持其他的,它们被存储到了 mysql 数据库(这是一个系统数据库,我们之前介绍过)的两个表中:
mysql> sHOW TABLES FROM mysql LIKE '%cost%';
+--------------------------+
| Tables_in_mysql (%cost%) |
+--------------------------+
| engine_cost |
| server_cost |
+--------------------------+
2 rows in set (0.01 sec)
我们知道,一条sql语句的执行其实是分为两层的:
在 server 层进行连接管理、查询缓存、语法解析、查询优化等操作,在存储引擎层执行具体的数据存取操作。也就是说一条语句在 server 层中执行的成本是和它在存储引擎执行的操作是没关系的,所以关于这些操作对应的成本常数就存储在了 server_cost 表中,而依赖于存储引擎的一些操作对应的成本常数就存储在了engine_cost 表中。
server_cost 表中在 server 层进行的一些操作对应的成本常数 ,具体内容如下:
mysql> SELECT * FROM mysql.server_cost;
+------------------------------+------------+---------------------+---------+
| cost_name | cost_value | last_update | comment |
+------------------------------+------------+---------------------+---------+
| disk_temptable_create_cost | NULL | 2023-10-11 09:43:40 | NULL |
| disk_temptable_row_cost | NULL | 2023-10-11 09:43:40 | NULL |
| key_compare_cost | NULL | 2023-10-11 09:43:40 | NULL |
| memory_temptable_create_cost | NULL | 2023-10-11 09:43:40 | NULL |
| memory_temptable_row_cost | NULL | 2023-10-11 09:43:40 | NULL |
| row_evaluate_cost | NULL | 2023-10-11 09:43:40 | NULL |
+------------------------------+------------+---------------------+---------+
6 rows in set (0.05 sec)
server_cost 表中各个列的意思解释如下:
从server_cost 中的内容可以看出来,目前在server层的一些操作对应的成本常数有以下几种:
成本常数名称 | 默认值 | 描述 |
---|---|---|
disk_temptable_create_cost | 40.0 | 创建基于磁盘的临时表的成本,如果增大这个值的话会让优化器尽量少的创建基于磁盘的临时表。 |
disk_temptable_row_cost | 1.0 | 向基于磁盘的临时表写入或读取一条记录的成本,如果增大这个值的话会让优化器尽量少的创建基于磁盘的临时表。 |
key_compare_cost | 0.1 | 两条记录做比较操作的成本,多用在排序操作上,如果增大这个值的话会提升filesort 的成本,让优化器可能更倾向于使用索引完成排序而不是 filesort 。 |
memory_temptable_create_cost | 2.0 | 创建基于内存的临时表的成本,如果增大这个值的话会让优化器尽量少的创建基于内存的临时表。 |
memory_temptable_row_cost | 0.2 | 向基于内存的临时表写入或读取一条记录的成本,如果增大这个值的话会让优化器尽量少的创建基于内存的临时表。 |
row_evaluate_cost | 0.2 | 这个就是我们之前一直使用的检测一条记录是否符合搜索条件的成本,增大这个值可能让优化器更倾向于使用索引而不是直接全表扫描。 |
注意:MySQL在执行诸如DISTINCT查询、分组查询、Union查询以及某些特殊条件下的排序查询都可能在内部先创建一个临时表,使用这个临时表来辅助完成查询(比如对于DISTINCT查询可以建一个带有UNIQUE索引的临时表,直接把需要去重的记录插入到这个临时表中,插入完成之后的记录就是最后的结果)。在数据量大的情况下可能创建基于磁盘的临时表,也就是为该临时表使用MyISAM、InnoDB等存储引擎,在数据量不大时可能创建基于内存的临时表,也就是使用Memory存储引擎。我们要知道创建临时表和对这个临时表进行写入和读取的操作代价还是比较高的。
这些成本常数在 server_cost 中的初始值都是 NULL ,意味着优化器会使用它们的默认值来计算某个操作的成本,如果我们想修改某个成本常数的值的话,需要做两个步骤:
engine_cost表 表中在存储引擎层进行的一些操作对应的成本常数 ,具体内容如下:
mysql> SELECT * FROM mysql.engine_cost;
+-------------+-------------+------------------------+------------+---------------------+---------+
| engine_name | device_type | cost_name | cost_value | last_update | comment |
+-------------+-------------+------------------------+------------+---------------------+---------+
| default | 0 | io_block_read_cost | NULL | 2023-10-11 09:43:40 | NULL |
| default | 0 | memory_block_read_cost | NULL | 2023-10-11 09:43:40 | NULL |
+-------------+-------------+------------------------+------------+---------------------+---------+
2 rows in set (0.00 sec)
与 server_cost 相比, engine_cost 多了两个列:
我们从 engine_cost 表中的内容可以看出来,目前支持的存储引擎成本常数只有两个:
成本常数名称 | 默认值 | 描述 |
---|---|---|
io_block_read_cost | 1.0 | 从磁盘上读取一个块对应的成本。注意是块,而不是页。对于InnoDB 存储引擎来说,一个页就是一个块,不过对于 MyISAM 存储引擎来说,默认是以4096 字节作为一个块的。增大这个值会加重 I/O 成本,可能让优化器更倾向于选择使用索引执行查询而不是执行全表扫描。 |
memory_block_read_cost | 1.0 | 与上一个参数类似,只不过衡量的是从内存中读取一个块对应的成本。 |
注意这两个成本常数的默认值是是一样的,那么为什么从内存中和从磁盘上读取一个块的默认成本是一样的,这主要是因为在 MySQL 目前的实现中,并不能准确预测某个查询需要访问的块中有哪些块已经加载到内存中,有哪些块还停留在磁盘上,所以在MySQL 中就全部认为不管这个块有没有加载到内存中,使用的成本都是 1.0 ,不过随着 MySQL 的发展,等到可以准确预测块的位置时,这两个成本常数的默认值可能就会不一样。
与更新 server_cost 表中的记录一样,我们也可以通过更新 engine_cost 表中的记录来更改关于存储引擎的成本常数,我们也可以通过为 engine_cost 表插入新记录的方式来添加只针对某种存储引擎的成本常数:
更多关于mysql的知识分享,请前往博客主页。编写过程中,难免出现差错,敬请指出