8.2.1.9 LEFT JOIN和RIGHT JOIN优化
8.2.1.13 多区间读优化(Multi-Range Read Optimization)
8.2.1.14 块嵌套循环和批量Key访问连接(Block Nested-Loop and Batched Key Access Joins)
8.3.5 复合索引(Mutiple-column Indexes)
8.8.5.2 控制开关优化(Controlling Switchable Optimizations)
8.10.2 发生表锁(Table Locking Issues)
8.11.3.1 使用符号链接(Using Symbolic Links)
数据库性能依赖于多个因素,在数据库级别,如表,查询,配置。硬件级别如cpu,IO。
一般的用户可以使用现有工具来获得最好的性能,高级用户可以通过修改代码来提高性能。
Ÿ 数据库级别的优化
s 使用合适表结构,定义合适的字段类型,如果定义的太大,当数据量大的时候会出明显的空间浪费。
s 使用合适的索引,来提高查询性能
s 保证每个表使用了合适的引擎,要注意非事务引擎和事务引擎的区别
s 每个表是否有合适的行格式,如,压缩表读写的时候比普通表耗的IO要小。
s 应用程序是否使用合适的锁策略,innodb存储引擎的锁机制提供了很好的并发性。
s 所有用来缓存的内存,大小是否合适。主要是innodb的buffer pool和myisam的key cache和mysql的query cache。
Ÿ 硬件级别优化
任何db上的问题都是硬件造成的问题,而dba是调整应用程序,或者重新配置服务来避免。
s 磁盘查找(Disk seeks),现在的磁盘,平均时间是10ms,也就是说1s理论上能运行100次。如果出现瓶颈为了优化可以把数据放到不同的磁盘。
s 磁盘读写(Disk reading and writing),现在的磁盘吞吐量能够达到10-20MB/s
s CPU
s 内存带宽,当cpu需要的数据超过cpu cache,那么主存的带宽就会变成瓶颈,虽然对大多数系统来说不可能成为瓶颈,但是还是要注意。
Ÿ 可移植性和性能之间平衡
为了性能还可以使用/*! */对优化器进行提示。
主要考虑一下几点来优化:
Ÿ 为了让一个select….where…语句速度变快,首先检查是否可以增加一个索引。按where子句来创建索引可以加快评估,过滤和结果获取。为了避免索引而导致空间浪费,尽量使用小索引。
可以使用explain语句确定索引是否用户查询
Ÿ 隔离和跳转查询的任意部分,比如函数,在查询中调用函数可能一个查询调用一次,也可能每行调用一次。
Ÿ 最少化表扫描,特别是大表
Ÿ 定期使用ANALYZE TABLE语句,保持统计信息最新。
Ÿ 调整基数,索引技术和参数配置。
Ÿ 避免变化语句,而导致语句难以理解
Ÿ 如果性能问题不能通过简单的调整解决,那么就查看查询内部,研究EXPLAIN语句返回并调整索引,where子句,join子句,等等。
Ÿ 调整mysql用来缓存的内存区的大小。主要是innodb的buffer pool和myisam的key cache。
Ÿ 尽管使用内存语句执行很快,但是也要调整减少内存使用,提高可扩展性。
Ÿ 处理锁问题。
Where子句出现在delete,insert,update,select语句中,本节以select为例。
注意:Mysql的优化器是不断在更新的,所以不是所有的优化被写入文档
你可能获取优化语句,但是mysql优化器也会自动去做相同的工作,所以应该去做让语句更加易懂的工作。一些优化方法:
Ÿ 删除没必要的括号
((a AND b) AND c OR (((a AND b) AND (c AND d))))
-> (a AND b AND c) OR (a AND b AND c AND d)
Ÿ 常亮合并
(a<b AND b=c) AND a=5
-> b>5 AND b=c AND a=5
Ÿ 删除常量条件
(B>=5 AND B=5) OR (B=6 AND 5=5) OR (B=7 AND 5=6)
-> B=5 OR B=6
Ÿ 索引评估常量表达式只使用一次
Ÿ Count(*)一个简单的表,没有where直接来至于myisam和memory表信息。对于not null使用在单表上也是如此。
Ÿ 快速发现不可用的表达式,mysql会快速诊断出一些select语句永远没有返回行。
Ÿ 在没有group by或者聚合函数情况下,having和where合并。
Ÿ 对于每个join的表,简单的where可以快速的被评估,并且会尽快的跳过行。
Ÿ 所有的常量表都会被先读入,常量表定义:
s 空的表或者只有一行的表
s 使用了primary key或者unique索引,的所有key进行对常量表达式的比较。
SELECT * FROM t WHERE primary_key
=1;
SELECT * FROM t1,t2
WHERE t1.primary_key
=1 AND t2.primary_key
=t1.id;
Ÿ 最好的join组合是通过尝试所有join的可能找到的,如果所有的order by,group by列都来自同一个表,那么这个表会被优先读入。
Ÿ 如果启动了SQL_SMALL_RESULT选项,那么MySQL会使用in-memory临时表
Ÿ 如果表的索引被查询,最好的索引将会被使用,除非优化器坚信表扫描性能更好。
Ÿ 当索引覆盖的时候,mysql可以从索引直接读入数据,不需要去读原始记录。
Ÿ 在行输入之前,哪些不满足having子句的会被跳过。
range访问是使用索引获取表记录的子集。
定义简单索引Range条件如下:
Ÿ 对于BTREE和HASH索引,使用常量来比较key,使用=,<=>,in(),is null或者is not null。
Ÿ 对于BTREE还可以使用>,<,>=,<=,BETWEEN,!=(<>)或者LIKE操作。
Ÿ 对于对个range条件,通过使用or或者and组合成一个range条件
常量值:1.来自查询,2.来自const或者system表,3.不相关子查询的结果,4.前面几种情况的表达式。
range条件的例子:
SELECT * FROM t1
WHERE key_col
> 1
AND key_col
< 10;
SELECT * FROM t1
WHERE key_col
= 1
OR key_col
IN (15,18,20);
SELECT * FROM t1
WHERE key_col
LIKE 'ab%'
OR key_col
BETWEEN 'bar' AND 'foo';
在常量生成阶段,某些非常量值可以转化成常量值。
mysql会视图每个可能的索引获取range条件,在获取range条件时,不满足的条件会被删除(设为true),重叠的range条件会被合并,空的条件会被删除。
如:key1是索引列,nonkey不是索引
SELECT * FROM t1 WHERE
(key1 < 'abc' AND (key1 LIKE 'abcde%' OR key1 LIKE '%b')) OR
(key1 < 'bar' AND nonkey = 4) OR
(key1 < 'uux' AND key1 > 'z');
1.获取原始where子句
(key1 < 'abc' AND (key1 LIKE 'abcde%' OR key1 LIKE '%b')) OR
(key1 < 'bar' AND nonkey = 4) OR
(key1 < 'uux' AND key1 > 'z')
2.删除nonkey=4和key1 like ‘%b’因为不能用于range scan,删除的做法是把这2个条件设为true,这样条件就不会被减少。
(key1 < 'abc' AND (key1 LIKE 'abcde%' OR TRUE)) OR
(key1 < 'bar' AND TRUE) OR
(key1 < 'uux' AND key1 > 'z')
3.折叠总是为true或者false的条件
(key1 LIKE 'abcde%' OR TRUE) 总是为true
(key1 < 'uux' AND key1 > 'z') 总为false
(key1 < 'abc' AND TRUE) OR (key1 < 'bar' AND TRUE) OR (FALSE)
删除没必要的true和flase条件
(key1 < 'abc') OR (key1 < 'bar')
4.合并条件
(key1 < 'bar')
通常,用于range scan的条件限制比较少,然后mysql执行检查过滤出满足range条件的记录。而不是过滤整个where子句。
range条件提取算法可以处理任意深度的and/or嵌套,并且输出和range条件在where子句中的位置无关。
目前,mysql还不支持在空间索引上进行range条件合并。因为这个限制,可以使用union2个独立select语句,然后把空间每个空间谓词放到各自的select中。
复合索引上的Range条件是简单索引上的Range条件的扩展。在复合索引下,Range条件是使用key组合。
如:
key_part1 key_part2 key_part3
NULL 1 'abc'
NULL 1 'xyz'
NULL 2 'foo'
1 1 'abc'
1 1 'xyz'
1 2 'abc'
2 1 'aaa'
如:条件key_part1=1定义的区间为:
(1,-inf,-inf) <= (key_part1,key_part2,key_part3) < (1,+inf,+inf)
以下描述说明了在复合索引情况下range条件如何工作:
Ÿ 对于hash索引来说,每个区间表示相同的值,比较运算符只能是 =,<=>,is null,is not null。
Ÿ 对于btree,条件可以使用and连接,每个条件都可以使用>,<,>=,<=,!=,<>,between,like。
如条件:
key_part1 = 'foo' AND key_part2 >= 10 AND key_part3 > 10
转化为区间后:
('foo',10,-inf) < (key_part1,key_part2,key_part3) < ('foo',+inf,+inf)
Ÿ 如果条件覆盖的行是多个使用or连接的区间,那么形成一个条件覆盖的行是多个区间的并集。如果是用and连接的,那么会形成一个条件覆盖的行是多个区间的交集。
如:
(key_part1 = 1 AND key_part2 < 2) OR (key_part1 > 5)
区间是:
(1,-inf) < (key_part1,key_part2) < (1,2)
(5,-inf) < (key_part1,key_part2)
在explain中key_len是最大key前缀。key_len可以说吗key使用的情况,但是可能和预期的不一样。
多值等式的情况:
col_name IN(val1, ..., valN)
col_name = val1 OR ... OR col_name = valN
如果col_name等于其中的某一些值,serveral就为true。等式range读取符合条件的行花费评估如下:
Ÿ 如果在col_name上有唯一索引,行评估为1,因为一个给定值只能有一行。
Ÿ 否则使用索引的统计信息。
使用index dive,优化器为每个range dive,使用range内的行数作为评估。
如col_name in (10,20,30),三个等式range,然后为每个range做2个dive,生成一个行评估。每对dive为给定值生成评估。
index dive提供了准确的行评估,当比较值越多,评估时间也就越大,使用统计信息评估准确率稍微低一点,但是速度比index dive评估快。
eq_range_index_dive_limit变量,说明可以等式数在变量值内那么可以使用。如果都要使用index dive那么把值设为0。如果N个等式一下都使用index dive那么设置为N+1。
使用ANALYZE TABLE来优化索引统计信息。
索引合并是通过合并多个range扫描为一个。合并可以产生交集,并集或者合并底层扫描的交集。这些合并方法只能合并单个表,不能合并多个表的扫描。
在EXPLAIN输出,索引合并是在type列中值为index_merge,key列包含了使用的索引,key_len指使用的索引最长key。
如:
SELECT * FROM tbl_name WHERE key1 = 10 OR key2 = 20;
SELECT * FROM tbl_name
WHERE (key1 = 10 OR key2 = 20) AND non_key=30;
SELECT * FROM t1, t2
WHERE (t1.key1 IN (1,2) OR t1.key2 LIKE 'value%')
AND t2.key1=t1.some_col;
SELECT * FROM t1, t2
WHERE t1.key1=1
AND (t2.key1=t1.some_col OR t2.key2=t1.some_col2);
索引合并有以下几个算法:
Ÿ Using intersect()
Ÿ Using union()
Ÿ Using sort_union()
注意:索引合并优化算法有以下已知的不足:
Ÿ 如果你的查询有复杂的where,and/or嵌套并且mysql没有使用最有的计划,尝试使用以下的样式:
(x AND y) OR z = (x OR z) AND (y OR z)
(x OR y) AND z = (x AND z) OR (y AND z)
Ÿ 索引合并不能使用在全文索引。
Ÿ 在5.6.6前,如果range scan在一些key,优化器不会考虑使用索引合并
SELECT * FROM t1 WHERE (goodkey1 < 10 OR goodkey2 < 20) AND badkey < 30;
这个查询计划2种可能:
1.在(goodkey1 < 10 OR goodkey2 < 20) 上使用索引合并
2.在badkey < 30上使用range scan
当where子句转为成了多个Range条件,用不同的key使用and连接,那么这个算法可用。每个条件是以下:
Ÿ 这个方式,索引有N个部分(索引所有部分都被覆盖)
key_part1
=const1
ANDkey_part2
=const2
... ANDkey_partN
=constN
Ÿ 任何range条件在innodb表的primary key
如:
SELECT * FROMinnodb_table
WHEREprimary_key
< 10 ANDkey_col1
=20;
SELECT * FROM tbl_name
WHERE (key1_part1
=1 ANDkey1_part2
=2) ANDkey2
=2;
索引交集合并访问算法是同时scan多个索引按scan的接收顺序为交叉行顺序处理。
如果查询中使用的列覆盖了索引,那么不需要去表上读其他数据。EXPLAIN输出中extra为using index。如:
SELECT COUNT(*) FROM t1 WHERE key1=1 AND key2=1;
当所有没有覆盖所有列,那么就要去表上获取其他需要的列。
若其中一个合并条件是primary key不会另外取表上取行,而是从条件中获取。
当where子句转化为多个range条件,并且条件之间使用or连接,那么算法可用,每个条件以下:
Ÿ 这个方式,索引有N个部分(索引所有部分都被覆盖)
key_part1
=const1
ANDkey_part2
=const2
... ANDkey_partN
=constN
Ÿ 任何range条件在innodb表的primary key
Ÿ 索引交集合并算法可用的条件
如:
SELECT * FROM t1 WHERE key1=1 OR key2=2 OR key3=3;
SELECT * FROM innodb_table WHERE (key1=1 AND key2=2) OR
(key3='foo' AND key4='bar') AND key5=5;
当where子句转化为多个range条件,并且条件之间使用or连接,但是不适用于索引并集合并访问算法。
如:
SELECT * FROM tbl_name WHERE key_col1 < 10 OR key_col2 < 20;
SELECT * FROM tbl_name
WHERE (key_col1 > 10 OR key_col2 = 20) AND nonkey_col=30;
sort-union算法和union算法不同的是要在返回航之前先对行id进行排序。
引擎pushdown条件,是条件被pushed down到了存储引擎来评估。这个优化只能在NDB引擎上有用。
对于mysql cluster来说,这个优化可以评估需要在cluster节点和mysql服务之间发送多少不必要的行,并且可以加快查询速度。
条件pushdown可以用在非索引列和常量比较。
CREATE TABLE t1 (
a INT,
b INT,
KEY(a)
) ENGINE=NDB;
SELECT a, b FROM t1 WHERE b = 10;
mysql> EXPLAIN SELECT a,b FROM t1 WHERE b = 10\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: t1
type: ALL
possible_keys: NULL
key: NULL
key_len: NULL
ref: NULL
rows: 10
Extra: Using where with pushed condition
但是不能用于以下两种情况:
SELECT a,b FROM t1 WHERE a = 10;
SELECT a,b FROM t1 WHERE b + 1 = 10;
第一个语句因为a上有索引,所以不能用pushdown,因为用索引访问更加有效。
第二个语句因为b并不是直接比较,所以也不能使用pushdown
其他可以pushdown的条件:
·
column
[NOT] LIKE pattern
·
column IS [NOT] NULL
·
column IN (value_list
)
·
column
BETWEEN constant1 AND constant2
pattern必须是包含了模式匹配的字符串
value_list是常量或者字符常量
constant1和constant2必须是常量或者字符
引擎条件pushdown默认是启动的,要disable掉,需要设置optimizer_switch系统变量
[mysqld]
optimizer_switch=engine_condition_pushdown=off
或者在启动的时候
SET optimizer_switch='engine_condition_pushdown=off';
限制:引擎条件pushdown限制:
Ÿ 条件pushdown只支持NDB
Ÿ 列只能和常量比较或者常量表达式比较
Ÿ BLOB,TEXT类型不能用于列比较
Ÿ 如果是比较字符串必须使用相同的排序规则
Ÿ join不能直接支持,有可能的时候涉及到多个表会被分开push。
索引条件pushdown(icp)是mysql通过索引从表上获取数据的另一种优化。
如果没有使用icp存储引擎比那里索引来定位表中的行并且返回给mysql。
如果使用icp,若where的部分条件可以使用索引评估,mysql服务把这部分条件push到存储引擎,然后存储引擎通过索引项来评估这个push下来的条件。并且只有满足的行才能被读取。
icp可以减少存储过程必须访问基表的次数,和访问存储引擎的次数。
当索引条件pushdown不可用,索引扫描是如何处理的:
1.获取下一行,先读取索引组,然后使用索引组定位到表中的行。
2.然后测试where中的行,根据test结果,接受或者拒绝。
当索引条件pushdown可用,过程:
1.获取下一行索引组。
2.test应用到这个表的部分where条件,通过索引给的列进行test,如果条件不满足就获取一行的索引组。
3.如果条件满足使用索引组定位并且读取表行。
4.测试where中剩下的部分。根据测试结果决定是接受或者拒绝。
当使用索引条件pushdown的时候,在explain输出的时候extra列显示Using index condition,不会显示index only因为还会去表上读记录。
假设有个联系方式的表,里面有索引index(zipcode,lastname,firstname)。当你执行一下语句的时候:
SELECT * FROM people
WHERE zipcode='95054'
AND lastname LIKE '%etrunia%'
AND address LIKE '%Main Street%';
MySQL会通过zipcode扫描people表,lastname并不能够使用来查找索引,所以没有索引条件pushdown,查询会获取说有zipcode为95054的所有记录。
使用了索引条件pushdown,mysql会先检查lastname,避免获取不能匹配lastname的记录。
索引条件pushdown默认启动,可以通过optimizer_switch系统变量设置index_condition_pushdown标记,来设置是否启动。
参考阅读:浅析index condition pushdown
innodb自动会为每个secondary索引扩展,为secondary key后面加上primary key。
CREATE TABLE t1 (
i1 INT NOT NULL DEFAULT 0,
i2 INT NOT NULL DEFAULT 0,
d DATE DEFAULT NULL,
PRIMARY KEY (i1, i2),
INDEX k_d (d)
) ENGINE = InnoDB;
primary key在i1,i2。也定义了索引k_d在列d上,innodb内部扩展之后实际索引列为d,i1,i2。
在mysql 5.6.9之前,优化器选择索引的时候是不会去关心secondary上primary key列。
在mysql 5.6.9之后,被扩展的部分也会被考虑到,并且会产生很有效的查询计划和性能。
使用ref,range,index_merge索引访问都可以使用扩展的secondary索引。
INSERT INTO t1 VALUES
(1, 1, '1998-01-01'), (1, 2, '1999-01-01'),
(1, 3, '2000-01-01'), (1, 4, '2001-01-01'),
(1, 5, '2002-01-01'), (2, 1, '1998-01-01'),
(2, 2, '1999-01-01'), (2, 3, '2000-01-01'),
(2, 4, '2001-01-01'), (2, 5, '2002-01-01'),
(3, 1, '1998-01-01'), (3, 2, '1999-01-01'),
(3, 3, '2000-01-01'), (3, 4, '2001-01-01'),
(3, 5, '2002-01-01'), (4, 1, '1998-01-01'),
(4, 2, '1999-01-01'), (4, 3, '2000-01-01'),
(4, 4, '2001-01-01'), (4, 5, '2002-01-01'),
(5, 1, '1998-01-01'), (5, 2, '1999-01-01'),
(5, 3, '2000-01-01'), (5, 4, '2001-01-01'),
(5, 5, '2002-01-01');
在不考虑扩展索引的情况下,因为k_d只被当做是d:
mysql> EXPLAIN SELECT COUNT(*) FROM t1 WHERE i1 = 3 AND d = '2000-01-01'\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: t1
type: ref
possible_keys: PRIMARY,k_d
key: k_d
key_len: 4
ref: const
rows: 5
Extra: Using where; Using index
在考虑扩展扩展索引的情况下,k_d被当做是d,i1,i2所以查询可以使用,d,i1
mysql> EXPLAIN SELECT COUNT(*) FROM t1 WHERE i1 = 3 AND d = '2000-01-01'\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: t1
type: ref
possible_keys: PRIMARY,k_d
key: k_d
key_len: 8
ref: const,const
rows: 1
Extra: Using index
2个语句都是使用了k_d索引,但是explain语句输出切实不同:
Ÿ key_len从4字节变成8字节,说明lookup使用了d,i1,而不是d。
Ÿ ref从const变成了const,const,索引是2个key而不是1个。
Ÿ rows从5变成了1,说明读取的行更加少。
Ÿ extra值从using where;using index变成了using indexs说明只需要从index上获取数据就可以满足
是否考虑扩展索引,也可以冲show status上看出不同
FLUSH TABLE t1;
FLUSH STATUS;
SELECT COUNT(*) FROM t1 WHERE i1 = 3 AND d = '2000-01-01';
SHOW STATUS LIKE 'handler_read%'
flush table,flush status刷新表cache和清理status计数。
没有索引扩展,show status输出
+-----------------------+-------+
| Variable_name | Value |
+-----------------------+-------+
| Handler_read_first | 0 |
| Handler_read_key | 1 |
| Handler_read_last | 0 |
| Handler_read_next | 5 |
| Handler_read_prev | 0 |
| Handler_read_rnd | 0 |
| Handler_read_rnd_next | 0 |
+-----------------------+-------+
使用索引扩展,show status过程产生结果。Handler_read_next值从5到1,说明了索引扩展更加有效。
+-----------------------+-------+
| Variable_name | Value |
+-----------------------+-------+
| Handler_read_first | 0 |
| Handler_read_key | 1 |
| Handler_read_last | 0 |
| Handler_read_next | 1 |
| Handler_read_prev | 0 |
| Handler_read_rnd | 0 |
| Handler_read_rnd_next | 0 |
+-----------------------+-------+
optimizer_switch系统变量use_index_extensions标记。默认是启动的,可以通过禁用功能来检查性能是否有提升。
SET optimizer_switch = 'use_index_extensions=off';
索引扩展搜到key个数的限制(16个)和可以长度的限制(3072字节)。
在MySQL中col_name is null 和col_name=constant_value使用相同的优化,mysql中可以使用is null来查找null值。
如果where子句中,对一个not null列使用了is null那么就会被优化掉。这个优化就不可能会在有可能为null的列中出现,比如left join的右侧表。
MySQL也能优化col_name=exp or col_name is null,当优化器使用的时候explain会显示ref_or_null。
ref_or_null,先按给的值读,然后读值为null的。
注意,优化器只能处理一个is null,如下面情况,只能处理t1.a=t2.a and t2.a is null不能处理b上面的
SELECT * FROM t1, t2
WHERE (t1.a=t2.a AND t2.a IS NULL)
OR (t1.b=t2.b AND t2.b IS NULL);
Mysql实现A LEIFT JOIN B join_condition如下:
Ÿ 表B依赖于表A和表A依赖的表。
Ÿ 表A依赖于除了表B之外使用在LEFT JOIN上的表
Ÿ LEFT JOIN条件用来决定如何从表B上获取数据
Ÿ 所有标准的join优化都会被执行,除了表一定要读完依赖的表之后才读。如果出现循环的依赖关系,mysql就会报错。
Ÿ 所有的标准where都会被执行
Ÿ 如果A中有一行满足where条件,但是没有对应的B中的记录,那么就生产一个全是null的B的记录
Ÿ 如果使用left join是为了发现哪些行不再另外一些表中,可以做以下测试,在where中使用col_name is null,col_name被定义为not null的。
RIGHT JOIN和LEFT JOIN类似,只是角色换了一下。
优化器会计算join的顺序,但是如果使用left join或者straight join会帮助优化器更快的工作,因为已经强制了join顺序,如果使用一下类型,mysql会全扫描b,因为left join强制要求在d之前读取
SELECT *
FROM a JOIN b LEFT JOIN c ON (c.key=a.key)
LEFT JOIN d ON (d.key=a.key)
WHERE b.key=d.key;
可以通过调换 a和b的顺序来调整
SELECT *
FROM b JOIN a LEFT JOIN c ON (c.key=a.key)
LEFT JOIN d ON (d.key=a.key)
WHERE b.key=d.key;
对于生产null来说where 条件总是错误的,那么left join会转化为 inner join
SELECT * FROM t1 LEFT JOIN t2 ON (column1) WHERE t2.column2=5;
理论上来说转化为inner join是没问题的
SELECT * FROM t1, t2 WHERE t2.column2=5 AND t1.column1=t2.column1;
一个简单的嵌套循环连接算法,是从第一个表读入然后一行一行的传入嵌套内表的。
假设有表t1,t2,t3
Table Join Type
t1 range
t2 ref
t3 ALL
join执行类似于:
for each row in t1 matching range {
for each row in t2 matching reference key {
for each row in t3 {
if row satisfies join conditions,
send to client
}
}
}
因为嵌套循环连接每次传递一行到内表中,通常要在内表处理好多次。
块嵌套循环连接算法,会对外表的行进行缓存来减少在内表的读取时间。以数量级方式,减少了内表表读取次数。
MySQL使用连接缓存(join buffer)有一下几个条件:
Ÿ join_buffer_size系统变量决定了每个join buffer的大小
Ÿ 连接缓存可以用于ALL,index,range连接类型
Ÿ 每个join都有一个缓存,所以一个查询可能有多个缓存。
Ÿ 连接缓存不会为第一个非常量表,甚至是类型为ALL或者index。
Ÿ 连接缓存在执行连接的时候被分配,然后在查询完成后被释放。
Ÿ 只有join感兴趣的列会被保存在连接缓存,并不会保存所有的行
for each row in t1 matching range {
for each row in t2 matching reference key {
store used columns from t1, t2 in join buffer
if buffer is full {
for each row in t3 {
for each t1, t2 combination in join buffer {
if row satisfies join conditions,
send to client
}
}
empty buffer
}
}
}
if buffer is not empty {
for each row in t3 {
for each t1, t2 combination in join buffer {
if row satisfies join conditions,
send to client
}
}
}
如果t1,t2保存在连接缓存的组合大小为S,组合个数为C,那么t3扫描次数是:
(S
*C
)/join_buffer_size + 1
t3的扫描次数会随着join_buffer_si增加而减少,当连接缓存增加到了可以包含所有记录,在大也不能减少扫描次数。
table_factor在标准sql上被扩展,不接受括号里面都是表的方式。
SELECT * FROM t1 LEFT JOIN (t2, t3, t4)
ON (t2.a=t1.a AND t3.b=t1.b AND t4.c=t1.c)
可以转化为
SELECT * FROM t1 LEFT JOIN (t2 CROSS JOIN t3 CROSS JOIN t4)
ON (t2.a=t1.a AND t3.b=t1.b AND t4.c=t1.c)
在mysql中 inner join和cross join是相等的,但是在标准的SQL是不相等的。
通常只有inner join操作括号可以忽略,对于out join括号不能去掉或者变化,都有可能带来结果的不同。
准确的说是在left join的右边不能忽略括号,在right join的左边不能忽略括号。
外连接的算法和内连接的算法是相似的
SELECT * FROM T1 INNER JOIN T2 ON P1(T1,T2)
INNER JOIN T3 ON P2(T2,T3)
WHERE P(T1,T2,T3).
如果P(T1,T2,T3)可以做一下拆分:
P(T1,T2,T2) = C1(T1) AND C2(T2) AND C3(T3).
算法会变成:
(T2 LEFT JOIN T3 ON P2(T2,T3))
FOR each row t1 in T1 such that C1(t1) {
FOR each row t2 in T2 such that P1(t1,t2) AND C2(t2) {
FOR each row t3 in T3 such that P2(t2,t3) AND C3(t3) {
IF P(t1,t2,t3) {
t:=t1||t2||t3; OUTPUT t;
}
}
}
}
会发现C1(T1) , C2(T2) , C3(T3)被push出了循环,如果C1(T1)是很好的过滤条件,那么会减少很多行到内表。
out join也类似。
具体看:http://dev.mysql.com/doc/refman/5.6/en/nested-join-optimization.html
具体看:http://dev.mysql.com/doc/refman/5.6/en/outer-join-simplification.html
在secondary索引上使用range扫描会导致很多磁盘随机访问。Mysql通过MRR优化来减少磁盘随机读写:
1.先扫描所有手机相关的行
2.对key进行排序,然后通过primary key顺序从表上获取数据。
MRR算法是把随机读写转成顺序读写,来降低随机访问次数。
MRR优化提供了以下好处:
Ÿ MRR让数据根据索引组,顺序访问而不是随机访问。服务获取一组符合查询条件的索引组,根据ROWID排序(默认primary key),然后根据这个顺序获取数据。
Ÿ MMR可以批量处理key访问请求,通过索引组访问数据行。如区间索引扫描,等式join以索引为join属性。
以下场景演示了使用MRR优化的好处:
场景1:MRR被用来innodb和myisam表的索引区间扫描和等式join
1.部分索引组被存到buffer
2.这些组以rowid被排序
3.数据组根据排序好的索引组顺序访问。
场景2:MRR在NDB表上进行索引区间扫描和等式join
1.部分range被存在提交查询节点的buffer中。
2.range被发送到需要执行的节点上
3.被访问的行被打包并发送到查询提交的节点
4.接受的包内的数据行被写入到buffer
5.数据行从buffer中被读取
当使用MMR,explain中的extra列为using MMR。
如果innodb和myisam表不需要访问表上的行,那么就不会使用MRR。因为数据可以从索引组上获取,没必要在访问表。
使用MRR的例子,index(key_part1,key_part2):
SELECT * FROM t
WHERE key_part1 >= 1000 AND key_part1 < 2000
AND key_part2 = 10000;
若不是用MRR,会扫描1000到2000的所有记录不管key_part2的值
若使用MRR,扫描会被分为多个range(1000,1001,…,1999),每个单独的值都会去找key_part2=10000,若有很多组都不是10000,那么MRR只需要读取很少的行。
optimizer_switch系统变量中的mrr标记控制MRR优化是否启动。mrr_cost_based标记控制是否根据cost决定是否使用MRR,默认2个都是on。
对于MRR,read_rnd_buffer_size控制buffer的大小,read_rnd_buffer_size决定了一趟能够处理多少range。
在MySQL5.6,join buffer可以用来执行 inner join,out join和semi join。
join buffer的管理是很简洁有效的:对于NULL值buffer并不会为它分配跟多的字节,最小化分配给varchar类型的字节数。
代码支持2个类型的buffer,常规的和增量的,假设buffer B1用于t1和t2的join,join结果和t3 join使用B2:
Ÿ 如果是常规join buffer,B2是常规join buffer,那么每一行都包含B1的r1和t2感兴趣列的r2的组合。
Ÿ 如果是增量join buffer,只包含下一个join生产的。如果B2是增量buffer,B2只包含了t2的r2和指向r1的指针。
增量join buffer总是以增量的方式对应到之间的join buffer,所以第一个join操作总是常规的。如例子中,B1总是常规join buffer。
增量buffer中用来join操作的每一行都只包含来自被join表的被感兴趣的列。通过引用的方式。只要这些行可以匹配r,那么一些增量buffer中的行可以指向同一个行r。
增量buffer可以减少复制之前join产生的列,这样可以减少空间。因为减少了复制,也可以为处理节省时间。
optimizer_switch中的block_nested_loop和batched_key_access标记控制优化器使用这2个算法。默认block_nested_loop是启动的,batched_key_access是关闭的。
变量optimizer_join_cache_level控制了join buffer管理。
MySQL 5.6之后,块嵌套循环算法才支持外连接和半连接。
如果使用外连接,每一个有第二个操作产生的行和join buffer中的行匹配,如果能匹配到一个扩展行就产生,通过下一个join进一步扩展。剩下的没有被扩展的行,都以null来扩展。
如果使用BNL,explain输出中的extra包含using join buffer并且type职位all,index,range。
批量key访问(BKA)被应用在,在访问另外一个表时有索引可用。
1.BKA使用join buffer保存由join的第一个操作产生的感兴趣的数据。
2.然后BKA算法,生产key来访问被连接的表,并批量提交到数据库index查找,使用MRR接口提交keys。
3.提交keys之后,MRR使用最佳的方式来获取行。
MRR接口有2个应用场景:
场景1:应用于传统的基于磁盘的存储引擎(innodb,myisam),对于这些引擎join buffer中keys是一次性提交到MRR,MRR通过key找到rowid,通过rowid来获取数据
场景2:用于远程存储引擎(NDB),来自join buffer上的部分key,从SQL NODE发送到DATA NODE,然后SQL NODE会收到通过相关关系匹配的行组合。然后使用这些行组合匹配出新行。
然后在发送新key,知道发完为止。
如果使用了BKA,explain的extra会显示using join buffer(batch key access)并且type为ref或者eq_ref。
当MySQL使用索引能够满足ORDER BY的时候就不需要做任何处理。
可以使用索引解决排序的例子:
SELECT * FROM t1
ORDER BY key_part1,key_part2,... ;
SELECT * FROM t1
WHERE key_part1 = constant
ORDER BY key_part2;
SELECT * FROM t1
ORDER BY key_part1 DESC, key_part2 DESC;
SELECT * FROM t1
WHERE key_part1 = 1
ORDER BY key_part1 DESC, key_part2 DESC;
SELECT * FROM t1
WHERE key_part1 > constant
ORDER BY key_part1 ASC;
SELECT * FROM t1
WHERE key_part1 < constant
ORDER BY key_part1 DESC;
SELECT * FROM t1
WHERE key_part1 = constant1 AND key_part2 > constant2
ORDER BY key_part2;
因为索引本来就是排序的按 key_part1, key_part2, key_part3…key_partn如果违反了都需要另外排序。
可以使用explain语句查看mysql是否使用索引解决了排序问题,如果extra列有using filesort索引没有解决这个问题。
mysql的filesort有2个算法,一个算法只是对需要order by的字段进行排序,另外一个修改后的方法是对所有字段进行排序。
通常优化器使用修改后的方法,除非有BLOB或者TEXT字段,不管什么算法,排序缓存都是sort_buffer_size。
原始的filesort算法如下:
1.读取匹配where条件的数据
2.对于每行,存排序的key和rowid到sort buffer
3.如果key和rowid都放在sort buffer中,就不需要创建临时文件。当sort buffer满了,运行快速排序,然后写入到临时文件。保留sorted block指针。
4.重复处理直到所有的行都被读取
5.执行merge buffer到另外一个文件,直到所有的在第一个文件中的block在了第二个文件中。
6.一直merge buffer直到剩下2个block
7.最后一次merge,只写入rowid到结果表
8.根据排序结果中的rowid顺序读取数据。(手册中还提到了一个优化方案,但是我不认为能起到优化作用)。
这个方法的一个问题是需要读2次数据,一次是读排序列,一次是排好之后读取数据输出,而且都是随机访问。
修改后的filesort算法避免两次读取,会记录排序规则,而不是rowid,也会记录被查询应用的列。算法如下:
1.读取匹配where的数据
2.记录排序列和查询用到的列
3.当buffer满,对排序列排序,放到临时文件。
4.当合并完临时文件之后,直接输出。
修改后的方法,列长于原来的方法。很有可能会产生大量IO,让排序变得很慢。为了避免这个问题,优化器会所有读取列的长度小于max_length_for_sort_data系统变量,才会选择修改后的算法。
当filesort完成,explain输出中extra会有using filesort,优化器跟踪输出中filesort_summary块:
"filesort_summary": {
"rows": 100,
"examined_rows": 100,
"number_of_tmp_files": 0,
"sort_buffer_size": 25192,
"sort_mode": "<sort_key, additional_fields>"
}
其中sort mode就说了算法:
<sort_key,rowid>表示原始的算法
<sort_key,addtitional_filed>表示是修改后的算法
为了提高排序速度,可以检查是否可以使用索引,如果不能使用:
1.增加sort_buffer_size的大小
2.增加read_rnd_buffer_size的大小
3.通过表设计减少空间占用
4.修改tmpdir目录指向专用文件系统
如果order by没有使用索引,但是有limit子句,那么优化器可能可以避免合并临时文件,直接在内存中排序。
最简单的方法,是GROUP BY子句然后扫描整个表,创建临时表,临时表中的数据是按分组顺序的(按分组字段顺序的)。
然后使用临时表发现各个分组,然后应用聚合函数。如果可以使用索引那么就可以避免创建临时表。
GROUP BY使用索引的先决条件是,group by列必须来自于同一个索引。而且group by顺序一定要和索引key顺序一样。
临时表的处理方法是否可以被索引访问替代取决于查询中使用了哪部分索引。
通过索引访问有2种方法:1.group和range谓词一起使用,2.先做range扫描,然后做group。
最有效的方法处理是通过索引直接获取group列。这样可以直接在索引上查找分组不需要考虑key是否满足where子句。
这样的访问只会考虑索引的一部分,所以称为松散的索引扫描(loose index scan)。
如果没有where子句,那么松散扫描直接读取需要的key,比读全部key要小。
如果where子句包含range谓词,松散扫描查找每个分组的第一个key,然后读取最好有可能的key数量。需要满足一下几点:
Ÿ 在单个表上查询
Ÿ group by中的列,一定要和索引前缀匹配,如index(c1,c2,c3),那么group by c1,c2可以适用,group by c2就不适用。
Ÿ 在select列表中可以使用的聚合函数是min,max而且只能用于同一列。这个列必须是在索引里面,并且在group by字段之后的,如 group by c1,c2, max(c3)。
Ÿ 所有的其他部分,除了group by的之外,必须是常量。也就是说必须等式常量来引用他们。除了max,min之外。
Ÿ 对于索引列,所有列值必须被索引,不能前缀。比如c1 varchar(20),index(c1(10))这样就不能使用松散索引扫描。
可以使用松散索引扫描的例子:
index(c1,c2,c3),表t1(t1,t2,t3,t4)
SELECT c1, c2 FROM t1 GROUP BY c1, c2;
SELECT DISTINCT c1, c2 FROM t1;
SELECT c1, MIN(c2) FROM t1 GROUP BY c1;
SELECT c1, c2 FROM t1 WHERE c1 < const GROUP BY c1, c2;
SELECT MAX(c3), MIN(c3), c1, c2 FROM t1 WHERE c2 > const GROUP BY c1, c2;
SELECT c2 FROM t1 WHERE c1 < const GROUP BY c1, c2;
SELECT c1, c2 FROM t1 WHERE c3 = const GROUP BY c1, c2;
不能使用的例子:
Ÿ 聚合函数不是max,min
SELECT c1, SUM(c2) FROM t1 GROUP BY c1;
Ÿ gourp by中的列不是索引前缀
SELECT c1, c2 FROM t1 GROUP BY c2, c3;
Ÿ 查询应用了部分key,是来自group by字段的后面,但是没有使用等式比较常量,如果使用了where c3=const那么就可以适用
SELECT c1, c3 FROM t1 GROUP BY c1, c2;
松散索引扫描也可以使用在其他形式的聚合函数:
Ÿ AVG(DISTINCT),SUM(DISTINCT),COUNT(DISTINCT)支持。
Ÿ 没有group by或者 distinct子句在查询中
Ÿ 前面提到的限制依然适用
可以适用的情况:
SELECT COUNT(DISTINCT c1), SUM(DISTINCT c1) FROM t1;
SELECT COUNT(DISTINCT c1, c2), COUNT(DISTINCT c2, c1) FROM t1;
不能适用的情况:
SELECT DISTINCT COUNT(DISTINCT c1) FROM t1;
SELECT COUNT(DISTINCT c1) FROM t1 GROUP BY c1;
紧凑索引扫描要不是全索引扫描要不是区间索引扫描。
当松散索引扫描不能使用的时候,依然可以避免创建临时表。如果where子句中有range条件,那么只读取满足条件的key。
否则执行全索引扫描。因为算法读取所有满足range条件的key,或者如果没有条件扫描整个索引,我们成为紧凑索引扫描。
使用紧凑索引扫描,分组操作只有在所有key照完之后执行。
算法在使用等式比较所有查询引用的列生效,只有等式常量能够填上查询key的间隙,才有可能形成索引的前缀,使用索引前缀来进行索引查找。
这样mysql可以避免额外的排序操作直接可以从索引中顺序获取。
假设index(c1,c2,c3)在表table(c1,c2,c3,c4),下面的查询不支持松散索引扫描,但是支持紧凑索引扫描
Ÿ 虽然有空隙但是已经被where c2=’a’填补
SELECT c1, c2, c3 FROM t1 WHERE c2 = 'a' GROUP BY c1, c3;
Ÿ 虽然group by不是和索引第一位匹配,但是where中提供了和常量的比较
SELECT c1, c2, c3 FROM t1 WHERE c1 = 'a' GROUP BY c2, c3;
distinct配合order by 很多时候都需要创建临时表。distinct是gourp的特例。所以在group上的优化也可以应用到distinct上。
如果使用了limit配合distinct,mysql会在到达limit的时候马上停止。
如果查询并没有使用全部的列,Mysql就会在找到一个匹配之后停止扫描。
mysql查询优化,有不同的策略来评估子查询:
对于in或者any:
Ÿ semi-join
Ÿ 物化
Ÿ exists策略
对于not in子查询:
Ÿ 物化
Ÿ exists策略
mysql 5.6.5之后优化器使用semi-join策略提高子查询性能。
对于inner join 2张表,join返回和一行匹配的所有行。但是对于一些查询,只需要知道是不是有匹配,不需要关心能匹配多少。
假设有2个表,class和roster,为了显示有学生报名的class:
SELECT class.class_num, class.class_name
FROM class INNER JOIN roster
WHERE class.class_num = roster.class_num;
这样出现很多重复的class,可以用distinct去重复,但是效率不怎么样。
也可以使用以下获取:
SELECT class_num, class_name
FROM class
WHERE class_num IN (SELECT class_num FROM roster);
这样的语句,查询可以用semi-join执行,这个操作只为每个class中的行返回一个roster的实例。
在mysql中,子查询只有满足这些条件才能使用semi-join:
Ÿ 必须是in或者any子查询在where或on子句中。
Ÿ 必须是一个select,没有union
Ÿ 不能包含group by,having或者聚合函数
Ÿ 不能有使用order by配合limit
Ÿ join表个数不能多于join限制
子查询可以是关联的也可以是非关联的。distinct和limit都是允许的,limit和order by一起用是不运行的。
若子查询满足上面那段条件,mysql会把它转化成semi-join,根据cost有一下策略:
Ÿ 把子查询传化为join,或者使用table pullout,然后在子查询表和外表之间使用inner join。
Ÿ 去重复,把semi join当做是join,并使用临时表去除重复记录
Ÿ firstmatch,当扫描内表,对给定值进行分组,然后在分组结果中选一个返回
Ÿ loosescan,使用索引扫描子查询表,然后从子查询执行结果的分组中选出一个值
Ÿ 物化,把子查询物化到临时表,然后使用索引和临时表做join,索引可以用来去重复,或者join时用于lookup,如果没有那么就可能要表扫描了。
除了去除重复,其他的都可以通过设置optimizer_switch的semijoin标记来控制。如果semijoin为on,可以单独通过firstmatch,loosescan,materialization。
控制firstmatch,loosescan,物化。这些标记默认为on。
semi-join策略会在explain中体现:
Ÿ explain extended,show warnings显示了重写的语句。如果子查询被转化为semi-join,会发现子查询的谓词合并到了外查询的where中。
Ÿ 对于去重复,在extra劣种会出现start temporary,end temporary。
Ÿ firstmatch(tbl_name)在extra列中说明join shortcutting。
Ÿ loosescan(m..n)在extra列中说明LooseScan策略,m..n是key部分。
Ÿ 如果select_type为MATERIALIZED并且table为<subqueryN>说明。说明临时表用于子查询物化。
mysql 5.6.5,优化器使用子查询物化策略,可以让子查询更加有效的被处理。
如果物化没有被使用,优化器有时候会重写非关联子查询变成关联子查询。如:
SELECT * FROM t1
WHERE t1.a IN (SELECT t2.b FROM t2 WHERE where_condition);
变成
SELECT * FROM t1
WHERE EXISTS (SELECT t2.b FROM t2 WHERE where_condition AND t1.a=t2.b);
子查询物化使用临时表,避免子查询执行多次。物化可以提高查询执行,临时表生产一搬都会在内存中。
物化产生的临时表一般在内存中,如果太大会被放到磁盘。
是否使用子查询物化,由optimizer_switch中的materialization标记决定,当谓词满足任一条件都可以使用:
Ÿ 谓词是以下形式,并且oe_i或者ie_i没有null
(oe_1, oe_2, ..., oe_N) [NOT] IN (SELECT ie_1, i_2, ..., ie_N ...)
Ÿ 在这个方式下oe,ie可以为null
oe [NOT] IN (SELECT ie ...)
Ÿ 谓词是in或者not in结果为null和false一样
通过查看explain可以说明子查询是否物化。select_type会从DEPENDENT SUBQUERY变成SUBQUERY,这个说明会为外表每一行都执行一次。
物化可以让子查询只运行一次。另外explain extended,show warnings会包含,materialize materialize和materialize-subquery。
mysql 5.6.3优化器处理derived table更加有效:
Ÿ 物化from中的子查询,会被延迟直到需要使用的时候
s 之前,from子句会被explain select的时候被物化,因为尽管是获取执行计划,但是还是有部分会被运行。这种情况下物化就不会发生,explain也更加快。
s 对于不explain的语句,延迟物化,有时候就不再需要物化。
Ÿ 在查询执行的时候,优化器可能会对derived table加索引加快行的获取
以下explain子句:
EXPLAIN SELECT * FROM (SELECT * FROM t1);
优化器延迟子句物化,知道需要使用的时候再物化。,这个情况下查询时不会被执行的,所以不需要物化。
在查询执行的情况下,延迟子查询物化可以让优化器不去物化它
SELECT * FROM t1
JOIN (SELECT t2.f1 FROM t2) AS derived_t2 ON t1.f2=derived_t2.f1
WHERE t1.f1 > 0;
如果优化器先处理t1,并且where生成的结果为空,join生成的一定是空,所以没必要物化。
当子查询需要物化的时候,优化器可能会增加索引来加快访问速度。如果索引可以ref访问表,那么可以在查询执行的时候会大大的减少数据读取,如下:
SELECT * FROM t1
JOIN (SELECT * FROM t2) AS derived_t2 ON t1.f1=derived_t2.f1;
优化器如果在derived_t2的f1上增加了索引,如果允许ref访问。增加索引之后优化器可以把derived表当成有索引的用户表。
创建索引会带来消耗,但是和没有索引执行相比,创建索引的符合可以忽略。如果ref访问可能比其他访问开销更大,那么优化器就不会创建索引。
某些优化对于in或者any子查询是适用的。这里要讨论不适用的情况。
outer_expr IN (SELECT inner_expr FROM ... WHERE subquery_where)
mysql评估是从外到内的,先获取外部表达式的值,然后执行子查询获取行。
一个很用的优化是转化子查询,把条件pushdown到了子查询的where中
EXISTS (SELECT 1 FROM ... WHERE subquery_where AND outer_expr=inner_expr)
转化之后,mysql可以把pushdown等式,来限制要检查的行数。
(oe_1, ..., oe_N) IN
(SELECT ie_1, ..., ie_N FROM ... WHERE subquery_where)
转化为
EXISTS (SELECT 1 FROM ... WHERE subquery_where
AND oe_1 = ie_1
AND ...
AND oe_N = ie_N)
转化其实是有限制的,只有在忽略null的情况下才能使用,只有一下2个都成立才能使用pushdown:
Ÿ outer_expr和inner_expr不能为null
Ÿ 不需要区分null和false
如果任意一个条件不满足,优化就变得很复杂。
当outer_expr不为null但是子查询可能不会生成outer_expr=inner_expr记录,outer_expr in(select…)评估:
Ÿ null,如果生成的任何记录,inner_expr为null
Ÿ false,如果生成了一个非null值或没有产生
在这个情况下,查找outer_expr=inner_expr就不可用了,在吗,没有找打行的情况下,还需要找inner_expr is null。
EXISTS (SELECT 1 FROM ... WHERE subquery_where AND
(outer_expr=inner_expr OR inner_expr IS NULL))
这时需要访问is null条件,这也就是为什么会有ref_or_null的访问方式。(这样转化的话是否有语义上的问题)
如果type为index_subquery或者index_subquery也有or null但是explain没有输出,要使用explain extended,show warnings的输出注意checking null。
or…is null让查询执行,稍微更加复杂一点。
当outer_expr可能为null那么就会更加复杂,null in(select…)评估:
Ÿ null,如果select不产生任何行
Ÿ flase,如果select不产生行
所以为了正确的评估需要检查,子查询是否产生行。要先判断select会不会产生行,所以outer_expr=inner_expr不能被pushdown到子查询。
其实是要更具outer_expr的不同来不同处理。
如果outer_expr为null,那么就要判断select是否产生数据,这个时候就要执行select语句,不带pushdown条件。
NULL IN (SELECT inner_expr FROM ... WHERE subquery_where)
如果outer_expr不为null,那么就有必要做转化pushdown条件。
outer_expr IN (SELECT inner_expr FROM ... WHERE subquery_where)
转化为
EXISTS (SELECT 1 FROM ... WHERE subquery_where AND outer_expr=inner_expr)
如果不转化那么速度就会很慢,为了解决这2难的问题,由一个触发函数来决定是否触发pushdown条件
outer_expr IN (SELECT inner_expr FROM ... WHERE subquery_where)
转化为
EXISTS (SELECT 1 FROM ... WHERE subquery_where
AND trigcond(outer_expr=inner_expr))
如果为:
(oe_1, ..., oe_N) IN (SELECT ie_1, ..., ie_N FROM ... WHERE subquery_where)
那么转化为
EXISTS (SELECT 1 FROM ... WHERE subquery_where
AND trigcond(oe_1=ie_1)
AND ...
AND trigcond(oe_N=ie_N)
)
每个trigcond是一个特殊的函数,评估如下:如果oe_i不为null,则为X,如果为null则为true。
对trigcond(x),等式的触发有一下优化:
Ÿ trigcond(x=y[or y is null])可以使用ref,eq_ref,ref_or_null。
Ÿ trigcond(x=y)可以访问unique_subquery或者index_subquery。
Ÿ 如果子查询是join多个表,触发条件会尽快的检查。
当触发条件被调成off,必须要有个fallback策略,执行一个全表扫描。
null in select()可能会导致全表扫描。这个就是获取正确结果需要的花费。
对于多个表的子查询,执行null in select()可能会很慢,因为优化器不对外面为null的进行优化。对于外部表达式,如果null不出现,那么就不会影响性能。
为了优化器更好的执行,有几个tips:
Ÿ 如果可以尽量吧列定义成not null
Ÿ 如果不会去取分false和null的区别,可以使用not null 来避免
outer_expr IN (SELECT inner_expr FROM ...)
转化为
(outer_expr IS NOT NULL) AND (outer_expr IN (SELECT inner_expr FROM ...))
subquery_materialization_cost_based会控制是否对in语句使用exists策略。
如果要指定查询结果的行数,使用limit子句来限制结果集行数。
mysql有些时候会对有limit,没有having子句优化:
Ÿ 如果limit值限制一些行,mysql在这个时候可能会用索引来代替表扫描。
Ÿ 如果使用order by配合limit,mysql会在sort直到结果出现limit限制的行数。
Ÿ 如果order by是根据索引顺序,那么会很快,如果要用filesort,那么会选择所有的行,然后排序,直到找到前几行。之后排序就不会再运行。
有个现象加不加limit可能会导致order by顺序不同。有一下几个方面:
Ÿ 如果limit带distinct,会在到达limit行数之后马上停止。
Ÿ 某些情况,group by可以通过读取key的顺序,这个时候,limit可以限制不用计算不必要的group by值。
Ÿ 当客户端收到指定行数的时候,会中断查询,除非使用了SQL_CALC_FOUND_ROWS。
Ÿ limit 0直接返回空集,可以用来检查查询是否合法。
Ÿ 当服务使用临时表,会使用limit子句来计算需要多少空间。
在有相同排序值的时候,顺序是不确定的。
mysql> SELECT * FROM ratings ORDER BY category;
+----+----------+--------+
| id | category | rating |
+----+----------+--------+
| 1 | 1 | 4.5 |
| 5 | 1 | 3.2 |
| 3 | 2 | 3.7 |
| 4 | 2 | 3.5 |
| 6 | 2 | 3.5 |
| 2 | 3 | 5.0 |
| 7 | 3 | 2.7 |
+----+----------+--------+
使用了limit
mysql> SELECT * FROM ratings ORDER BY category LIMIT 5;
+----+----------+--------+
| id | category | rating |
+----+----------+--------+
| 1 | 1 | 4.5 |
| 5 | 1 | 3.2 |
| 4 | 2 | 3.5 |
| 3 | 2 | 3.7 |
| 6 | 2 | 3.5 |
+----+----------+--------+
若要确定顺序,最好加个唯一列:
mysql> SELECT * FROM ratings ORDER BY category, id;
+----+----------+--------+
| id | category | rating |
+----+----------+--------+
| 1 | 1 | 4.5 |
| 5 | 1 | 3.2 |
| 3 | 2 | 3.7 |
| 4 | 2 | 3.5 |
| 6 | 2 | 3.5 |
| 2 | 3 | 5.0 |
| 7 | 3 | 2.7 |
+----+----------+--------+
mysql> SELECT * FROM ratings ORDER BY category, id LIMIT 5;
+----+----------+--------+
| id | category | rating |
+----+----------+--------+
| 1 | 1 | 4.5 |
| 5 | 1 | 3.2 |
| 3 | 2 | 3.7 |
| 4 | 2 | 3.5 |
| 6 | 2 | 3.5 |
+----+----------+--------+
如果排序的个数N刚好能在sort buffer里面,那么服务就可以避免执行文件合并和并且把sort buffer当做一个优先级队列来处理:
Ÿ 扫描表,把选中的行都插入队列中,如果队列满了把最后一个剔除掉。
Ÿ 然后返回前N行,如果有跳过M,那么先条过M行,然后返回之后的N行记录。
之前使用的处理方法:
Ÿ 扫描表,重复下面的步骤直到结束
s 输入select row直到sort buffer满。
s 写入前N行到buffer,然后把前N行合并到文件。
Ÿ 排序合并文件并返回前N行。
扫描表的花费和队列和文件合并一样,所以优化器在选择的时候是根据其他花费的:
Ÿ 队列的方法会使用很多cpu来插入到队列。
Ÿ 合并文件会使用IO来读写文件,cpu来排序。
优化器在行数和不同值N之间平衡。
explain输出type列为all,就说明mysql使用表扫描,如果发生表扫描考虑以下几点:
Ÿ 表很小,表扫描比key lookup快。
Ÿ 没有索引可用
Ÿ 有索引,和一个常量比较,但是常量覆盖了很多行,可能造成比使用扫描慢。
Ÿ key的选择度很低,也就是不同的值很少。这种情况下会导致一个key对于很多行,可能会造成比表扫描慢。
对于大的表,以下技术可能可以避免优化器错误的选择表扫描:
Ÿ 使用ANALYZE TABLE tbl_name来更新统计信息
Ÿ 使用提示FORCE INDEX
Ÿ 使用参数--max-seek-for-key=1000,key seek不能多于这个系统变量。
优化insert的速度是,组合多个小的操作到一个大的操作。理想状态是一个连接每次发对多个行的修改,并延迟索引更新和一致性检查。
insert一行插入的时间由以下几个因素决定:
Ÿ 连接(3)
Ÿ 把查询发送的服务(2)
Ÿ 解析查询(2)
Ÿ 插入行(1*行大小)
Ÿ 插入索引(1*索引个数)
Ÿ 关闭(1)
如果是Btree,那么insert插入会showdown大概logN(N表的大小)。
你可以使用以下方法来提高insert速度:
Ÿ 如果在同一个客户端插入多个行,可以使用insert values(),(),values列表同一时间插入多个行。
Ÿ 使用LOAD DATA INFILE,导入文本文件。这个比insert语句块20倍。
Ÿ 对于有默认值的列,只指定和默认值不同的值。
Ÿ 关于innodb的批量导入:Section 8.5.4, “Bulk Data Loading for InnoDB Tables”
Ÿ 关于myisam的批量导入:Section 8.6.2, “Bulk Data Loading for MyISAM Tables”
update语句的优化和select语句类似,就是有额外的写入,写入的时间依赖于更新的数据和要更新的索引个数。
另外一个快速更新的方法是延迟更新,然后一次性对多个行做多次更新。
delete语句的时间主要是删除个别行和index中的行成正比。为了更快的删除,可以通过key_buffer_size系统变量增加key cache。
如果要删除myisam表的所有行,truncate table tbl_name比delete from tbl_name快的多。
越多的权限,会造成越多的sql语句负荷。简单的权限可以让mysql在运行客户端请求时,减少权限的检查。
应用程序使用information_schema监控,数据库流畅运行。目的是为了最小化文件操作来收集信息填充到动态表。
1.尝试使用在where子句中使用常量来查找表或者数据库。
2.最小化必须要打开的文件个数。
3.使用explain决定服务是否可以使用INFORMATION_SCHEMA优化。
Ÿ 为了避免创建连接时的负荷,使用长连接。
Ÿ 检查查询是否使用了索引。
Ÿ 尽量避免在更新比较频繁的myisam表上使用复杂的select语句。
Ÿ 当没有空闲中间空间时,myisam可以插入和select同时进行。这个行为主要由concurrent_insert变量控制。
Ÿ 使用optimize table来修复任何archive表的压缩问题。
Ÿ 若你经常使用expr1,expr2…获取数据,那么使用alter table…order by expr1,expr2…
Ÿ 如果列窄,并且是唯一的,那么使用hash作为索引比使用宽的索引更加高效。
Ÿ 对于更新频繁的myisam表来说,尽量避免使用变长字段,如果有一个变成字段那么就为动态行模式(因为动态行模式比较容易产生碎片)。
Ÿ 当行变多,把表分为多个表不是很管用。因为最大的性能消耗是寻找需要行的前几个字节,而接下来读取整行是很快的。
Ÿ 如果要是要通过很多行来计算的,如count,可以考虑创建一个中间表,然后实时更新。
UPDATE tbl_name SET count_col=count_col+1 WHERE key_col=constant;
Ÿ 如果你收集大日志表的统计信息,使用summary表来代替整个日志表。维护一个summaries比计算统计信息快的多。
Ÿ 通常,report分为live,statistic,当数据需要静态report的时候,report从summary表被创建,而summary从live数据定期更新。
Ÿ 有些时候,封装和存储数据到blob列很方便,特别是要存不是行列模式的数据时。
Ÿ 通常,数据时不冗余的,但是看具体情况而定。
Ÿ 存储过程和用户函数有时候会增加性能。
Ÿ 可以通过缓冲查询或者结果到应用程序来增加性能。
Ÿ 使用一个insert插入多个sql语句。
Ÿ 使用load data infile导入大量数据,比insert快。
Ÿ 使用auto_increment让每行有个唯一标示
Ÿ 使用optimize table来避免myisam动态行模式的碎片问题。
Ÿ 如果有可能使用memory存储引擎。
Ÿ 如果使用web server,图片和其他二进制资源应该以文件方式存储。
Ÿ 列在别的表定义时,用相同数据类型,这样join的时候速度才快。
Ÿ 尽量让列名简单,考虑让列名少于18字节。
Ÿ 如果要你要加快速度,应该先看不同的sql服务对低级别的数据存储的支持。
Ÿ 如果使用数值类型,在很多情况下,会比文字形式访问就要快。
Ÿ 复制在某些操作下提供性能的有点,比如读写分离
Ÿ mysql定义表使用delay_key_write=1会让索引更新更快,因为在表关闭之前不会被刷新磁盘。
当表在打开的时候被kill,必须确保服务启动使用了选项--myisam-recover-options,或者在启动前使用myisamchk。
Ÿ 对于非事务表,给select高优先,那么使用insert low_priority来降低insert优先级
Ÿ select high_priority可以让在非事务表上访问时直接跳过队列。
low_priority和high_priority只适用于非事务表。
select语句性能最好的提升是在一个或者多个列上创建索引。
索引使用指定的列的行值速度会很快,如果没有索引mysql会扫描整个表。mysql中的索引可以让mysql快速的定位查询数据文件,不需要扫描所有数据。
大多数mysql index保存在btree中,空间引擎是rtree,memory表也支持hash索引。
mysql在以下几个途径使用索引:
Ÿ 选择符合where子句的索引。
Ÿ 减少预估的影响行数,选择选择度高的索引
Ÿ 当执行join的时候,mysql会选择在列上长度和类型都一样的。在大小一样的情况下,varchar和char可以认为是同一个类型。
在非二进制字符串上比较,列的字符集必须一样。在不同类型上做比较可能会倒是无法使用索引。
Ÿ 在索引的列上使用min和max。
Ÿ 在order by,group by下和索引左前缀匹配。
Ÿ 查询获取数据可以不获取原始数据行。
索引在小的表,或者查询需要很多行的大表上是没啥用的。
primary key一般是表中最重要的查询使用最常用的列。使用innodb存储引擎,表是有primary key索引组织。加快基于primary key的lookup和sort的速度。
如果表很大,并没有明显的primary key,可以使用自增列充当primary key。
如果一个表有很多列,而查询使用了不同列的组合。把不太使用的列放到另外一个独立的表可能会很有效。表之间使用冗余id来关键2个表。
最常用的索引时简单索引,是元数据行中的值的备份。btree数据结构可以查找指定的值,值的集合,值的区间更快,涉及的运算符,<,>,>=,<=,=,!=,<=>。
每个表的最大索引个数,和索引内最大的列数由每个存储引擎定义。
对于列col_name,在创建的索引的时候可以指定前N个字符。对于blob和text,必须指定长度。
CREATE TABLE test (blob_col BLOB, INDEX(blob_col(10)));
N的最大个数是1000字节。(innodb为767,除非你设置了innodb_large_prefix)。
注意:prefix的限制是用字节数来衡量,需要注意多字节字符串的长度
你可以创建全文索引,只有innodb,myisam存储引擎支持全文索引,并且全文索引只能用于列text,char,varchar。
查询是有以下特性会特别高效:
Ÿ 全文索引查询只返回文档id或者文档id和查询rank
Ÿ 全文查询以desc排序匹配的行并且使用limit来获取前n行
Ÿ 全文查询只使用count(1)返回匹配的行。
现在只有myisam支持rtree, Other storage engines use B-trees for indexing spatial types 。
memory存储引擎默认使用hash索引,同时也支持btree索引。
mysql可以创建复合索引,一个索引可以由16个组成。对于比较大的列可以hash并最为索引,这样可能会更快。
具体看: http://dev.mysql.com/doc/refman/5.6/en/multiple-column-indexes.html
使用explain语句可以查看是否使用了索引,具体看: Section 8.8.1, “Optimizing Queries with EXPLAIN”.
存储引擎收集的统计信息让优化器使用,表的统计信息是基于值分组的,值分组(value group)是多个行使用相同key前缀的值。为了优化的目的,一个重要的统计信息是值分组的平均大小。
mysql使用值分组的平均大小有以下几个用途:
Ÿ 评估每个ref中有多少行要被读取。
Ÿ 评估有多少行在join中产生。
值分组的平均值增加,会导致索引效率变差。(因为选择度变低)。
innodb,myisam有一些控制统计信息收集的系统变量,innodb_stats_emthod,myisam_stats_method,这2个变量有3个可选值:
Ÿ nulls_equal,所有的null值都相等,默认。
Ÿ nulls_unequal,所有的null都不相等
Ÿ nulls_ignored,null值会被忽略
可以使用一下方法来更新统计信息:
使用myisamchk --stats_method=method_name --analyze
设置表让统计信息过期,然后设置myisam_stats_method并且执行analyze table语句。
有一些注意点:
Ÿ 可以手动的更新统计信息,但是mysql也会自动收集统计信息。
Ÿ 没有办法提示,使用了什么方法生成的统计信息
Ÿ 这些变量只能应用于innodb和myisam表
btree索引可以使用不等式比较。<,>,>=,<=,=,!=,<=>,between和开头不带通配符的like。
col_name is null 可以使用索引。如果and是符合索引前缀的就可以使用这个索引。
如:
... WHERE index_part1=1 AND index_part2=2 AND other_column=3
/* index = 1 OR index = 2 */
... WHERE index=1 OR A=10 AND index=2
/* optimized like "index_part1='hello'" */
... WHERE index_part1='hello' AND index_part3=5
/* Can use index on index1 but not on index2 or index3 */
... WHERE index1=1 AND index2=2 OR index1=3 AND index3=3;
不能使用索引的情况:
/* index_part1 is not used */
... WHERE index_part2=1 AND index_part3=2
/* Index is not used in both parts of the WHERE clause */
... WHERE index=1 OR A=10
/* No index spans all rows */
... WHERE index_part1=1 OR index_part2=10
有时候可以使用索引但是优化器没有使用,那是优化器认为使用索引会更慢。
hash索引有一下几个特点:
Ÿ 只能使用=,<=>
Ÿ hash索引不能用于优化order by
Ÿ mysql无法通过hash评估2个值之间有多少行
Ÿ 只能搜索整个key来获取行
设计表是为了最小化磁盘空间,减少数据读写的量。小的表需要的内存更小,空间减少表示表中的数据也减少也可以减少索引长度加快执行速度。
Ÿ 尽可能使用最小的数据类型。
Ÿ 尽可能给列写上not null。
innodb现有文件格式再有行格式,目前innodb的文件格式antelope和barracuda。
antelope支持compact和redundant,barracuda支持compressed和dynamic。
具体看:http://dev.mysql.com/doc/refman/5.6/en/innodb-row-format.html
Ÿ innodb中可以使用compact存储格式,来缩小存储空间
Ÿ 为了最小化空间,也可以使用compressed格式
Ÿ 对于myisam如果没有固定长度,执行会很快但是会有点空间浪费。如果使用了varchar但是想使用固定长度,可以在创建表的时候使用row_format=fixed
Ÿ primary key应该尽量的短,对于innodb表,primary key会被复制到其他secondary索引,所以短的primary key会减少一些secondary的空间。
Ÿ 索引虽然可以加快查询的速度,但是会降低insert和update的数据库,如果多数查询时以组合的方式访问,那么创建一个复合索引,而不是2个单独的索引。
Ÿ 如果有一个大字符串,头几个字符是唯一的前缀,那么在该前缀上创建索引比较好。
Ÿ 在某些场景下,如果表总是扫描的把表分为2个表可能会提升性能。
Ÿ join字段使用相同的数据类型会提升性能。
Ÿ 尽量缩小列的名称长度。
Ÿ 通常不会让数据冗余。
Ÿ 如果速度远远比磁盘空间和维护副本的重要,可以放松一些规则,可以保留一些副本信息来加快数据访问。
Ÿ 对于唯一的id,或者其他值都可以用数值或者字符串来代替,首选数值。因为数值类型比较节省空间,占的内存少。
Ÿ 如果使用数值类型,在很多情况下都比访问文本的好,因为数值类型比文本类型窄。
Ÿ 使用binary排序规则,会让排序和比较加快
Ÿ 在比较的列上使用相同的字符集和排序规则,避免字符串转化
Ÿ 如果列的值小于8k考虑使用varchar来代替blob,如不包含blob,order by或者group by生成的临时表可以使用mempry存储引擎。
Ÿ 若表包含字符串,但是不经常使用可以考虑分表处理
Ÿ 当使用随机生成的数据作为primary key,在前面加上一个唯一的列,这样可以加快插入的速度(避免插入导致分页)
Ÿ 如果是数值最好选择数值类型
Ÿ 当使用blob保存数据,考虑压缩blob
Ÿ 对于有很多列的表,考虑不适用blob或者把blob访问到另外一个表
Ÿ 因为blob在显示和获取上的性能要求,和其他数据类型不一样。可以考虑放到单独的存储设备上甚至另外一个数据库实例上。
Ÿ 如果长度没有超过varchar限制,最好使用varchar。
Ÿ 于其比较长的字符串,还不如比较字符串的hash值。
analyse()可以分析查询结果给出建议的数据类型。
SELECT ... FROM ... WHERE ... PROCEDURE ANALYSE([max_elements,[max_memory]])
如:
SELECT col1, col2 FROM table1 PROCEDURE ANALYSE(10, 2000);
结果会给出建议的最优的数据类型。
analyse 有2个参数:
Ÿ max_elements:默认256是analyse能够注意到的最大的distinct值个数。
Ÿ max_memory:默认8192是analyse用来查找distinct值是可用的最大内存。
执行mysqladmin status会发现
Uptime: 426 Running threads: 1 Questions: 11082
Reloads: 1 Open tables: 12
当你只有6个表的时候会很疑惑为什么open tables为12。
mysql是多线程的,所以很有可能很多查询同时访问一个表,为了最小化多个客户端使用不同的状态来访问表,表为被每个独立的会话打开。虽然会增加内存的时候,但是也提高了性能。
table_open_cache和max_connections系统变量,会影响文件的最大打开数。如果你增加一个或者2个变量,可能会到达每个处理可以打开文件描述符的个数。
table_open_cache和max_connections相关,如果有200个并发运行的连接,那么指定的table cache至少要是200*N,N是每个join最大的执行个数。
当然也需要为临时表和文件包里文件描述符。
要保证你的操作徐彤可以打开文件描述符的个数。如果table_open_cache太大,会导致mysql超出闲置,查询执行会失败,并且会导致mysql可靠性降低。
可以通过--open-files-limit来增加mysql可以使用的文件描述符个数。
服务在启动的时候会自动设置table_open_cache,也可以在服务启动时候显示设置。
以下情况mysql会关闭不适用的表,并从cache中删除:
Ÿ 当cache满了,但是一个线程有要打开一个不再cache上的表。
Ÿ 当cache包含的比table_open_cache更多的项,而且
Ÿ 有不再被使用的表。
Ÿ 当表发生flush。如flush tables语句。
服务使用一下过程来存放cache:
Ÿ 如果有没有使用的表,以最少被使用的顺序进行释放
Ÿ 若打开一个表,但是cache满了,没有表可以被释放,cache会被临时性的扩展,当表被close不被使用的时候,就会被释放。
MyISAM表会为每个并发访问打开一次表,比如一个表被2个线程同时访问那么会被打开两次,或者一个线程在查询中访问2次表。
打开一次myisam表需要2个描述符,一个是数据文件,一个是索引文件。索引文件的描述符是公用的。
如果一个表是通过HANDLE tbl_name OPEN打开,表对象不会和其他线程共享,只有调用了HANDLE tbl_name CLOSE才能关闭,或者中断线程。
使用状态变量opened_tables显示了打开的表个数。
如果很多myisam表,在同一个数据库目录,打开,关闭和创建操作时很慢的,如果当cache满了,select多个报表可能会造成一点负荷。因为每个表要打开都需要关闭表。
内部临时表在处理查询的时候被创建,这样的临时表可以以memory存储引擎保存,或者以myisam保存。若临时表太大,mysql服务会自动把内存中的表转到磁盘中。
以下几个条件下临时表会被创建:
Ÿ union语句
Ÿ 某一些视图会使用临时表,如使用了temptable算法或者使用了union语句或者使用了聚合
Ÿ 如果order by和group by子句的key不同,或者order by, group by的来自于不同的表,那么临时表就会被创建。
Ÿ 查询中出现order by和distinct子句,临时表可能会被创建
Ÿ 如果使用了SQL_SMALL_RESULT选项,mysql会把临时表存放到内存中,除非包含了元素只能存放到硬盘表上。
Ÿ from子句中的子查询,即衍生表(derived table)。
Ÿ 为子查询或者semi-join物化生成的表。
通过explain中的extra如果包含 using tempprary。
若一个临时表变很大,mysql会自动传化为硬盘表。内存表最大是tmp_table_size,max_heap_table_size的最小值。
对于create table 创建的memory表,是有max_heap_table_size来决定memory允许增长的最大值。
临时表创建之后,状态值created_tmp_tables会增长,若是硬盘表created_tmp_disk_tables会增长。
有一些因素无法让表在内存临时表中:
Ÿ 有blob,text列在表中
Ÿ group by,order by的长度超过512个字节
Ÿ 当使用union或者union all的时候字符串列最大值超过512个字节
Ÿ 当表的数据大小达到一定程度,可以考虑使用optimize table语句来重新组织优化表,收缩浪费的空间。optimize table复制表的数据部分然后重建索引,减少了表空间中的碎片。
Ÿ innodb有长的primary key,primary key会被复制到secondary key。使用小的primary key 可以减少secondary index 大小
Ÿ 使用varchar来代替char和会有null的列。
Ÿ 对于很大的表,而且包含很多重复的文本或者数值,可以考虑使用compressed压缩格式。
有了优化innodb事务处理,找到到性能和负荷之间的平衡点。
Ÿ 默认使用autocommit=1会在繁忙的db服务器上强化性能的限制。innodb在每次commit之后必须刷新日志,当每个修改都跟了个commit,就很容易出现io瓶颈。
Ÿ 如果事务都是select,那么设置成autocommit,innodb会自动识别只读事务并优化他们。
Ÿ 避免在插入修改删除大量数据之后去回滚,如果一个事务是的性能变差,那么如果去回滚会变得更差。
kill掉服务也没用,服务启动的时候还是会去回滚。唯一的优化是增加buffer pool这样修改全在buffer pool,不需要直接写入硬盘。
设置innodb_change_buffering=all来缓存所有的写入,这样可以让修改尽量顺序的写入
到磁盘。当处理大的dml要定期的运行checkpoint,把多个dml拆成多个小的。
Ÿ 如果可以容忍一些数据都是,那么可以设置innodb_flush_log_at_trx_commit=0,这样innodb会每秒一次刷新日志。
为了同步磁盘数据和binary log的次数可以使用innodb_support_xa=0。
Ÿ 当行被删除或者更新的时候,相关的undo log不会被马上物理删除,甚至commit之后也不会马上删除。
老的数据会被一直保留,直到更早的事务,或者并发事务完成,这样这些事务才能访问到老的数据。
因此,长时间运行的事务在运行的时候,可以阻止innodb数据被清空。
Ÿ 当长运行事务中被修改删除,其他事务使用读提交,或者可持续读,为了访问到老的数据需要花很多功夫来重建
Ÿ 当长运行事务中修改了表,在其他事务中的查询需要去读原表,而不是用索引覆盖。
当使用secondary索引查找的时候page_max_trx_id太新或者secondary索引中行被标记为了delete,innodb可能需要找聚集索引中的记录。
Ÿ 保证日志文件大一点,甚至和buffer pool一样大。当发生checkpoint必须把在buffer pool中的修改内容写入到磁盘。小的日志文件会导致很多不必要的磁盘写入。
Ÿ log buffer 越大越好。(8MB的倍数)
Ÿ 当插入数据到innodb,先关闭自动提交模式,因为自动提交会为每次插入都提交。反而会影响插入速度。
Ÿ 如果有唯一性约束,那么为了提高性能可以先临时的关闭唯一性约束,对于大的表可以节省一些io,因为innodb可以使用insert buffer,批量写入到secondary索引
Ÿ 如果有foreign key约束,可以先关闭外键检查。
Ÿ 使用一个insert多行数据来减少客户端和server之间交互的成本。
Ÿ 对于有自动增长的列,可以先把innodb_autoinc_lock_mode设置为2.
Ÿ 当导入innodb全文索引的时候,为了优化性能可以使用一下步骤:
s 在创建表时候创建一个fts_doc_id,类型为bigint unsigned not null并在上面常见一个索引 如:
CREATE TABLE t1 (
FTS_DOC_ID BIGINT unsigned NOT NULL AUTO_INCREMENT,
title varchar(255) NOT NULL DEFAULT ”,
text mediumtext NOT NULL,
PRIMARY KEY (`FTS_DOC_ID`)
) ENGINE=InnoDB DEFAULT CHARSET=latin1;
CREATE UNIQUE INDEX FTS_DOC_ID_INDEX on t1(FTS_DOC_ID);
s 把数据导入到表。
s 创建全文索引。
注意:当创建表时添加fts_doc_id,要确保当全文索引被更新的时候,fts_doc_id也会被更新,也就是说当全文索引被修改是,fts_doc_id被增加。
如果没有fts_doc_id列,那么innodb会在创建全文索引的时候添加这个列,这样会导致表被重建。
调整innodb查询,在表上创建一个合适的索引,以下是innodb索引的一些原则:
Ÿ 因为每个innodb有primary key,使用在很重要的并且时间敏感的查询的列上。
Ÿ 不要再primary key上指定太多或者太长的列,因为primary key会被保存在secondary
Ÿ 不要为每个列创建secondary索引,因为每个查询只能使用一个索引。尽量少的创建索引,而不是大量的简单索引。
Ÿ 如果索引列不包含null,那么在创建表的时候定义为not null。
Ÿ 你可以优化单个查询的事务,使用Section 14.13.14, “Optimizing InnoDB Read-Only Transactions”.
Ÿ 如果表读多写少,那么就启动query cache
[mysqld]
query_cache_type = 1
query_cache_size = 10M
Ÿ 对于ddl操作对于表和索引的操作,最重要的方面是innodb表创建和删除索引。在mysql 5.5比mysql5.1要快的多,因为innodb引入了快速索引创建。
Ÿ 快速索引创建,可以让删除索引,导入数据后再创建索引更快
Ÿ 使用过truncate table清空表,不是delete from tbl_name
Ÿ 因为表是由primary key组织的,修改primary key的定义会重新组织整个表,primary key在create table语句中定义,不需要先alter或者drop primary key。
经过应用最佳实践,io还是很高,那么就查看cpu的使用,如果cpu使用低于70%,但是io使用很低,那么服务的负荷就是磁盘密集型。
对IO的优化有一下几种:
Ÿ 当表数据被缓存在innodb buffer pool,那么查询就不需要去读取物理io,buffer pool的大小可以通过 innodb_buffer_pool_size来指定,一般为80%的物理内存。
Ÿ 在一些linux或者unix版本中,使用fsync函数来刷新文件到磁盘,相似的方法是很慢的。如果数据库写入性能有问题,可以尝试使用innodb_flush_method=o_dsync进行基准测试看看性能。
Ÿ 如果innodb存储引擎使用在Solaris 10 X86_64结构体系上(AMD处理器)。对innodb相关的文件使用直接io,来避免innodb性能降级。
为了让整个存储了innodb相关文件的ufs文件系统使用直接io,那么在mount的时候加上选项forcedirectio。
如果直接io只针对innodb相关文件而不是整个文件系统,那么使用innodb_flush_method=O_DIRECT,这个时候innodb会使用directio()来代替fcntl()。
Ÿ 当innodb使用了很大的innodb_buffer_pool_size,应该在Solaris 2.6以及以上平台,对innodb数据文件和日志文件所在的原设备,
或者独立的直接IO UFS文件系统(使用forcedirectio)进行基准测试。
Ÿ 如果有额外的存储设备使用RAID设置,或者symbolic连接到了别的磁盘,参考Section 8.11.3, “Optimizing Disk I/O”
Ÿ 如果在checkpoint期间,io吞吐量变小,那么考虑把innodb_io_capacity设高,值越高说明flush越频繁,值高可以避免工作积压而导致的吞吐量问题。
Ÿ 如果system不会被innodb flush操作落下,那么可以考虑使用低一点的innodb_io_capacity,通常尽量保持低的配置,
但是不能低到影响吞吐量,可以通过SHOW ENGINE INNODB STATUS查看:
s History list length low, below a few thousand.
s insert buffer合并和row inserted相近
s buffer pool中修改的也会低于buffer pool的innodb_max_dirty_pages_pct。
s Log sequence number-Last checkpoint小于7/8,或者理想的6/8的innodb日志文件大小。
Ÿ 其他的用来调整IO的选:
innodb_adaptive_flushing
, innodb_change_buffer_max_size
, innodb_change_buffering
,innodb_flush_neighbors
, innodb_log_buffer_size
,
innodb_log_file_size
, innodb_lru_scan_depth
,innodb_max_dirty_pages_pct
, innodb_max_purge_lag
, innodb_open_files
,
innodb_page_size
,innodb_random_read_ahead
, innodb_read_ahead_threshold
, innodb_read_io_threads
,innodb_rollback_segments
,
innodb_write_io_threads
, 和 sync_binlog
.
不同的负荷有不同的设置。
innodb会自动执行优化,性能调整要配合性能监控保证数据库有良好的性能。并在性能出问题的时候调整配置选项。
主要的配置步骤:
Ÿ 启用innodb使用高性能内存分配。 Section 14.13.3, “Configuring the Memory Allocator for InnoDB”.
Ÿ 控制不同类型的DML操作对应的buffer,来避免频繁的小磁盘写入。Section 14.13.4, “Configuring InnoDB Change Buffering”
Ÿ 通过innodb_adaptive_hash_index来调整自适应hash index。Section 14.2.13.6, “Adaptive Hash Indexes”
Ÿ 如果上下文切换到达瓶颈,限制并发线程数。 Section 14.13.5, “Configuring Thread Concurrency for InnoDB”.
Ÿ 控制innodb预读的读取量。 Section 14.13.1.1, “Configuring InnoDB Buffer Pool Prefetching (Read-Ahead)”.
Ÿ 若有高端的IO子系统,没有被完全利用,可以增加后台的IO读写线程。Section 14.13.6, “Configuring the Number of Background InnoDB I/O Threads”.
Ÿ 控制后台I/O innodb执行的量。 Section 14.13.8, “Configuring the InnoDB Master Thread I/O Rate”.
Ÿ 控制,当innodb执行确定类型的后台写入时用的算法。Section 14.13.1.2, “Configuring the Rate of InnoDB Buffer Pool Flushing”.
Ÿ 利用多核cpu和它们的cache配置。 Section 14.13.10, “Configuring Spin Lock Polling”.
Ÿ 防止一次表扫描而导致,而干扰buffer cache中的热点数据。Section 14.13.1.3, “Making the Buffer Pool Scan Resistant”.
Ÿ 调整合适的log文件大小,保证crash恢复的可靠性。
Ÿ 配置buffer pool的个数和大小 Section 14.13.1.4, “Using Multiple Buffer Pool Instances”.
Ÿ 增加最大允许并发事务数量,可以大大增加繁忙事务的可扩展性。Section 14.13.12, “Better Scalability with Multiple Rollback Segments”
Ÿ 把清空操作移到后台线程。为了有效的评估设置的结果,先调整其他io相关,线程相关的配置。Section 14.13.13, “Configuring InnoDB Purge Scheduling”.
Ÿ 减少线程之间的上下文切换,对于强力的现代系统大概把innodb_thread_concurrency选项设置为32。把innodb_concurrency_tickets设置为5000,这个选项设置了线程个数和一次跳读后可以执行的时间。
innodb在启动后第一次访问时,就会被表计算索引基数,而不是被存在表里面。
这个操作会花很多时间,因此被转移到了初始化表打开操作中,先对这个表预热之后再使用。
预热过程:在启动之后会马上通过select 1 from tbl_name limit 1的方式来运行。
MyISAM存储引擎最好执行在大量读数据或者地并发操作。因为表锁会限制update并发。
Ÿ 为了帮助mysql更好的优秀的查询,使用analyze table或者mysiamchk --analyze。更新一个相同值对应的平均行数。
在2个表基于非常量表达式的join,mysql使用这个来确定使用什么索引。可以通过show index from tbl_name的cardinality来确定列的密度。
Ÿ 根据一个索引对索引或者数据进行排序。使用myisamchk --sort-index --sort-records=1
Ÿ 避免在更新频繁的表上使用复杂的select语句。
Ÿ 如果一个表没有空闲的block,myisam支持并发插入。通过修改concurrent_insert来让插入的数据总是是追加的方式
Ÿ 对于myisam表如果修改很频繁,试图避免变长列。包含了一个可变长列,myisam就以动态行模式。
Ÿ 对于表很大的时候拆分表是没有用的,在访问一样的时候,主要的性能花费是查找行的前几行。
Ÿ 使用alter table…order by expr1,expr2,…让表以这个顺序组织。
Ÿ 如果要计算表的结果比如count,那么可以生成一个中间表,实时更新。
Ÿ 当不需要知道什么时候更新myisam表的时候,可以使用insert delayed。
Ÿ 定期使用optimize table可以避免myisam动态行产生的碎片。
Ÿ 定义一个myisam表使用delay_key_write=1,索引更新就会很快,因为修改知道表被close的时候会被更新到磁盘,如果服务崩溃必须使用myisam-recover-options选项修复,或者在启动服务之前使用myisamchk。
Ÿ 在myisam的索引中字符串会被自动的把前缀和后缀的空间压缩。
Ÿ 可以通过cache查询和查询结果在应用程序上,来提高性能。并且让insert和update能够批量执行
Ÿ 可以使用insert delayed语句来加快多客户端数据插入
Ÿ 对于myisam表,如果没有空闲空间,可以并发插入数据。
Ÿ 当有很多插入的时候load data infile会比insert快,步骤如下:
1.执行flush table或者mysqladmin flush-tables命令
2.使用myisamchk --keys-userd=0, -rq /path/to/db/tbl_name删除所有的索引
3.使用load data infile导入数据
4.如果只有读数据的请求,那么使用myisampack压缩
5.使用myisam -rq /path/to/db/tbl_name来重建索引
6.再执行flush table或者执行mysqladmin flush-table
当执行load data infile为一个空的表导入数据的时候,会被自动应用前面的优化。自动优化和显示过程的区别是在执行创建索引的时候可以比重建索引分配的内存多。
也可以直接通过以下语句禁用和启用索引,如果使用以下语句就可以跳过flush table:
ALTER TABLE tbl_name DISABLE KEYS;
ALTER TABLE tbl_name ENABLE KEYS;
Ÿ 可以使用如下方式加快非事务表的插入速度
LOCK TABLES a WRITE;
INSERT INTO a VALUES (1,23),(2,34),(4,33);
INSERT INTO a VALUES (8,26),(6,29);
...
UNLOCK TABLES;
好处是,在insert执行完成之后,索引buffer只被刷新一次。如果所有的行在一个insert语句上执行那么不需要显示的锁定语句。
通过增加锁可以让数据库写入性能比较好。
Ÿ 通过增加key_buffer_size可以加快,myisam表的load data infile和insert的性能。
REPAIR TABLE和myisamchk的修复选项相同。有一些相同的性能优化点:
Ÿ myisamchk可以通过变量来分配内存。通过这些变量获得更多内存。
Ÿ repair table可以有相同的配置,但是是通过系统变量,而不是myisamchk的选项。
假设myisamchk有以下一些选项:
--key_buffer_size=128M --myisam_sort_buffer_size=256M
--read_buffer_size=64M --write_buffer_size=64M
那么对应到系统变量
myisamchk Variable |
System Variable |
key_buffer_size |
|
myisam_sort_buffer_size |
|
read_buffer_size |
|
write_buffer_size |
none |
myisam_sort_buffer_size和read_buffer_size有session级别和global级别的,session级别不会影响其他session,但是global级别会影响其他session,key_buffer_size是所有的session共享这块内存。
repair table可以和myisamchk类似的使用:
SET SESSION myisam_sort_buffer_size = 256*1024*1024;
SET SESSION read_buffer_size = 64*1024*1024;
SET GLOBAL myisam_max_sort_file_size = 100*1024*1024*1024;
SET GLOBAL repair_cache.key_buffer_size = 128*1024*1024;
CACHE INDEX tbl_name IN repair_cache;
LOAD INDEX INTO CACHE tbl_name;
REPAIR TABLE tbl_name ;
SET GLOBAL repair_cache.key_buffer_size = 0;
如果变量只想在repair table起作用:
SET @old_myisam_sort_buffer_size = @@global.myisam_max_sort_file_size;
SET GLOBAL myisam_max_sort_file_size = 100*1024*1024*1024;
REPAIR TABLE tbl_name ;
SET GLOBAL myisam_max_sort_file_size = @old_myisam_max_sort_file_size;
这些变量可以在服务启动的时候就配置,配置在my.cnf中
[mysqld]
myisam_sort_buffer_size=256M
key_buffer_size=1G
myisam_max_sort_file_size=100G
这里没有配置read_buffer_size,因为这个配置了之后每个session都会分配read_buffer_size的大小,会导致性能问题。
考虑把经常访问,并且是读多写少,不是很重要的数据放到memory表。
在innodb或者myisam下进行模拟真实环境的基准测试,确定额外的性能增加是否可以允许内存丢失,和应用启动的时候从磁盘中复制的负荷。
为了获得更好的memory性能,检查各种查询对应的表,并且制定每个使用索引的索引类型,btree索引或者hash索引。
在create index的时候使用using btree,using hash来指定btree树或者hash树。btree在>,<,between比较快,hash在=,<=>比较快。
根据表的详细信息,列,索引和where子句中的条件,mysql优化器会考虑很多技术来有效的执行sql查询。
大表上的查询可以不必读取所有数据,join了多个表,没必要比较所有的行组合。
优化器选择的一些操作的集合被叫做查询执行计划,也被称为explain plain。
我们的工作是通过plan来识别sql是否是足够优秀的。
explain语句可以用来获取mysql如何执行语句的执行信息:
Ÿ MySQL 5.6.3之后explain允许查看select,delete,insert,replace和update,在5.6.3之前只能查看select语句。
Ÿ 当explain用来解释一个语句,mysql会显示语句是如何执行的执行计划。
Ÿ explain extended可以用来获取额外的执行计划信息。
Ÿ explain partitions用来检查查询设置分区表。
Ÿ MySQL 5.6.3之后,可以制动FORMAT选项来指定输出格式。
根据explain的帮助,你可以看到那你你需要增加索引,这样语句执行通过索引会更加快。
如果认为索引会被使用,但是有问题索引没有被使用,可以使用analyze table来更新表的统计信息。
explain语句提供了语句的执行计划信息。
explain会为每个表都返回一行记录。输出来的表的顺序就是MySQL读取处理语句的顺序。MySQL通过nested-loop来解决所有的join问题。
当使用extended,explain产生额外信息,使用show warnings可以显示。
Column |
Meaning |
Select标识符 |
|
Select 类型 |
|
输出行的表 |
|
匹配的分区 |
|
Join类型 |
|
可以使用的索引 |
|
被选择的索引 |
|
使用的key长度 |
|
用来比较索引的列 |
|
估计的响应行数 |
|
被过滤的百分比 |
|
额外信息 |
Ÿ id
select标识符,是一个是查询中select的位置。如果是一个union的结果那么可以为null,这样table列会显示<unionM,N>,M和N是select标识符。
Ÿ select_type
select类型,可以有以下一些值
select_typeValue |
Meaning |
SIMPLE |
|
PRIMARY |
Outermost SELECT |
Union中第二个查询 |
|
DEPENDENT UNION |
Union中第二个查询,但是由外表决定 |
UNION RESULT |
Union的结果 |
SUBQUERY |
子查询中第一个select |
DEPENDENT SUBQUERY |
子查询中第一个select,依赖于外表查询 |
DERIVED |
From子查询中的衍生表 |
MATERIALIZED |
子查询物化 |
UNCACHEABLE SUBQUERY |
子查询的结果不能被cache |
UNCACHEABLE UNION |
union的第二个查询属于uncacheable subquery |
dependent通常表示使用相关子查询。dependent subquery和uncacheable subquery评估方式不同。
对于dependent subquery,只查询只会被不同的值进行评估。对于uncacheable subquery,子查询会为外表每一行进行评估。
Ÿ table
行来至于一个表的表名,也可以是以下值:
<unionM,N>:行来至于select标识符为M和N的union
<derivedN>:行来至于标识符为N的衍生表
<subqueryN>:行来自于标识符为N的子查询
Ÿ partitions
表示来自于某个的分区来匹配查询,只有在partition关键字被指定的时候才会显示。对于非分区表则为null。
Ÿ type
join类型
Ÿ possible_key
这个列表示,查询可以使用的一些索引,如果为null表示没有相关的索引可用。
Ÿ key
表示mysql要使用的索引。
当命名索引覆盖了列,但是扫描笔索引查询性能更好,就有可能key的名字不再possible_key中。
如果为null索引mysql没有发现合适的索引应用到查询。
对于使用force index,use index或者ignore index会忽略possible_keys的列表。
Ÿ key_len
key_len表示mysql使用的key的长度
Ÿ ref
表示那个列或者常量被用来比较索引的键值。
Ÿ rows
rows表示预估会响应的行数
Ÿ filtered
预估有百分之多少的数据会被过滤掉。
Ÿ extra
说明mysql解决查询问题额外的信息。
join类型有一下几个:
Ÿ system
表和只有一行,是const的特例
Ÿ const
表只能匹配到一行,在查询开始就被读取,const只会被读取一次。当比较primary key和unique所有的部分;
SELECT * FROMtbl_name
WHEREprimary_key
=1;
SELECT * FROM tbl_name
WHEREprimary_key_part1
=1 ANDprimary_key_part2
=2;
Ÿ eq_ref
为前表的每个行组合读取一行数据,这个join类型是除了system,const之外最好的。
当索引的所有部分都被使用时,会使用eq_ref并且索引要是primary key或者unique not null索引。
eq_ref的比较值使用等号比较,比较值可以是常量或者使用了之前读入表的列的表达式。以下情况会使用eq_ref
SELECT * FROMref_table
,other_table
WHEREref_table
.key_column
=other_table
.column
;
SELECT * FROMref_table
,other_table
WHEREref_table
.key_column_part1
=other_table
.column
ANDref_table
.key_column_part2
=1;
Ÿ ref
为之前表的每个行组合,读出所有匹配的索引行。ref只有在join负荷左前缀的时候使用,并且key不是primary key或者unique。如果key只匹配到了一些列,那么这个join type是好的join type。
ref可以使用=或者<=>比较符
SELECT * FROMref_table
WHEREkey_column
=expr
;
SELECT * FROMref_table
,other_table
WHEREref_table
.key_column
=other_table
.column
;
SELECT * FROMref_table
,other_table
WHEREref_table
.key_column_part1
=other_table
.column
ANDref_table
.key_column_part2
=1;
Ÿ fulltext
join使用fulltext执行
Ÿ ref_or_null
这个类型和ref的区别是,会另外找包含null值的。下面的情况会被应用:
SELECT * FROM ref_table
WHEREkey_column
=expr
ORkey_column
IS NULL;
Ÿ index_merge
这个join类型索引使用了索引合并优化,这种情况下key中包含2个以上索引,key_len是使用的索引中最长的部分。
Ÿ unique_subquery
这个类型会在有in子句的情况下代替ref。
value
IN (SELECTprimary_key
FROMsingle_table
WHEREsome_expr
)
Ÿ index_subquery
和unique_subquery类似,只是使用的是secondary索引
value
IN (SELECTkey_column
FROMsingle_table
WHEREsome_expr
)
Ÿ range
只有在给定范围内的行会被获取,使用索引来获取选中的行。key_len是使用的最长key长度。ref列为null。
range 可以在以下任意的表达式下使用:=,<=>,>,<,<>,>=,<=,is null,between,in()。
SELECT * FROM tbl_name
WHERE key_column
= 10;
SELECT * FROM tbl_name
WHERE key_column
BETWEEN 10 and 20;
SELECT * FROM tbl_name
WHERE key_column
IN (10,20,30);
SELECT * FROM tbl_name
WHEREkey_part1
= 10 ANDkey_part2
IN (10,20,30);
Ÿ index
index和ALL一样是指获取所有的索引扫描,只有2中情况会发生:
s 只有当索引是覆盖索引并且可以通过索引扫描来完成,这种情况下extra有using index。index通常比all要快,因为index的数据比all要少。
s 全表被扫描是通过索引按索引的顺序读取,using index不会出现在extra列中。
Ÿ all
为上一个表的每个组合做一次全表扫描,如果第一个表不是const这个情况并不是很好。通常可以通过创建索引,并且通过常量或者之前表的列值来获取。
extra列包含了explain输出的额外信息。
Ÿ Child of ‘table’ pushed join@1
在join中这个表被认为是table的子表,可以通过push down条件到ndb内核。只能应用在mysql集群
Ÿ const row not found
执行select…from tbl_name,这个表是空的。
Ÿ deleting all row
对于某些存储引擎,可以简单的删除所有的行,这个值表示存储引擎是否有这种优化。
Ÿ distinct
mysql查找distinct值,找到一个匹配之后就会立刻停止。
Ÿ FirstMatch(tbl_name)
对tbl_name进行了semi-join firstmatch优化。
Ÿ Full scan on NULL key
子查询优化当优化器不能使用索引查找访问的时候,采用回退策略。
Ÿ impossible having
having 条件都为flase,不会返回行
Ÿ impossible where
where子句为flase
Ÿ impossible where noticed after reading const tables
到读取玩所有const和system表的时候才发现where条件为flase。
Ÿ loosescan(m…n)
semi-join loosescan策略,m和n是key的一部分
Ÿ materialize,scan
在mysql 5.6.7之前,这个只能用来表示物化临时表。如果有scan表示在表读取的时候没有索引临时表的索引。
在mysql 5.6.7之后,物化由select_type使用materialized说明,并且table的值为<subqueryN>。
Ÿ no matching min/max row
没有满足的查询的条件,select min() from …where condition
Ÿ no matching row in const table
一个查询使用了join,有空表,或者没有匹配上的行。
Ÿ no matching rows after partition pruning
发生分区清理之后发现没有东西能够被delete或者update,和impossible where意思一样。
Ÿ no tbales userd
查询没有from子句或者from dual。
Ÿ not exists
mysql可以使用left join优化,之前的行组合不在这个表中的数据。
Ÿ range checked for each reord(index map: N)
mysql发现没有好的索引可以用,但是发现如果获取了之前表的值可以一些索引就可以被使用了。尽管不是很快,比没有索引的情况下还快。
Ÿ scanned N databases
表示当处理在information_schema上的查询的时候有多少目录扫描。
Ÿ select tables optimized away
当查询只包含max,min聚合函数的时候,通过索引来解决。
Ÿ skip_open_table,open_frm_only,open_trigger_only,open_full_table
skip_open_table:表不需要被打开
open_frm_only:只需要打开frm文件
open_trigger_only:只有trg文件需要被打开
open_full_table:所有的文件都要被打开。
Ÿ start materialize,end materialize,scan
在mysql 5.6.7之前,这个只能用来表示物化临时表。如果有scan表示在表读取的时候没有索引临时表的索引。
在mysql 5.6.7之后,物化由select_type使用materialized说明,并且table的值为<subqueryN>。
Ÿ start temporary,end temporary
表示临时表被用来semi-join去重复策略
Ÿ unique row not found
没有满足在primary key和unique上的行。
Ÿ using filesort
MySQL必须做一些事,让数据以排序的顺序被读取。
Ÿ using index
只从index上读取数据,不从表上读取数据。如果extra还有using where,意味着用使用索引来做索引查找。如果没有using where优化器会读索引但是不表示是索引查找。
Ÿ using index condition
表通过上访问索引和过滤索引的方式来确定是否要读取所有的表数据。这种方式下,索引用来推迟访问表数据,除非有需要。
Ÿ using index for group-by
和using index 类似,这个表名mysql发现有索引可以用来group by或者distinct
Ÿ using join buffer(block nested loop),using join buffer(batched key access)
block nested loop表名block nested-loop算法,batched key access表示使用batched key access算法
Ÿ using MRR
表示使用了multi-reange read优化策略
Ÿ using sort_union(),using union(),using intersect()
表示索引如何被合并
Ÿ using temporary
为了处理查询,mysql需要创建一个临时表来保存中间结果
Ÿ using where
where子句用来限制传到下一个表或者输出的记录。
Ÿ using where with pushed condition
这个只能应用在ndb表上。吧where条件push到数据节点。
略,具体看:http://dev.mysql.com/doc/refman/5.6/en/explain-output.html
当使用了extended,输出会增加filtered列,否则就不会输出。这个列评估了有多少列会被过滤掉。使用extended然后show warnings可以输出一下信息:
<auto_key>:自动为临时表生成的key
<cache>(expr):表达式只会被执行一次,然后结果存放在内存中
<exists>(query fragment):子查询被转化为了exists谓词
<in_optimizer>(query fragment):优化器内部对象
<index_lookup>(query fragment):query fragment通过索引查找来获取记录
<if>(condition,expr1,expr2):如果条件为true,返回expr1的结果,否则返回expr2的结果
<is _not_null_test>(expr):验证表达式是不是为null
<materialize>(query fragment):子表达式被物化
`materialized-subquery`.col_name,`materialized subselect`.col_name:引用物化临时表的列。
<primary_index_lookup>(query fragment):使用primary key来查找行。
<ref_null_helper>(expr):优化器内部对象
/* select#N*/ select_stmt:表示一个sql语句N是语句的id
outer_tables semi join(inner join):semi join操作。
<temporary table>:内部临时表,用来保存中间结果。
很多时候,可以使用磁盘seek来评估查询性能。对于小的表,访问一行只需要一次查询。
但是对于大表来说使用btree,查找一行的开销是:log(
row_count
) / log(
index_block_length
/ 3 * 2 / (
index_length
+
data_pointer_length
)) + 1
.
在mysql,索引块是通常是1024个字节并且数据指针为4个字节,对于50万行的表,key值的长度为3个字节,那么花费就是:log(500,000)/log(1024/3*2/(3+4)) + 1
= 4
索引会占用的空间时500000*(3+4)*3/2=5.2MB,通常索引buffer的填充率是2/3,所以有可能很多索引在内存中,只需要1,2个读取就可以找到行。
对于写入,需要4个seek来查找定位索引的值,并且2个seek来更新索引并且写入行。
当数据变大,不能够放到内存,开始变慢知道全部依赖于硬盘为止。
mysql 提供了可以根据系统便来来控制和影响执行计划。
优化器的任务时找到一个最优化执行计划执行。当大的查询被提交,可能会有很多时间需要花费在寻找查询优化上。
有2个参数可以控制优化器评估计划个数:
Ÿ optimizer_prune_level
这个变量通知优化器基于访问表行数跳过计划,而获得要执行的计划,这个参数为1会通过表的访问行数来跳过计划,如果参数为0那么会全面的查找执行计划,会导致编译时间过长。
Ÿ optimizer_seach_depth
变量决定优化器的深度,值越小,说明编译时间越短。如果不知道如何设置可以设置为0由mysql自己决定。
optimizer_switch系统变量可以控制优化器行为。查看当前的optimizer_switch设置:
mysql> SELECT @@optimizer_switch\G
*************************** 1. row ***************************
@@optimizer_switch: index_merge=on,index_merge_union=on,
index_merge_sort_union=on,
index_merge_intersection=on,
engine_condition_pushdown=on,
index_condition_pushdown=on,
mrr=on,mrr_cost_based=on,
block_nested_loop=on,batched_key_access=off,
materialization=on,semijoin=on,loosescan=on,
firstmatch=on,
subquery_materialization_cost_based=on,
use_index_extensions=on
设置optimizer_switch
SET [GLOBAL|SESSION] optimizer_switch='command[,command]...';
command为:
Command Syntax |
Meaning |
default |
设置所有的都为默认 |
opt_name=default |
设置某个优化为默认 |
opt_name=off |
关闭某个优化 |
opt_name=on |
启动某个优化 |
可用的opt_name:
Optimization |
Flag Name |
Meaning |
Batched Key Access |
batched_key_access |
控制BKA join算法 |
Block Nested-Loop |
block_nested_loop |
控制BNL join算法 |
Engine Condition Pushdown |
engine_condition_pushdown |
控制引擎条件 pushdown |
Index Condition Pushdown |
index_condition_pushdown |
控制索引条件 pushdown |
Index Extensions |
use_index_extensions |
控制使用索引扩展 |
Index Merge |
index_merge |
控制索引合并优化 |
|
index_merge_intersection |
控制索引交集合并 |
|
index_merge_sort_union |
控制索引排序合集合并 |
|
index_merge_union |
控制索引合集合并 |
Multi-Range Read |
mrr |
控制多区间读取优化 |
|
mrr_cost_based |
控制基于花费的多区间读取优化 |
Semi-join |
semijoin |
控制所有semijoin策略 |
|
firstmatch |
控制firstmatch semijoin策略 |
|
loosescan |
控制loosescan semijoin策略 |
Subquery materialization |
materialization |
控制物化,包括semi join物化 |
|
subquery_materialization_cost_based |
使用基于花费的物化 |
设置实例:
mysql> SET optimizer_switch='index_merge_union=off,index_merge_sort_union=off';
mysql> SELECT @@optimizer_switch\G
*************************** 1. row ***************************
@@optimizer_switch: index_merge=on,index_merge_union=off,
index_merge_sort_union=off,
index_merge_intersection=on,
engine_condition_pushdown=on,
index_condition_pushdown=on,
mrr=on,mrr_cost_based=on,
block_nested_loop=on,batched_key_access=off,
materialization=on,semijoin=on,loosescan=on,
firstmatch=on,
subquery_materialization_cost_based=on,
use_index_extensions=on
innodb使用buffer pool在内存中来缓存数据和索引。
理想状态下,把buffer pool设置成实际使用的量。buffer pool越大,就会想in-memory db一样,只读取一次数据,之后的所有读取都在内存中完成。
所有的数据写入也在buffer pool完成,然后批量刷新到磁盘,来提高性能。
对于64位大内存的系统,可以使用多个buffer pool实例来最小化buffer pool的使用冲突。
innodb管理了一组buffer pool,使用了变种的LRU算法。innodb有个中间点插入策略(midpoint insertion strategy),有2个子队列:
Ÿ 头,包含了较新的块,即被经常访问的数据块
Ÿ 尾,老的块,不经常访问的数据
默认的lru算法处理如下:
Ÿ buffer pool的3/8被划为尾部
Ÿ midpoint是头和尾的边界
Ÿ 当innodb读入到buffer pool的时候会先让入到midpoint。
Ÿ 当访问尾部的块,会把它放入头部分。如果是因为被请求而读入,那么会被放入头部,如果是通过read-ahead读入的,那么请求就不会马上发生。
Ÿ 如果块没有被访问,那么会根据块age把块移向buffer末尾。
默认,被请求的block会被马上移动到buffer pool头,意味着会在buffer pool内存在比较久的时间。如果大表扫描那么就会导致page被逐出buffer pool,会导致一些性能问题。
Ÿ innodb_buffer_pool_size:用来控制buffer pool的大小,大可以提升性能减少IO。
Ÿ innodb_buffer_pool_instances:设置buffer pool实例个数,一般适用于大内存,当innodb_buffer_pool_size大于1GB的时候。
Ÿ innodb_old_blocks_pct:就是划分头尾的占比,默认为37(3/8)
Ÿ innodb_old_blocks_time:当在尾部的block被访问之后,延迟多久才能被放入头部。
1.若为0,只要block就马上插入头部(和原文不通被我改了),2.若不为0,表示指定时间过去之后会被插入到头部。
(都是联机文档2边的解释不同,innodb_old_blocks_time
)。
innodb_old_blocks_time>0是为了防止当对表进行扫描时读入过多的数据,导致其他热点数据被逐出。如果设置的时间比处理试讲要大,那么这些block会一直在尾部,减少了对其他热点数据影响。
innodb_old_blocks_time可以在运行时设置:
SET GLOBAL innodb_old_blocks_time = 1000;
... perform queries that scan tables ...
SET GLOBAL innodb_old_blocks_time = 0;
如果想要预热数据,那么就不需要应用这个变量。
在show engine innodb status的BUFFER POOL AND MEMORY有关于buffer pool lru算法的监控:
Ÿ old database pages:buffer pool尾部拥有的page数量
Ÿ page made young,not young,指block从尾->头的个数和在尾但是没有被头的个数。
Ÿ youngs/s non-youngs/s,在尾部被访问,每秒页面被放入头部,和没有被放入都不的次数。
Ÿ young-making rage:访问导致block被移动到头部的。
Ÿ not:因为innodb_old_block_time而导致访问没有的block没有被放入头部。
这里 young-making rage 和not只是针对对尾部block访问,并不统计头部block的访问。
调整lru算法:
Ÿ 当你看到在在没有大量扫描的情况下,youngs/s很低,说明要减少delay,或者增加尾部占buffer pool的比率。
Ÿ 当有大量扫描,没有看到很多non-youngs/s,但是有很多youngs/s需要增加delay(innodb_old_block_time)。
innodb_buffer_pool_stats和show engine innodb status 都输出了innodb当前的buffer pool状态。
为了减少IO,MyISAM存储引擎使用了cache机制来保存经常访问的数据:
Ÿ 对于索引块,使用特别的结构key cache来维护
Ÿ 对于数据块,mysql没有使用cache,依赖于系统原生的文件系统cache。
当key_buffer_size系统变量来控制key cache控制,如果为0或者太小都无法使用。
当没有key cache,index文件只能通过操作系统提供的原生文件系统buffer访问。
索引块是访问MyISAM索引文件连续的单元。通常索引块大小就是索引btree节点大小。
在key cache中的block大小都是相同的大小,但是可能会和index block大小不同。
当数据要被访问,就需要先检查key_cache,1.若数据在内存中,那么就在key_cache上读写,2.若不在key_cache中,先选一些cache block可能存放了其他表的数据,覆盖上去。
如果选择的block是脏数据,那么先写入到表中。
当在选择block的时候,以block策略选择block。
线程可以同步访问key cache,但是有以下条件:
Ÿ 一个buffer不是被更新,则可以被多个session访问。
Ÿ 若是写访问要等到写入完成,才能让其他session访问。
Ÿ 多个session可以在cache block上初始化替换请求,只要互相不干扰。
key cache无法避免访问冲突,所以提供了多个key cache。默认所有myISAM表所有都cache在默认key cache上。
可以使用cache index来指定key_cache
mysql> CACHE INDEX t1, t2, t3 IN hot_cache;
+---------+--------------------+----------+----------+
| Table | Op | Msg_type | Msg_text |
+---------+--------------------+----------+----------+
| test.t1 | assign_to_keycache | status | OK |
| test.t2 | assign_to_keycache | status | OK |
| test.t3 | assign_to_keycache | status | OK |
+---------+--------------------+----------+----------+
通过set global启动key cache
mysql> SET GLOBAL keycache1.key_buffer_size=128*1024;
通过设置为0来撤销keycache
mysql> SET GLOBAL keycache1.key_buffer_size=0;
如果要撤销默认key cache,会被忽略
mysql> SET GLOBAL key_buffer_size = 0;
mysql> SHOW VARIABLES LIKE 'key_buffer_size';
+-----------------+---------+
| Variable_name | Value |
+-----------------+---------+
| key_buffer_size | 8384512 |
+-----------------+---------+
keycache1是cache的名称,key_buffer_size是cache的组件。
默认,表索引是被分配到默认key cache,key cache在服务启动的时候被创建。
对于繁忙的服务上,你可以使用策略涉及到3个key cache:
Ÿ hot key cache 20%的所有key cache
Ÿ cold key cache 20%的所有key cache
Ÿ warm key cache 60%的所有key cache
语句被分配一个cache,不能和另外一个cache的语句冲突。性能增加有以下几个原因:
Ÿ hot cache值用于读取语句,所以数据不被修改。
Ÿ 对于一个索引被分配给了hot cache,若没有索引扫描请求语句,那么非叶子节点也很有可能在这个cache中。
Ÿ 如果更新的node在cache中,那么临时表的更新操作会更快。如果临时表的索引大小和cold key cache一样,那么被更新的节点在这个cache的可能性很高。
cache index可以关联表和cache,当重启后关联就会消失,若要不消失可以使用配置文件。
key_buffer_size = 4G
hot_cache.key_buffer_size = 2G
cold_cache.key_buffer_size = 2G
init_file=/path/to/data-directory/mysqld_init.sql
mysqld_init.sql里面的语句为:
CACHE INDEX db1.t1, db1.t2, db2.t3 IN hot_cache
CACHE INDEX db1.t4, db2.t5, db2.t6 IN cold_cache
通过使用midpoint,lru策略把key cache分成了2份,hot子列表和warm子列表。midpoint不是固定的,可以通过key_cache_division_limit设置。
当索引被读入,先放到warm的末尾,如果被固定次访问,会被移动到hot列表。访问次数是所有索引块的次数。
转入hot列表末尾,然后block在队列中循环。如果block在队列的开始处一段时间之后,就会被转移到warm队列。使用key_cache_age_threshold来控制时间。
若key_cache包含N个block,如果在N*key_cache_age_threshold/100的hit还没被访问那么就会从hot队列移动到warm队列。
如果喜欢使用纯的lru算法,可以吧key_cache_division_limit设置为100,默认为100。
midpoint插入策略使用key_cache_division_limit可以用来避免扫描而导致的热点数据逐出。
如果key cache有足够多的block来保存整个索引或者至少非叶子节点。在使用之前加载key cache是很有意义的。预加载可以让索引读取更加有效,都是通过磁盘顺序读取读入的。
如果不适用预加载,那么数据时从磁盘随机读取的,不是顺序的。
为了能够预加载索引数据到cache,可以使用load index ito cache语句
mysql> LOAD INDEX INTO CACHE t1, t2 IGNORE LEAVES;
+---------+--------------+----------+----------+
| Table | Op | Msg_type | Msg_text |
+---------+--------------+----------+----------+
| test.t1 | preload_keys | status | OK |
| test.t2 | preload_keys | status | OK |
+---------+--------------+----------+----------+
ignore leaves来决定是否加载叶子。
通过key_cache_block_size可以来指定key cache 块的大小。
当read buffer的大小和原生操作系统IO buffer一样大的时候性能最好。
但是key node大小和IO的buffer一样的时候并不能说明能够达到最好的性能,当读取大的叶子节点,系统拉了很多没必要的数据,影响读取其他节点。
为了控制myi文件block的大小可以在服务启动的时候设置--myisam-block-size。
key cache可以在任何事件被修改
mysql> SET GLOBAL cold_cache.key_buffer_size=4*1024*1024;
当修改key_buffer_size或者key_cache_block_size任意一个都会重建key_cache若有脏页都会被刷新到表中。
当重建是,key cache中的脏数据会被刷新到次哦按,之后cache会变得不可用,但是查询可以直接使用文件系统的cache。
query cache会保存select文本和执行计划。如果有相同的查询被执行,服务会从query cache获取结果,而不是去执行语句。query cache被所有session共享。
在读多写少的环境query cache是比较有用的。如果表被修改,任何相关的query cache都要被清理。
注意:在多个mysqld实例修改一个myisam表的环境下不能使用。
在某些条件下query cache被用来缓存prepared statements,Section 8.9.3.1, “How the Query Cache Operates”.
注意:在mysql5.6.5 query cache不能应用于分区表
query cache的一些性能数据,这些数据是由在mysql benchmark在linux 2*500MHz,2G内存,64MB的query cache:
Ÿ 若所有查询都是简单的但是据俄国都是不一样的,query cache会导致10%的负荷
Ÿ 在当行表中,查找一行使用了query cache速度会快238%。
可以在启动阶段停止query cache,设置query_cache_size为0 。
使用一些query cache配置或者服务的负荷,会出现一些性能下降:
Ÿ 要谨慎query cache过于的大,太大反而让cache维护成本增加。
Ÿ 服务负荷会对query cache效率有很多影响,sql_no_cahe可以让防止更新频繁的表cache select。
因为查询之间的比较是一个字节一个字节比较的,所以以下2个查询会被认为是不同的查询:
SELECT * FROM tbl_name
Select * from tbl_name
查询如果使用不同的数据,不同的协议版本,或者不同的字符集,会被认为是不同的查询和cache。
对于以下查询不能是有query cache:
Ÿ 如果查询是外连接的子查询
Ÿ 在存储函数,触发器,时间内的查询。
在query从query cache获取数据之前,先要检查权限是否足够
如果权限从query cache中获取了结果,状态变量qcache_hits就会自增,而不是com_select状态变量。
如果表修改,那么query cache关于这个表的都会不可用,需要被删除,一下操作都会修改表:
INSERT
, UPDATE
, DELETE
, TRUNCATE TABLE
, ALTER TABLE
, DROP TABLE
, or DROP DATABASE
.
包含了以下函数的查询都不会被缓存:
AES_DECRYPT() (as of 5.7.4) |
AES_ENCRYPT() (as of 5.7.4) |
|
ENCRYPT() with one parameter |
||
UNIX_TIMESTAMP() with no parameters |
||
|
|
查询在以下一些条件下,也不能被缓存:
Ÿ 应用了自定义函数或者存储函数。
Ÿ 引用了自定义变量或者本地过程变量。
Ÿ 对于,mysql,information_schema,performance_schema数据库不能缓存
Ÿ 使用了分区表
Ÿ 以下格式的查询不会被缓存:
SELECT ... LOCK IN SHARE MODE
SELECT ... FOR UPDATE
SELECT ... INTO OUTFILE ...
SELECT ... INTO DUMPFILE ...
SELECT * FROM ... WHERE autoincrement_col IS NULL
使用了serializable隔离级别也无法被cache。
Ÿ 使用了零食表的
Ÿ 不使用任何表的
Ÿ 生成了warning的
Ÿ 涉及的表有列级别权限的
有2个关于query cache的select选项:
Ÿ SQL_CACHE:当query_cache_type为on或者demand的时候,查询结果就会被保存。
Ÿ SQL_NO_CACHE:不对这个查询进行缓存。
使用方法:
SELECT SQL_CACHE id, name FROM customer;
SELECT SQL_NO_CACHE id, name FROM customer;
having_query_cache系统变量说明了query cache是否启动。
mysql> SHOW VARIABLES LIKE 'have_query_cache';
+------------------+-------+
| Variable_name | Value |
+------------------+-------+
| have_query_cache | YES |
+------------------+-------+
如果使用标准版的mysql,就一直是yes,不能被disable。
其他的系统变量可以通过在配置文件中设置来控制query cache。query cache的系统变量都是以query_cahce_.开头的。
把query_cache_size设置为0 来关闭query cache。默认query cache是关闭的,query_cache_size为1MB,query_cache_type为0.
为了减少负担,可以直接把query_cache_type设置为0,关闭query cache。
如果query_cache_size非0那么cache最小40KB来分配结构。如果设置的太小会有警告:
mysql> SET GLOBAL query_cache_size = 40000;
Query OK, 0 rows affected, 1 warning (0.00 sec)
mysql> SHOW WARNINGS\G
*************************** 1. row ***************************
Level: Warning
Code: 1282
Message: Query cache failed to set size 39936;
new query cache size is 0
mysql> SET GLOBAL query_cache_size = 41984;
Query OK, 0 rows affected (0.00 sec)
mysql> SHOW VARIABLES LIKE 'query_cache_size';
+------------------+-------+
| Variable_name | Value |
+------------------+-------+
| query_cache_size | 41984 |
+------------------+-------+
query_cache_size的大小必须和1024B对齐,如:
mysql> SET GLOBAL query_cache_size = 1000000;
Query OK, 0 rows affected (0.04 sec)
mysql> SHOW VARIABLES LIKE 'query_cache_size';
+------------------+--------+
| Variable_name | Value |
+------------------+--------+
| query_cache_size | 999424 |
+------------------+--------+
1 row in set (0.00 sec)
query_cache_type会影响cache如何工作:
Ÿ 如果为0,表示防止缓存或者读取缓存。
Ÿ 如果为1,表示除了lect sql_no_cache之外其他都做缓存
Ÿ 如果为2,表示除了select sql_cache其他的都不会被缓存。
如果query_cache_size设置为0 了,应该也把query_cache_type设置为0,这样query cache就不可能在runtime被使用,减少了查询执行的负荷。
query_cache_type有全局变量和会话级变量。
使用query_cache_limit控制各个查询结果cache的最大值。默认为1MB。
注意不要把cache设置的太大,因为对cache update的时候 thread会锁定cache,这样在大的cache会出现锁冲突。
当查询被cache的时候,他的结果在获取的时候,结果被存在query cache。
因为数据不是总是被保存在一个大的块内,query cache是按需分配的,若空间不够,会再分配一个块。
因为分配是需要花时间的,所以通过query_cache_min_res_unit来控制分配的最小的大小。
Ÿ 默认query_cache_min_res_unit的大小为4kb
Ÿ 如果很多查询都是小结果,那么默认的大小会导致内存碎片。
在这个时候可以减少query_cache_min_res_unit的值,会被清理的块的个数有Qcache_free_blocks和Qcache_lowmem_prunes状态变量控制。
Ÿ 如果查询是大结果的,那么可以把query_cache_min_res_unit调高。
通过一下语句查看是否有query cache
mysql> SHOW VARIABLES LIKE 'have_query_cache';
+------------------+-------+
| Variable_name | Value |
+------------------+-------+
| have_query_cache | YES |
+------------------+-------+
可以通过flush query cache,来整理query cache获得更好的内存使用。
通过RESET QUERY CACHE删除所有query cache。
监控query cache性能,使用show status查看cache状态变量:
mysql> SHOW STATUS LIKE 'Qcache%';
+-------------------------+--------+
| Variable_name | Value |
+-------------------------+--------+
| Qcache_free_blocks | 36 |
| Qcache_free_memory | 138488 |
| Qcache_hits | 79570 |
| Qcache_inserts | 27087 |
| Qcache_lowmem_prunes | 3114 |
| Qcache_not_cached | 22989 |
| Qcache_queries_in_cache | 415 |
| Qcache_total_blocks | 912 |
+-------------------------+--------+
可以在Section 5.1.6, “Server Status Variables”查看状态变量的解释。
所有的select=com_select+qcache_hits+queries with errors found by parser
com_select = qcache_inserts+qcache_not_cached+query with error found during the column privilees check。
qcache_total_blocks和qcache_free_blocks说明了query cache碎片,在执行flush query cache,只有一个free的block被剩下。
每个被缓存的查询,都需要2个以上block,一个用来存语句,一个用来存结果。
Qcache_lowmem_prunes状态变量,因为low memory导致查询从query cache中删除的次数。可以用来调整 query cache 的大小。
一个查询可能在不同的客户端被运行多次,在执行的时候服务会转化语句变成一个内部结构,然后缓存这个结构。cache可以让服务执行更快,因为避免了语句转化带来的负荷。
一下语句会发生转化和缓存:
Ÿ Prepared语句,可以通过prepare语句,也可以通过client/server的驱动如(mysql_stmt_prepare() API),max_prepared_stmt_count系统变量说明了缓存的总语句数量。
Ÿ 存储程序(存储过程,函数,触发器和事件),服务会转化和缓存整个程序体,stored_program_cache系统变量表示了每个会话大概存储的过程数量。
mysql是基于每个会话缓存了prepare语句和存储程序,不能被其他会话访问。
当服务使用内部结构就要主要结构是否过期。如:
PREPARE s1 FROM 'SELECT * FROM t1';
如select *列出了所有的列,若列被修改那么这个prepare语句就会过期了。如果没有发现和修改,那么下次执行的时候就会返回不正确的结果。
为了避免这个问题,服务会自动发现问题,并且重新解析语句。语句的重新解析也会在一下情况发生:
1.引用的表或者试图从表定义的cache中被刷新,
2.影响了在cache分配空间,
3.显示的执行了flush tables。
若存储程序相关的对象被修改,服务会重新解析这些受影响的程序。
为了避免整个存储程序解析,服务只解析影响的语句表达式:
Ÿ 假设只有表或者视图的元数据被修改,只解析sou影响的语句。
Ÿ 当语句被影响呢,服务尽可能的减少解析的量
重新解析使用默认的数据库和sql mode,服务最多试图解析3次,如果发生错误全部会失败。重新解释是自动的,对于prepared语句,com_stmt_reprepare状态变量表示重新解析的次数。
MySQL使用lock来管理冲突:
Ÿ mysql使用内部表来处理多线程的访问表时的内容冲突问题。
Ÿ 当服务和其他程序协同炒作的时候会出现外部锁。
内部锁用于mysql内部,在整个服务内使用不涉及其他程序。
mysql的innodb表使用行级别锁,来支持多会话,多用户高并发的oltp系统。
为了避免多个并发写入在同一个表上出现死锁,可以先使用select…for update锁定,然后再执行update。
因为innodb会自动排查死锁,所以当发现死锁之后会牺牲掉其中一个,所以mysql死锁是包错并不影响性能。
行级别锁的几个好处:
Ÿ 当访问不同的行时,冲突很小。
Ÿ 回滚时修改很少。
Ÿ 可以在一行上锁很久。
mysql中myisam,memory,merge表使用表级锁,同一时间只能一个会话修改一个表。因此比较适合只读,读多,单用户的程序。
这些引擎为了避免死锁,会在先分配所有需要的锁。这些策略会影响并发性。
mysql中申请写锁:
1.如果表上没有lock,设置写锁
2.否则把lock请求放入lock队列
mysql中申请读锁:
1.如果没有写锁在表上,就设置读锁
2.否则把锁请求放入lock队列。
写表优先级别比读高,因此当锁释放,会先满足写锁队列中的请求,然后满足读锁队列中的请求。
这样保证了在大量select情况下不会导致写入数据“饥饿”的情况。同理目前的机制如果出现大量写入,那么会导致读取“饥饿”。
对于锁冲突可以检查状态变量 table_locks_immediate和table_locks_waited。分别表示可以马上获得锁和必须要等待的数量。
mysql> SHOW STATUS LIKE 'Table%';
+-----------------------+---------+
| Variable_name | Value |
+-----------------------+---------+
| Table_locks_immediate | 1151552 |
| Table_locks_waited | 15324 |
+-----------------------+---------+
myisam当没有空闲的block时,插入和select可以并发。
如果想要获取一个表的读锁,应该使用read local,而不是read,local可以让非冲突的insert语句并发执行。
如果要执行很多insert和select在表real_table,当并发insert不可能的时候,你可以插入很多行到temp_table然后更新真实表。如:
mysql> LOCK TABLES real_table WRITE, temp_table WRITE;
mysql> INSERT INTO real_table SELECT * FROM temp_table;
mysql> DELETE FROM temp_table;
mysql> UNLOCK TABLES;
表级锁的好处:
Ÿ 内存开销少
Ÿ 对于大表的锁请求速度快,因为只有一个锁被涉及
Ÿ 对于要scan的表比较靠。
通常表锁适用于:
Ÿ 读多的表
Ÿ 对于读写混合的表,写入都是正对一行可以通过key获取。
UPDATE tbl_name SET column=value WHERE unique_key_col=key_value;
DELETE FROM tbl_name WHERE unique_key_col=key_value;
Ÿ select和insert组合,update和delete很少。
Ÿ 有很多表扫描操作,但是没有写入。
innodb行级别锁,多个会话可以对同一个表进行并发读写,若使用lock table会减少并发性。mysql会在innodb引擎之外的所有其他引擎使用表锁。
是否使用innodb或使用其他存储引擎有一下几个点,考虑表锁的坏处:
Ÿ 表锁不能并发写入同一个表
Ÿ 如果磁盘空间满,没有足够的可用空间,那么表锁会一直锁定这个表,直到有足够的空间可用。
Ÿ 当一个select语句要执行很久,那么会堵塞所有的写入操作,会让其他会话变慢甚至无响应。
以下是一些可以避免或者减少冲突的方法:
Ÿ 考虑把表切换到innodb存储引擎下。
Ÿ 优化select语句,让语句执行的更快减少锁定时间。
Ÿ 启动mysqld的时候使用--low-priority-updates,这样所有的写入都比select语句优先级低。
Ÿ 把所有的写入优先级变低,low_priority_updates系统变量设置为1.
Ÿ 使用low_priority属性来降低指定insert,update,delete语句的优先级别。
Ÿ 使用high_priority属性来提高select语句的优先级别。
Ÿ 启动mysqld的时候使用比较低的max_write_lock_count,这个变量是指在写锁到达变量的值后,允许读锁处理。
Ÿ 若有insert和select并发问题,可以考虑使用myisam存储引擎,myisam支持select和insert并发。
Ÿ 如果在非事务表上混合了insert和delete,考虑使用insert delayed。
Ÿ 如果混合了select和delete,那么可以考虑在delete语句上用limit选项。
Ÿ 使用select的SQL_BUFFER_RESULT可以减少表的锁定时间。
Ÿ 把数据分散到多个表,可以增加并发度
Ÿ 对于某些场景,可以直接修改mysys/thr_lock.c让读写在同一个队列中,来提高性能。
在myisam,insert和select可以并发,如果有一批insert,而且select同时运行,那么有可能insert结果不能马上被看到。
concurrent_insert系统变量可以设置修改并发插入。
默认auto(1),在没有空的block的情况下允许insert和select并发,never(0)并发不可用,alywas(2)不管有没有空的block都可以并发insert。
如果insert可以并发的情况下,就可以不适用insert delayed。
如果启动了binlog,会把create…select或者insert…select传化为普通的插入语句。是为了保证可以通过binlog重新创建表的副本。
使用load data infile,如果myisam表指定了concurrent,并且满足并发条件,其他会话可以在load data执行的时候获取数据。
使用了concurrent选项会影响load data性能,就算没有session在表上面并发也会影响。
如果指定了high_priority,会覆盖--low-priority-updates选项,也会导致并发查询不可用。
对于lock table,read local和read 的不同是read local允许不冲突的insert语句执行。
MySQL会使用元数据锁来管理对象,元数据锁可以保证数据一致性,但是会增加一些负荷,对于多个查询试图访问通过个对象会导致元数据冲突。
为了保证事务一致性,是不允许在没有事务完成时针对这个对象执行ddl语句。
为了达到效果在事务开始时获取元数据所,在事务结束后释放。元数据锁可以防止表结构被修改。
这个锁可以应用在非事务表和事务表。
START TRANSACTION;
SELECT * FROM t;
SELECT * FROM nt;
元数据锁可以同时应用t和nt。
prepare语句执行的时候会获取元数据锁,完成后释放。
在mysql 5.5之前,会用去等量的元数据锁,执行完之后就会释放。坏处是若一个ddl语句执行,而另外一个语句在表上执行,那么语句写入binlog的顺序会出错。
外部锁定是使用文件系统锁定来管理myisam数据库表被多个进程同时访问的冲突。
在以下情况下可能使用外部锁:
Ÿ 如果多服务使用同一个数据库目录,每个服务必须都要使用外部锁。
Ÿ 如果myisamchk执行表myisam的维护,要确保服务没有运行或者使用了外部锁。
如果服务使用外部锁,可以使用myisamchk在任何时候执行表检查,如果服务视图更新表,myisamchk锁定的表,那么服务会等待myisamchk先完成。
如果使用myisamchk执行写操作,如修复或者优化表,那么必须保证mysqld服务没有运行。如果myisamchk和mysqld同时写访问可能会导致数据文件异常。
使用外部锁时,如果进程对表有访问需求,那么会先请求文件系统锁,然后再访问表。如果不能被获取那么进程会被block直到可以获取锁为止。
外部锁会严重影响性能,因为服务必须要等待其他进程访问完之后才能访问。
一个数据文件夹只对应一个服务,并且没有其他程序如myisamchk访问表,那么是没有必要使用外部锁的。如果是只读表也可以不适用外部锁。
如果要在没有外部锁的情况下使用myisamchk,要不停止服务后运行,要不lock,flush后运行。
mysqld使用变量skip_external_locking来控制外部锁,当为enable是外部锁被禁用,反之被启用。
在mysqld启动时通过--external-locking或者--skip-external-locking来控制。
为了让外部锁可以让多个mysqld修改同一个表,需要满足一下条件:
Ÿ 不能使用query cache
Ÿ 不能使用--delay-key-write=ALL或者DELAY_KEY_WRITE=1表选项。
以下变量设置是满足条件的,--external-locking配合delay-key-write=0并且--query-cache-size=0。
总之在使用mysql之前,先要对mysql进行测试。
Ÿ 如果有足够的内存,那么可以考虑删除swap
Ÿ 避免外部锁的使用
只有在多个服务要访问同一个数据文件的时候才需要使用外部锁或者没有lock,flush的时候执行myisamchk。
lock tables和unlock tables用来加锁和解锁表。
shell> mysqld --verbose --help
会输出mysql的选项和配置系统变量输出。
如果mysqld在启动状态可以通过show variables查看系统变量,使用show status查看状态变量。
也使用mysqladmin查看:
shell> mysqladmin variables
shell> mysqladmin extended-status
查看每个变量或者状态变量的描述可以查看:see Section 5.1.4, “Server System Variables”, andSection 5.1.6, “Server Status Variables”.
在sql server中2个比较重要的是key_bufer_size和table_open_cache,在配置其他参数前应该先考虑这个参数。
以下配置说明了不同情况下不同的配置:
Ÿ 如果有大于256MB的内存,有很多表,需要最大化性能,可以使用:
shell> mysqld_safe --key_buffer_size=64M --table_open_cache=256 \
--sort_buffer_size=4M --read_buffer_size=1M &
Ÿ 如果只有128MB内存,只有少量的一些表可以如下使用:
shell> mysqld_safe --key_buffer_size=16M --sort_buffer_size=1M
Ÿ 如果只有少量的内存,但是连接很多,可以如下:
shell> mysqld_safe --key_buffer_size=512K --sort_buffer_size=100K \
--read_buffer_size=100K &
或者
shell> mysqld_safe --key_buffer_size=512K --sort_buffer_size=16K \
--table_open_cache=32 --read_buffer_size=8K \
--net_buffer_length=1K &
如果执行order by和group by,在可用内存还是比较多的情况下可以增加read_rnd_buffer_size来增加空间。提高行读入sort操作的性能。
如果每次都要配置的可以写入配置文件。
Ÿ 磁盘查询时最主要的性能瓶颈,这个问题主要原因是数据变得太大,导致cache失效。
Ÿ 通过把文件使用链接的方式放到别的地方,来增加可用的磁盘主轴。
s 使用symbolic链接
对于myisam,可以把索引文件和数据文件放到其他盘,然后使用symlink链接到数据目录
s 条带化
条带化意味着你有很多磁盘,然后把第一块放入第一个磁盘,第二个放入第二个磁盘,第N块放到第N个磁盘。
当数据大小小于条带化是,性能是最好的,因为是对齐的。条带化比较依赖操作系统和条带大小,所以要对不同的条带大小进行压测。
条带化的性能会根据参数而不同,根据设置不同的条带化参数和磁盘个数,从来选择最优的随机或者顺序访问的配置。
Ÿ 为了可靠性,可以考虑使用RAID 0+1,这种情况需要2*N的空间来保存N的空间。
Ÿ 根据数据的特性来选择RAID级别。
Ÿ 通过使用hdparm配置磁盘接口,来提高性能。
hdparm -m 16 -d 1
Ÿ 也可以修改设置文件系统的参数设置
如果不需要知道最后访问的时间,可以通过mount的-o noatime,减少文件系统的最后访问时间更新,可以减少disk seek
在很多操作系统可以通过-o async选项来异步的完成最后访问时间的更新。
可以把数据库或者表文件系统到其他地方,然后使用符号链接。
对于innodb可以再create table使用data directory子句来代替符号链接。
推荐吧整个数据库使用symlink到其他磁盘
使用以下语句查看数据文件夹位置:
SHOW VARIABLES LIKE 'datadir';
在unix上使用符号链接,首先要创建目录,然后使用soft link
shell> mkdir /dr1/databases/test
shell> ln -s /dr1/databases/test /path/to/datadir
当做了以下处理,那么在db1上的tbl_a的修改液会出现在db2的tbl_a上,如果同时修改2个数据库的tbl_a那么就可能会出现问题。
shell> cd /path/to/datadir
shell> ln -s db1 db2
只有MyISAM表可以完全支持符号链接,对于innodb可以指定表空间来解决,Section 14.5.4, “Specifying the Location of a Tablespace”。
可以通过have_symlink查看系统是否支持符号链接
SHOW VARIABLES LIKE 'have_symlink';
MyISAM表的符号链接处理:
Ÿ 在数据文件夹中,总是有frm,myd,myi文件,数据文件和索引文件可以被符号链接替换,但是frm文件不行。
Ÿ 可以通过符号链接,把索引文件和数据文件指向其他数据文件夹
Ÿ 也可以通过create table的data directory和index directory来设置目录。
Ÿ Myisamchk不会使用数据文件或者索引文件来替换符合链接,而是直接使用符号链接指向的文件。Alter table,optimize table,repair table 也一样
注意:当使用符号链接的表被删除了,符号链接所使用的符号链接和数据文件都会被删除。
Ÿ 如果使用alter table rename或者rename table重命名表,但是不移动数据库,重命名链接文件,并重命名数据文件和索引文件。
Ÿ 如果使用alter table rename或者rename table把表移动到另外一个数据库,
但是文件目录被移动到另外的数据库文件,如果表名被修改,在新的目录中的符号链接名被修改,并且数据文件和索引文件也被修改。
这些表的符号链接需要满足:
Ÿ Alter table忽略data directory和index directory选项
Ÿ 只能支持数据文件和索引文件的符合链接,frm文件不支持符号链接
如果一个表tbl2符合链接到了同一个数据库的tbl1,那么一个线程读取tbl1一个线程修改tbl2就会有如下问题:
shell> cd /path/to/datadir/db1
shell> ln -s tbl1.frm tbl2.frm
shell> ln -s tbl1.MYD tbl2.MYD
shell> ln -s tbl1.MYI tbl2.MYI
Ÿ Query cache无法辨认tbl1和tbl2
Ÿ Alter table tbl2会失败
查看http://dev.mysql.com/doc/refman/5.6/en/symbolic-links.html
以下列表说明了mysqld如何使用内存。
Ÿ 所有线程共享myisam的key buffer。大小由key_buffer_size控制。
Ÿ 每个线程使用线程各自的空间来管理客户端连接,
s 堆栈由变量thread_stack控制
s 连接buffer由变量net_buffer_length控制
s 结果buffer由变量net_buffer_length控制、
连接buffer和结果buffer起初都和net_buffer_length相同,会动态增长最大到max_allowed_packet。每个语句执行完之后都会把结果buffer收缩到net_buffer_length大小。
Ÿ 所有的线程共享同一个base memory
Ÿ 当thread不在被需要的时候,内存会被释放到system,除非thread到了thread cache中,这个时候分配的内存会被保留。
Ÿ Myisam_use_mmap变量设置为1,表示为myisam表文件开启内存映射。
Ÿ 每个顺序扫描分配一个read buffer 由read_buffer_size控制。
Ÿ 当读取是随机读取,随机读取buffer会被分配用来减少磁盘seek。
Ÿ 所有join都是single pass,大多数join是不需要临时表的,大多数临时表是存放hash表的,弱内存中临时表太大那么会被放到硬盘上。
Ÿ 大多数请求是一个sort buffer和0到2个临时文件来排序,临时文件个数由文件个数来决定。
Ÿ 所有解析和计算都是在thread 本地和可重用内存池中完成的。
Ÿ 对于每个被打开的myisam表,索引文件只会被打开一次,数据文件是每次请求就被打开一次。
Ÿ 对于有blob的表,buffer会增大到结果集中最大的blob一样的大小。对于表扫描会增大到表中最大的blob的大小。
Ÿ 所有在使用的表的句柄结构是以先进先出的方式存放在cache中,cache的初始化大小为table_open_cache。如果有2个查询要访问同一个表,那么会胃每个查询都打开一个对象。
Ÿ Flush table语句或者MySQLadmin flush-tables命令关闭所有未使用的表,当所有在使用的表,当使用完毕之后也会被关闭。Flush table在所有的表都被关闭后返回。
Ÿ 当使用grant,create user,create server,install plugin语句的结果会被保存在内存中,revoke,drop user,drop server,uninstall plugin并不会删除缓存,
之后当执行flush privileges才会被清理。
对于一些内存和操作系统体系结构支持内存页大于默认的4kb,large page的支持依赖于硬件和操作系统,对于执行大量内存因为减少了TLB丢失,可以增加一些性能。
TLB是硬件中用来缓存,虚拟内存地址转化为物理地址后的一个映射。下次使用虚拟地址访问无需在转化一遍虚拟地址。
在MySQL中,large page可以在InnoDB中被使用,可以用于buffer pool 和其他内存池。
在MySQL中标准的使用large page的大小为4mb,可以通过—super-large-pages或者—skip-super-large-pages控制。
MySQL也支持Linux对large page的支持(被叫做hugeTLB)。
在Linux下使用large page首先要在Linux内核中启用。对于redhat默认是启动large page的。
shell> cat /proc/meminfo | grep -i huge
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 4096 kB
输出是非空的说明支持large page,0表示large page 没有被配置使用。
如果已经支持了内核,可以使用以下代码来配置让MySQL使用,这个配置在每次启动后都要被使用。
# Set the number of pages to be used.
# Each page is normally 2MB, so a value of 20 = 40MB.
# This command actually allocates memory, so this much
# memory must be available.
echo 20 > /proc/sys/vm/nr_hugepages
# Set the group number that is permitted to access this
# memory (102 in this case). The mysql user must be a
# member of this group.
echo 102 > /proc/sys/vm/hugetlb_shm_group
# Increase the amount of shmem permitted per segment
# (12G in this case).
echo 1560281088 > /proc/sys/kernel/shmmax
# Increase total amount of shared memory. The value
# is the number of pages. At 4KB/page, 4194304 = 16GB.
echo 4194304 > /proc/sys/kernel/shmall
通过以下代码来验证
shell> cat /proc/meminfo | grep -i huge
HugePages_Total: 20
HugePages_Free: 20
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 4096 kB
最后一步,让MySQL使用Hugetlb_shm_group时,memlock为“unlimited”,可以通过/etc/security/limits.conf或者mysqld_safe增加脚本
ulimit -l unlimited
large page默认是禁用的如果要使用,可以在配置文件上配置
[mysqld]
large-pages
有了这个选项InnoDB会自动的在buffer pool和其他内存池上使用large page。如果没有使用那么会在error log上有警告
Warning: Using conventional memory pool
可以通过/proc/meminfo来验证
shell> cat /proc/meminfo | grep -i huge
HugePages_Total: 20
HugePages_Free: 20
HugePages_Rsvd: 2
HugePages_Surp: 0
Hugepagesize: 4096 kB
连接管理器,为每个连接分配一个专用的线程。为了避免连接管理器创建一个关联的线程,那么会先查看线程cache看是否包含了一个可用的线程。
如果连接结束,如果cache没满,那么会把thread返回给线程cache。
这种连接线程模式下,连接个数和线程个数一样多,如果出现大量的连接,那么会造成一些问题。
因为每个线程都会消耗服务,内核资源,stack,为了保证大并发,必须减少每个线程的stack大小。
当Mysql 5.6.10之后,引入了线程池插件提供了一个替换方案,来减少开销提高性能。在大连接情况下,线程池通过有效的管理语句执行的线程,提高了服务性能。
已通过系统变量和状态变量查看mysql是如何管理连接和线程的关系。
thread_cache_size表示thread cache的大小,如果为0(默认)表示没有cache。这样有新连接的时候会创建,在连接中断后会被销毁。
如果设置thread_cache_size为N就是说可以运行N个不活动的连接缓存线程。thread_cache_size可以在服务启动的时候会在正在运行的时候被设置。
可以使用threads_cached和threads_created状态来监控cache中的thread。
max_connections控制最大允许的连接数。
当thread stack他笑,限制了复杂的sql,递归的深度和一些内存消耗大的行为。
mysql服务维护了一个host cache保存了ip地址,host,错误信息。服务使用这个cache主要用于非本地的tcp连接。
不能用于回环网络接口,unix socket file,命名管道和共享内存的访问方式。
当有新连接,服务会检查ip是否次年在在cache中,若没有先解决ip到host的对应,服务会把信息保存在cache中,如果满了,会把最后一个取消掉。
host_cache以表的当时在数据库performance_schema下可以通过select查询。
host cache的项处理方法如下:
Ÿ 当第一个tcp客户端连接到达,先创建一个记录,然后存入IP,host为null,标记为false
Ÿ 如果标记为false服务会试图通过ip获取host,若成功写入host,修改flag。若失败,如果是永久性错误,那么host保持为null,flag设置为true,如果不是保持不变。
Ÿ 若在获取时出错服务会更新error信息。
服务在解决ip和host对应问题的时候,如果os支持,那么会使用gethostbyaddr_r(),gethostbyname_r(),
否则使用gethostbyaddr(),gethostbyname()会有lock mutex可能会堵塞其他线程。
服务使用host cache有以下几个目的:
Ÿ 通过缓存ip-host对可以避免为每个客户端连接做dns查看。
Ÿ cache包含了连接处理过程中的错误。如果指定host出现太多错误,就会block不让这个host再请求连接。
max_connect_errors如果被草果服务会block这个客户端的连接。
为了缓解block的host,可以使用flush hosts语句或者执行mysqladmin flush-hosts
host cache默认是启动的,可以通过把host_cache_size设置为0来禁用host cache。
可以通过--skip-name-resolve来禁止DNS查看host name,这样服务都会使用ip来匹配grant表。
如果DNS非常慢,为了提高性能可以使用--skip-name-resolve或者增加host_cache_size的大小。
如果要限制tcp连接,可以通过--skip-networking选项。
有一些错误和tcp连接不相关,在连接之前就已经发生,对于这些错误可以查看状态变量 Connection_errors_XXX
默认的线程处理模式是一个连接一个线程,如果客户端连接越多会导致性能越烂。线程池提高了在大量客户端连接的情况下的性能。
线程池主要解决了一下问题:
Ÿ 太多线程的stack导致cpu cache使用效率变低
Ÿ 如果线程太多会导致上下文切换边频繁
Ÿ 如果执行线程过多导致资源争用增加
线程池是商用插件,不包含在通用发布版。(在mariadb上有thread pool功能,具体看:Thread pool in MariaDB 5.5)。
线程池包含以下组件:
Ÿ 插件library对象包含了插件的代码和information_schema上的一些表(TP_THREAD_STATE,TP_THREAD_GROUP_STATE,TP_THREAD_GROUP_STATS)。
Ÿ 系统变量也有一些线程池相关的系统变量,当服务成功加载thread pool插件,thread_handling为loaded-dynamically。
其他相关的变量
Ÿ thread_pool_algorithm:用于调度的并发算法
Ÿ thread_pool_high_priority_connection:如何调度语句执行
Ÿ thread_pool_prio_kickup_timer:thread pool中优先级从低到高需要的时间
Ÿ thread_pool_max_unused_threads:允许的睡眠的线程个数
Ÿ thread_pool_size:线程池中thread group个数
Ÿ thread_pool_stall_limit:在执行前被stall的时间。
若变量设置有问题插件就无法被加载。
Ÿ performance schema中有相关的thread pool信息。
为了让线程池插件被加载library必须在mysql插件目录中,plugin_dir系统变量指示了这个值。
配置my.cnf加载插件:
只加载插件不加载information_schema表
[mysqld]
plugin-load=thread_pool.so
也可以逐个加载全部插件
[mysqld]
plugin-load=thread_pool.so
plugin-load=thread_pool=thread_pool.so;tp_thread_state=thread_pool.so;tp_thread_group_state=thread_pool.so;tp_thread_group_stats=thread_pool.so
如果要加载某一个表
[mysqld]
plugin-load=thread_pool=thread_pool.so;TP_THREAD_STATE=thread_pool.so
如果不加载information_schema表,那么一些thread pool监控图形就无法显示。
可以通过information_schema.plugins表来验证线程池插件安装。
若加载成果,把thread_handling设置为dynamically-loaded。如果加载失败会写一个错误信息。
thread pool由thread group组成,每个组都管理一些客户端连接。客户端一连接就会以回环的方式分配给thread group。
thread group的个数由thread_pool_size决定,每个组内最大的线程个数是4096(或者4095其中一个线程会被内部使用。)
thread pool把连接和线程拆开,因此连接和线程之间没有固定的关系。
thread group尝试保证每个group里面只有一个线程是运行的。但是有时候为了性能有时候一个thread group可能有多个运行的线程。算法如下:
Ÿ 每个thread group都有一个侦听的线程用来把进来的语句分配给组。当语句到达,线程组要不马上运行要不让他等待之后运行
s 当语句是为唯一一个到达的并且没有语句在排队或者有运行的语句,那么就会被马上执行
s 如果不能被马上执行,那么就放入队列等待。
Ÿ 当马上执行是,由侦听线程来执行,如果很快完成thread返回,继续侦听,如果不能马上返回,那么考虑stall启动另外一个线程来侦听。
使用侦听线程可以快速的执行,不需要创建另外一个线程,在低并发下可以快速的执行sql
当thread pool启动,会为每个thread group创建一个侦听线程和一个后台线程。其他线程会根据运行的需要而创建。
Ÿ thread_pool_stall_limit系统变量决定了,语句需要等多久,如果超过了变量值就会启动另外一个线程执行。
如果等待小避免死锁出现,如果等待大避免并发量过大而导致的问题。
Ÿ thread pool会强制限制短查询的并发量,在到达堵塞时间之前,会阻止其他语句执行,如果超过了堵塞时间,就允许其他语句执行不会再阻止。
这样就保证了只有一个短运行语句,但是可能有多个长运行语句。
Ÿ 当语句发送io操作或者用户级别锁(行锁或者表锁)的时候就会被堵塞。堵塞可能会导致thread group不能使用,
所以有个回调函数,回调到thread pool,让thread pool为这个group创建一个线程来执行其他的语句。
Ÿ 有2个队列,一个是高优先级的,一个是低优先级的,第一个语句进入的时候进入低优先级。
当事务在运行时,事务内的语句都会被放入高优先级队列。变量thread_pool_high_priority_connection可以让会话产生的语句都进入高优先级队列。
如果语句是非事务性语句或者是自动提交的语句,会被放入低优先级。
Ÿ 当thread group选择一个语句执行的时候,会先去看高优先级队列,再去看低优先级队列。如果找到,就冲队列中删除。
Ÿ 如果语句在低优先级队列很长时间,thread pool会把它移动到高优先级队列中,thread_pool_prio_kuckup_timer来控制这个时间。
最大的移动速度是每个语句10ms或者1秒100个语句。
Ÿ thread pool会重用最活跃的线程,这样可以让cpu cache发挥更好的性能。
Ÿ 当thread执行来自连接的语句,performance schema会把线程活动记录给这个连接。否则会记给thread pool
一下几个例子说明什么情况下,会出现多个执行的线程:
Ÿ 一个线程执行语句,但是运行的太长被认为堵塞了的时候,thread group会启动一个线程来执行语句。
Ÿ 一个线程执行语句,被堵塞了并报给了thread pool,thread group会允许启动另外一个线程来执行语句。
Ÿ 一个线程执行语句,被堵塞了,但是没有报告因为不在可以报告的代码里面,那么执行时间超过thread_pool_stall_limit的时候,thread group允许另外一个线程执行新的语句。
thread pool被设计成可以更具连接数扩展,并控制执行的线程数减少死锁。对于无法报告的堵塞,这个很重要,因为这些可能会导致死锁:
Ÿ 长运行语句。使用了大量资源导致其他语句无法访问
Ÿ binary log导出线程读取binary log并发送到slave,这类长运行的线程运行时间长,并且不能堵塞其他语句的运行。
Ÿ 语句堵塞在行锁,表锁,sleep,和其他堵塞类型,不能被mysql或者引擎报告。
以上各个情况,阻止死锁,当语句没有很快被完成是,会被认为堵塞,这样thread group可以让另外一个线程运行其他语句。
最大的线程数是max_connections和thread_pool_size的和,当所有连接语句都在执行,并且每个thread group 都有额外的侦听线程是出现这情况。
thread_pool_size是thread pool最主要的参数之一,影响thread pool的性能。可以在服务启动时调整,文档的经验值:
Ÿ 如果主要的存储引擎是innodb,可以把这个值设置在16-36,最优的值一般在24-36,有些特殊的情况需要对于16.
Ÿ 如果主要的是myisam,值可以相对的低一点。
thread_pool_stall_limit,是另外一个比较重要的变量,特别是对堵塞和长运行语句的控制。block有2种,1种是thread会报告堵塞的。另外一个种是无法报告堵塞的。
变量保证了不至于让整个服务都处于block状态下,也可以减少死锁风险。长运行查询被允许堵塞thread group那么被分配给这个group的所有语句都会被堵塞。
thread_pool_stall_limit设置的时候要比一般的语句要长,设置的太高会导致小运行语句会等待长运行的语句太长时间。减少等待时间可以加快语句执行,也可以减少死锁。
假设99.9%的语句在100ms内完成,其他的语句分布在100ms-2h,那么把thread_pool_stall_limit设置为10也就是100ms即可。
这个变量可以在服务运行时修改,如果启用了TP_THREAD_GROUP_STATS表,就可以使用一下语句查看有多少语句被堵塞了:
SELECT SUM(STALLED_QUERIES_EXECUTED) / SUM(QUERIES_EXECUTED)
FROM information_schema.TP_THREAD_GROUP_STATS;
这个值应该越小越好。
假设一下场景那么,最大的被执行时间是多少呢:
Ÿ 有200个语句在低优先级队列
Ÿ 有10个在高优先级队列
Ÿ thread_pool_prio_kickup_timer为10000(10s)
Ÿ thread_pool_stall_limit为100(1s)
那么最烂的情况如下,若10个高优先级别都是长运行的,那么10个高优先都要被运行到的时间是10s,在最坏的情况下,没有语句被移动到高优先级队列,因为都已经包含了等待运行的语句。
之后需要花2s的时间把语句移动到高优先级队列因为100/s。这样语句都在高优先级队列了,那么由要运行200个语句并且都是长运行的,那么需要花200s。所以一共是222s。
(不是很理解,应该在高优先执行到之后,不需要在等10s才能移动语句到高优先级队列)
具体看:http://dev.mysql.com/doc/refman/5.6/en/optimize-benchmarking.html
浅析multi range read(MRR) & batch key access(BKA) & block nested loop(BNL)