这条查询语句在 MySQL
内部的执行过程?
select * from T where id=10
MySQL
逻辑架构图大体来说,MySQL
可以分为 Server
层和存储引擎层两部分。
Server
层包括连接器、查询缓存、分析器、优化器、执行器等,涵盖 MySQL
的大多数核心服务功能,以及所有的内置函数(如日期、时间、数学和加密函数等),所有跨存储引擎的功能都在 这一层实现,比如存储过程、触发器、视图等。
而存储引擎层负责数据的存储和提取。其架构模式是插件式的,支持 InnoDB、MyISAM、 Memory
等多个存储引擎。现在最常用的存储引擎是 InnoDB
,它从 MySQL 5.5.5
版本开始成为了 MySQL
的默认存储引擎。
第一步,你会先连接到这个数据库上,这时候接待你的就是连接器。连接器负责跟客户端建立连接、获取权限、维持和管理连接。连接命令一般是这么写的:
# ip 地址 端口号 用户名 密码
mysql -h$ip -p$port -u$user -p
# -p 后面可以直接跟密码,但是不建议,有密码泄漏的风险
连接命令中的 mysql
是客户端工具,用来跟服务端建立连接。在完成经典的 TCP
握手后,连接器就要开始认证你的身份,这个时候用的就是你输入的用户名和密码。
如果用户名或密码不对,你就会收到一个 “Access denied for user” 的错误,然后客户端程序结束执行。
如果用户名密码认证通过,连接器会到权限表里面查出你拥有的权限。之后,这个连接里面的权限判断逻辑,都将依赖于此时读到的权限。
这就意味着,一个用户成功建立连接后,即使你用管理员账号对这个用户的权限做了修改,也不 会影响已经存在连接的权限。修改完成后,只有再新建的连接才会使用新的权限设置。
show processlist;
客户端如果太长时间没动静,连接器就会自动将它断开。这个时间是由参数 wait_timeout
控制 的,默认值是 8 小时。
如果在连接被断开之后,客户端再次发送请求的话,就会收到一个错误提醒: Lost connection to MySQL server during query
。这时候如果你要继续,就需要重连,然后再执行请求了。
数据库里面,长连接是指连接成功后,如果客户端持续有请求,则一直使用同一个连接。短连接则是指每次执行完很少的几次查询就断开连接,下次查询再重新建立一个。
建立连接的过程通常是比较复杂的,所以我建议你在使用中要尽量减少建立连接的动作,也就是尽量使用长连接。
但是全部使用长连接后,你可能会发现,有些时候 MySQL
占用内存涨得特别快,这是因为 MySQL
在执行过程中临时使用的内存是管理在连接对象里面的。这些资源会在连接断开的时候释放。所以如果长连接累积下来,可能导致内存占用太大,被系统强行杀掉(OOM
),从现象看就是 MySQL
异常重启了。
怎么解决这个问题呢?你可以考虑以下两种方案。
MySQL 5.7
或更新版本,可以在每次执行一个比较大的操作后,通过执行 mysql_reset_connection
来重新初始化连接资源。这个过程不需要重连和重新做权限验证, 但是会将连接恢复到刚刚创建完时的状态。连接建立完成后,你就可以执行 select
语句了。执行逻辑就会来到第二步:查询缓存。
之前执行过的语句可能是以 key - value
的形式缓存到内存中,如果你的查询能直接在缓存中找到,就直接返回 value
,不需要进行后面的复杂操作。
但是大多数情况下我会建议你不要使用查询缓存,为什么呢?因为查询缓存往往弊大于利。
查询缓存的失效非常频繁,只要有对一个表的更新,这个表上所有的查询缓存都会被清空。
除非你的业务就是有一张静态表,很长时间才会更新一次。比如,一个系统配置表,那这张表上的查询才适合使用查询缓存。
好在 MySQL
也提供了这种“按需使用”的方式。你可以将参数 query_cache_type
设置成 DEMAND
,这样对于默认的 SQL
语句都不使用查询缓存。而对于你确定要使用查询缓存的语 句,可以用 SQL_CACHE
显式指定,像下面这个语句一样:
需要注意的是,MySQL 8.0
版本直接将查询缓存的整块功能删掉了,也就是说 MySQL 8.0
开始彻底没有这个功能了。
如果没有命中查询缓存,就要开始真正执行语句了。首先,MySQL
需要知道你要做什么,因此 需要对 SQL
语句做解析。
进行词法分析、语法分析两个过程。
如果你的语句不对,就会收到 “You have an error in your SQL syntax”
的错误提醒。
一般语法错误会提示第一个出现错误的位置,所以你要关注的是紧接 “use near” 的内容。
经过了分析器,MySQL
就知道你要做什么了。在开始执行之前,还要先经过优化器的处理。
优化器是在表里面有多个索引的时候,决定使用哪个索引;或者在一个语句有多表关联(join) 的时候,决定各个表的连接顺序。比如你执行下面这样的语句,这个语句是执行两个表的 join
:
select * from t1 join t2 using(ID) where t1.c=10 and t2.d=20;
这两种执行方法的逻辑结果是一样的,但是执行的效率会有不同,而优化器的作用就是决定选择使用哪一个方案。
优化器阶段完成后,这个语句的执行方案就确定下来了,然后进入执行器阶段。
MySQL
通过分析器知道了你要做什么,通过优化器知道了该怎么做,于是就进入了执行器阶段,开始执行语句。
开始执行的时候,要先判断一下你对这个表 T 有没有执行查询的权限,如果没有,就会返回没有权限的错误,如下所示。
mysql> select * from T where ID=10;
ERROR 1142 (42000): SELECT command denied to user 'b'@'localhost' for table 'T'
如果有权限,就打开表继续执行。打开表的时候,执行器就会根据表的引擎定义,去使用这个引擎提供的接口。
比如我们这个例子中的表 T 中,ID 字段没有索引,那么执行器的执行流程是这样的:
InnoDB
引擎接口取这个表的第一行,判断 ID 值是不是 10,如果不是则跳过,如果是则将这行存在结果集中;至此,这个语句就执行完成了。
你会在数据库的慢查询日志中看到一个 rows_examined
的字段,表示这个语句执行过程中扫描了多少行。这个值就是在执行器每次调用引擎获取数据行的时候累加的。
在有些场景下,执行器调用一次,在引擎内部则扫描了多行,因此引擎扫描行数跟 rows_examined并不是完全相同的。
我给你留一个问题吧,如果表 T 中没有字段 k,而你执行了这个语句 select * from T where k=1, 那肯定是会报“不存在这个列”的错误: “Unknown column ‘k’ in ‘where clause’”。你觉得这个错误是在我们上面提到的哪个阶段报出来的呢?
答:分析器阶段。
update T set c=c+1 where ID=2;
之前你可能经常听 DBA
同事说,MySQL
可以恢复到半个月内任意一秒的状态,惊叹的同时,你是不是心中也会不免会好奇,这是怎样做到的呢?
首先,可以确定的说,查询语句的那一套流程,更新语句也是同样会走一遍。
与查询流程不一样的是,更新流程还涉及两个重要的日志模块,它们正是我们今天要讨论的主角:redo log(重做日志)
和 binlog(归档日志)
。
redo log
物理日志。
同样,在 MySQL
里也有这个问题,如果每一次的更新操作都需要写进磁盘,然后磁盘也要找到对应的那条记录,然后再更新,整个过程IO 成本、查找成本都很高。
其实就是 MySQL
里经常说到的 WAL
技术,WAL
的全称是 Write-Ahead Logging
,它的关键点就是先写日志,再写磁盘。
具体来说,当有一条记录需要更新的时候,InnoDB
引擎就会先把记录写到 redo log
(重做日志)里面,并更新内存,这个时候更新就算完成了。同时,InnoDB
引擎会在适当的时候,将这个操作记录更新到磁盘里面,而这个更新往往是在系统比较空闲的时候做。
InnoDB
的 redo log
是固定大小的,比如可以配置为一组 4 个文件,每个文件的大小是 1 GB
,那么这块“内存”总共就可以记录 4 GB
的操作。从头开始写,写到末尾就又回到开头循环写,如下面这个图所示。
write pos
是当前记录的位置,一边写一边后移,写到第 3 号文件末尾后就回到 0 号文件开头。
checkpoint
是当前要擦除的位置,也是往后推移并且循环的,擦除记录前要把记录更新到数据文件。
write pos
和 checkpoint
之间的是“空间”上还空着的部分,可以用来记录新的操作。如果 write pos
追上 checkpoint
,表示“空间”满了,这时候不能再执行新的更新,得停下来先擦掉一些记录,把 checkpoint
推进一下。
binlog
逻辑日志。
前面我们讲过,MySQL
整体来看,其实就有两块:一块是 Server
层,它主要做的是 MySQL
功能 层面的事情;还有一块是引擎层,负责存储相关的具体事宜。上面我们聊到的粉板 redo log
是 InnoDB
引擎特有的日志,而 Server
层也有自己的日志,称为 binlog
(归档日志)。
我想你肯定会问,为什么会有两份日志呢?
因为最开始 MySQL
里并没有 InnoDB
引擎。MySQL
自带的引擎是 MyISAM
,但是 MyISAM
没有 crash-safe
的能力,binlog
日志只能用于归档。而 InnoDB
是另一个公司以插件形式引入 MySQL
的,既然只依靠 binlog
是没有 crash-safe
能力的,所以 InnoDB
使用另外一套日志系统— — 也就是 redo log
来实现 crash-safe
能力。
MySQL 的 crash-safe 原理解析
这两种日志有以下三点不同。
redo log
是 InnoDB
引擎特有的;binlog
是 MySQL
的 Server
层实现的,所有引擎都可以使用。
redo log
是物理日志,记录的是“在某个数据页上做了什么修改”;binlog
是逻辑日志,记录的是这个语句的原始逻辑,比如“给ID=2 这一行的 c 字段加 1 ”。
redo log
是循环写的,空间固定会用完;binlog
是可以追加写入的。“追加写”是指 binlog
文件写到一定大小后会切换到下一个,并不会覆盖以前的日志。
有了对这两个日志的概念性理解,我们再来看执行器和 InnoDB
引擎在执行这个简单的 update
语句时的内部流程。
update T set c=c+1 where ID=2;
redo log
里面,此时 redo log
处 于 prepare
状态。然后告知执行器执行完成了,随时可以提交事务。binlog
,并把 binlog
写入磁盘。redo log
改成提交(commit)状态,更新完成。这里我给出这个 update
语句的执行流程图,图中浅色框表示是在 InnoDB
内部执行的,深色框表 示是在执行器中执行的。
你可能注意到了,最后三步看上去有点“绕”,将 redo log
的写入拆成了两个步骤:prepare
和 commit
,这就是"两阶段提交"。
为什么必须有“两阶段提交”呢?这是为了让两份日志之间的逻辑一致。要说明这个问题,我们得从文章开头的那个问题说起:怎样让数据库恢复到半个月内任意一秒的状态?
前面我们说过了,binlog
会记录所有的逻辑操作,并且是采用“追加写”的形式。如果你的 DBA
承诺说半个月内可以恢复,那么备份系统中一定会保存最近半个月的所有 binlog
,同时系统会定期做整库备份。这里的“定期”取决于系统的重要性,可以是一天一备,也可以是一周一备。
当需要恢复到指定的某一秒时,比如某天下午两点发现中午十二点有一次误删表,需要找回数据,那你可以这么做:
binlog
依次取出来,重放到中午误删表之前的那个时刻。这样你的临时库就跟误删之前的线上库一样了,然后你可以把表数据从临时库取出来,按需要恢复到线上库去。
由于 redo log
和 binlog
是两个独立的逻辑,如果不用两阶段提交,要么就是先写完 redo log
再写 binlog
,或者采用反过来的顺序。我们看看这两种方式会有什么问题。
redo log
后写 binlog
。**假设在 redo log
写完,binlog
还没有写完的时候,MySQL
进程异常重启。由于我们前面说过的,redo log
写完之后,系统即使崩溃,仍然能够把数据恢复回来,所以恢复后这一行 c 的值是1。 但是由于 binlog
没写完就 crash
了,这时候 binlog
里面就没有记录这个语句。因此,之后备份日志的时候,存起来的 binlog
里面就没有这条语句。 然后你会发现,如果需要用这个 binlog
来恢复临时库的话,由于这个语句的 binlog
丢失,这个临时库就会少了这一次更新,恢复出来的这一行 c 的值就是 0,与原库的值不同。binlog
后写 redo log
。**如果在 binlog
写完之后 crash
,由于 redo log
还没写,崩溃恢复以后这个事务无效,所以这一行c 的值是 0。但是 binlog
里面已经记录了“把 c 从 0 改成 1 ”这个日志。所以,在之后用 binlog
来恢复的时候就多了一个事务出来,恢复出来的这一行 c 的值就是 1,与原库的值不同简单说,redo log
和 binlog
都可以用于表示事务的提交状态,而两阶段提交就是让这两个状态保持逻辑上的一致。
最经典的例子就是转账:在转账的过程中有查余额、做加减法、更新余额等操作,如果在更新余额之前再查一次,再给别人转账,你的钱就会变成负数了。
简单说:事务就是要保证一组数据库操作要么全部成功,要么全部失败。在 MySQL
中事务是在引擎层中实现的。
你现在知道,MySQL
是一个支持多引擎的系统,但并不是所有的引擎都支持事务。比如 MySQL
原生的 MyISAM
引擎就不支持事务,这也是 MyISAM
被 InnoDB
取代的重要原因之一。
提到事务,你肯定会想到 ACID(Atomicity、Consistency、Isolation、Durability,即原子性、一致性、隔离性、持久性)
,今天我们就来说说其中 I,也就是 “隔离性”。
当数据库上有多个事务同时执行的时候,就可能出现脏读(dirty read)、不可重复读(non-repeatable read)、幻读(phantom read)的问题,为了解决这些问题,就有了“隔离级别”的概念。
在谈隔离级别之前,你首先要知道,你隔离得越严实,效率就会越低。因此很多时候,我们都要在二者之间寻找一个平衡点。SQL
标准的事务隔离级别包括:读未提交(read uncommitted)、读提交(read committed)、可重复读(repeatable read)和串行化(serializable )
。
例如:
变量 | 读未提交 | 读已提交 | 可重复读 | 串行化 |
---|---|---|---|---|
v1 |
2 | 1 | 1 | 1 |
v2 |
2 | 2 | 1 | 1 |
v3 |
2 | 2 | 2 | 2 |
Oracle,SQL Server
数据库的默认隔离级别其实就是“读提交”。
MySQL
数据库的默认隔离级别其实是“可重复读”。
平常项目中事务的场景大多是“读已提交”。
可重复读的场景:
假设你在管理一个个人银行账户表。一个表存了每个月月底的余额,一个表存了账单明细。这时候你要做数据校对,也就是判断上个月的余额和当前余额的差额,是否与本月的账单明细一致。你一定希望在校对过程中,即使有用户发生了一笔新的交易,也不影响你的校对结果。
在 ·MySQL
中,实际上每条记录在更新的时候都会同时记录一条回滚操作。记录上的最新值,通过回滚操作,都可以得到前一个状态的值。
假设一个值从 1 被按顺序改成了 2、3、4,在回滚日志里面就会有类似下面的记录。
你一定会问,回滚日志总不能一直保留吧,什么时候删除呢?答案是,在不需要的时候才删除。也就是说,系统会判断,当没有事务再需要用到这些回滚日志时,回滚日志会被删除。
什么时候才不需要了呢?就是当系统里没有比这个回滚日志更早的 read-view 的时候。
基于上面的说明,我们来讨论一下为什么建议你尽量不要使用长事务。
长事务意味着系统里面会存在很老的事务视图。由于这些事务随时可能访问数据库里面的任何数据,所以这个事务提交之前,数据库里面它可能用到的回滚记录都必须保留,这就会导致大量占用存储空间。
MySQL
的事务启动方式有以下几种:
显式启动事务语句,begin
或 start transaction
。配套的提交语句是 commit
,回滚语句是 rollback
。
set autocommit=0
,这个命令会将这个线程的自动提交关掉。意味着如果你只执行一个 select
语句,这个事务就启动了,而且并不会自动提交。这个事务持续存在直到你主动执行 commit
或 rollback
语句,或者断开连接。
一句话简单来说,索引的出现其实就是为了提高数据查询的效率,就像书的目录一样。
(1)哈希表
哈希表是一种以键 - 值(key-value)存储数据的结构,我们只要输入待查找的值即 key,就可以找到其对应的值即 Value。哈希的思路很简单,把值放在数组里,用一个哈希函数把 key 换算成一个确定的位置,然后把 value 放在数组的这个位置。
不可避免地,多个 key 值经过哈希函数的换算,会出现同一个值的情况。处理这种情况的一种方法是,拉出一个链表。
所以,哈希表这种结构适用于只有等值查询的场景,不适合区间查询,比如 Memcached
及其他一些 NoSQL
引擎。
(2)有序表
而有序数组在等值查询和范围查询场景中的性能就都非常优秀。
查询一个数,用二分法就可以快速得到,这个时间复杂度是 O(log(N))
。
如果仅仅看查询效率,有序数组就是最好的数据结构了。但是,在需要更新数据的时候就麻烦了,你往中间插入一个记录就必须得挪动后面所有的记录,成本太高。
所以,有序数组索引只适用于静态存储引擎,比如你要保存的是 2017 年某个城市的所有人口信息,这类不会再修改的数据。
(3)搜索树
二叉搜索树的特点是:每个节点的左儿子小于父节点,父节点又小于右儿子。
当然为了维持 O(log(N))
的查询复杂度,你就需要保持这棵树是平衡二叉树。为了做这个保证,更新的时间复杂度也是 O(log(N))
。
树可以有二叉,也可以有多叉。多叉树就是每个节点有多个儿子,儿子之间的大小保证从左到右递增。二叉树是搜索效率最高的,但是实际上大多数的数据库存储却并不使用二叉树。其原因是,索引不止存在内存中,还要写到磁盘上。
你可以想象一下一棵 100 万节点的平衡二叉树,树高 20。一次查询可能需要访问 20 个数据块。在机械硬盘时代,从磁盘随机读一个数据块需要 10 ms 左右的寻址时间。也就是说,对于一个 100 万行的表,如果使用二叉树来存储,单独访问一个行可能需要 20 个 10 ms 的时间,这个查询可真够慢的。
为了让一个查询尽量少地读磁盘,就必须让查询过程访问尽量少的数据块。那么,我们就不应该使用二叉树,而是要使用“N 叉”树。这里,“N 叉”树中的“N”取决于数据块的大小。
N 叉树由于在读写上的性能优点,以及适配磁盘的访问模式,已经被广泛应用在数据库引擎中了。
你心里要有个概念,数据库底层存储的核心就是基于这些数据模型的。每碰到一个新数据库,我们需要先关注它的数据模型,这样才能从理论上分析出这个数据库的适用场景。
InnoDB
的索引模型ID 为主键列,k 为非主键列建立的索引
在 InnoDB
中,表都是根据主键顺序以索引的形式存放的,这种存储方式的表称为索引组织表。又因为前面我们提到的,InnoDB
使用了 B+ 树索引模型,所以数据都是存储在 B+ 树
中的。
索引类型分为主键索引和非主键索引。
主键索引的叶子节点存的是整行数据。在 InnoDB
里,主键索引也被称为聚簇索引(clustered index)。
非主键索引的叶子节点内容是主键的值。在 InnoDB
里,非主键索引也被称为二级索引(secondary index)。
根据上面的索引结构说明,我们来讨论一个问题:基于主键索引和普通索引的查询有什么区别?
select * from T where ID=500
,即主键查询方式,则只需要搜索 ID
这棵 B+ 树
;select * from T where k=5
,即普通索引查询方式,则需要先搜索 k 索引树,得到 ID
的值为 500,再到 ID
索引树搜索一次。这个过程称为回表。也就是说,基于非主键索引的查询需要多扫描一棵索引树。因此,我们在应用中应该尽量使用主键查询。
B+ 树
为了维护索引有序性,在插入新值的时候需要做必要的维护。以上面这个图为例,如果插入新的行 ID 值为 700,则只需要在 R5 的记录后面插入一个新记录。如果新插入的 ID 值为 400,就相对麻烦了,需要逻辑上挪动后面的数据,空出位置。
而更糟的情况是,如果 R5 所在的数据页已经满了,根据 B+ 树的算法,这时候需要申请一个新的数据页,然后挪动部分数据过去。这个过程称为页分裂。在这种情况下,性能自然会受影响。
除了性能外,页分裂操作还影响数据页的利用率。原本放在一个页的数据,现在分到两个页中,整体空间利用率降低大约 50%。
当然有分裂就有合并。当相邻两个页由于删除了数据,利用率很低之后,会将数据页做合并。合并的过程,可以认为是分裂过程的逆过程。
你可能在一些建表规范里面见到过类似的描述,要求建表语句里一定要有自增主键。当然事无绝对,我们来分析一下哪些场景下应该使用自增主键,而哪些场景下不应该。
自增主键的插入数据模式,正符合了我们前面提到的递增插入的场景。每次插入一条新记录,都是追加操作,都不涉及到挪动其他记录,也不会触发叶子节点的分裂。
而有业务逻辑的字段做主键,则往往不容易保证有序插入,这样写数据成本相对较高。
除了考虑性能外,我们还可以从存储空间的角度来看。假设你的表中确实有一个唯一字段,比如字符串类型的身份证号,那应该用身份证号做主键,还是用自增字段做主键呢?
由于每个非主键索引的叶子节点上都是主键的值。如果用身份证号做主键,那么每个二级索引的叶子节点占用约 20 个字节,而如果用整型做主键,则只要 4 个字节,如果是长整型(bigint
)则是 8 个字节。
显然,主键长度越小,普通索引的叶子节点就越小,普通索引占用的空间也就越小。
所以,从性能和存储空间方面考量,自增主键往往是更合理的选择。
有没有什么场景适合用业务字段直接做主键的呢?还是有的。比如,有些业务的场景需求是这样的:
你一定看出来了,这就是典型的 KV 场景
。
由于没有其他索引,所以也就不用考虑其他索引的叶子节点大小的问题。
这时候我们就要优先考虑上一段提到的“尽量使用主键查询”原则,直接将这个索引设置为主键,可以避免每次查询需要搜索两棵树。
B+ 树能够很好地配合磁盘的读写特性,减少单次查询的磁盘访问次数。
由于 InnoDB
是索引组织表,一般情况下我会建议你创建一个自增主键,这样非主键索引占用的空间最小。但事无绝对,我也跟你讨论了使用业务逻辑字段做主键的应用场景。
回到主键索引树搜索的过程,我们称为回表。
如果执行的语句是 select ID from T where k between 3 and 5
,这时只需要查 ID 的值,而 ID 的值已经在 k 索引树上了,因此可以直接提供查询结果,不需要回表。也就是说,在这个查询里面,索引 k 已经“覆盖了”我们的查询需求,我们称为覆盖索引。
由于覆盖索引可以减少树的搜索次数,显著提升查询性能,所以使用覆盖索引是一个常用的性能优化手段。
基于上面覆盖索引的说明,我们来讨论一个问题:在一个市民信息表上,是否有必要将身份证号和名字建立联合索引?
我们知道,身份证号是市民的唯一标识。也就是说,如果有根据身份证号查询市民信息的需求,我们只要在身份证号字段上建立索引就够了。而再建立一个(身份证号、姓名)的联合索引,是不是浪费空间?
如果现在有一个高频请求,要根据市民的身份证号查询他的姓名,这个联合索引就有意义了。它可以在这个高频请求上用到覆盖索引,不再需要回表查整行记录,减少语句的执行时间。
看到这里你一定有一个疑问,如果为每一种查询都设计一个索引,索引是不是太多了。
B+ 树这种索引结构,可以利用索引的“最左前缀”,来定位记录。
为了直观地说明这个概念,我们用(name,age)这个联合索引来分析。
可以看到,索引项是按照索引定义里面出现的字段顺序排序的。
当你的逻辑需求是查到所有名字是“张三”的人时,可以快速定位到 ID4,然后向后遍历得到所有需要的结果。
如果你要查的是所有名字第一个字是“张”的人,你的 SQL 语句的条件是"where name like ‘张 %’"。这时,你也能够用上这个索引,查找到第一个符合条件的记录是 ID3,然后向后遍历,直到不满足条件为止。
可以看到,不只是索引的全部定义,只要满足最左前缀,就可以利用索引来加速检索。这个最左前缀可以是联合索引的最左 N 个字段,也可以是字符串索引的最左 M 个字符。
在建立联合索引的时候,如何安排索引内的字段顺序。
这里我们的评估标准是,索引的复用能力。因为可以支持最左前缀,所以当已经有了 (a,b) 这个联合索引后,一般就不需要单独在 a 上建立索引了。因此,第一原则是,如果通过调整顺序,可以少维护一个索引,那么这个顺序往往就是需要优先考虑采用的。
那么,如果既有联合查询,又有基于 a、b 各自的查询呢?查询条件里面只有 b 的语句,是无法使用 (a,b) 这个联合索引的,这时候你不得不维护另外一个索引,也就是说你需要同时维护 (a,b)、(b) 这两个索引。
这时候,我们要考虑的原则就是空间了。比如上面这个市民表的情况,name 字段是比 age 字段大的 ,那我就建议你创建一个(name,age) 的联合索引和一个 (age) 的单字段索引。
上一段我们说到满足最左前缀原则的时候,最左前缀可以用于在索引中定位记录。这时,你可能要问,那些不符合最左前缀的部分,会怎么样呢?
我们还是以市民表的联合索引(name, age)为例。如果现在有一个需求:检索出表中“名字第一个字是张,而且年龄是 10 岁的所有男孩”。那么,SQL
语句是这么写的:
select * from tuser where name like '张 %' and age=10 and ismale=1;
你已经知道了前缀索引规则,所以这个语句在搜索索引树的时候,只能用 “张”,找到第一个满足条件的记录 ID3。当然,这还不错,总比全表扫描要好。
然后呢?
当然是判断其他条件是否满足。
在 MySQL 5.6
之前,只能从 ID3 开始一个个回表。到主键索引上找出数据行,再对比字段值。
而 MySQL 5.6
引入的索引下推优化(index condition pushdown), 可以在索引遍历过程中,对索引中包含的字段先做判断,直接过滤掉不满足条件的记录,减少回表次数。
在两个图里面,每一个虚线箭头表示回表一次。
第一张图中,在 (name,age) 索引里面我特意去掉了 age 的值,这个过程 InnoDB
并不会去看 age 的值,只是按顺序把“name 第一个字是’张’”的记录一条条取出来回表。因此,需要回表 4 次。
两张图的区别是,InnoDB
在 (name,age) 索引内部就判断了 age 是否等于 10,对于不等于 10 的记录,直接判断并跳过。在我们的这个例子中,只需要对 ID4、ID5 这两条记录回表取数据判断,就只需要回表 2 次。
根据加锁的范围,MySQL
里面的锁大致可以分成全局锁、表级锁和行锁三类。
顾名思义,全局锁就是对整个数据库实例加锁。MySQL
提供了一个加全局读锁的方法,命令是 Flush tables with read lock (FTWRL)
。当你需要让整个库处于只读状态的时候,可以使用这个命令,之后其他线程的以下语句会被阻塞:数据更新语句(数据的增删改)、数据定义语句(包括建表、修改表结构等)和更新类事务的提交语句。
全局锁的典型使用场景是,做全库逻辑备份。也就是把整库每个表都 select
出来存成文本。
但是让整库都只读,听上去就很危险:
binlog
,会导致主从延迟。也就是说,不加锁的话,备份系统备份的得到的库不是一个逻辑时间点,这个视图是逻辑不一致的。
说到视图你肯定想起来了,我们在前面讲事务隔离的时候,其实是有一个方法能够拿到一致性视图的,对吧?
是的,就是在可重复读隔离级别下开启一个事务。
官方自带的逻辑备份工具是 mysqldump
。当 mysqldump
使用参数–single-transaction 的时候,导数据之前就会启动一个事务,来确保拿到一致性视图。而由于 MVCC
的支持,这个过程中数据是可以正常更新的。
你也许会问,既然要全库只读,为什么不使用 set global readonly=true
的方式呢?确实 readonly
方式也可以让全库进入只读状态,但我还是会建议你用 FTWRL
方式,主要有两个原因:
readonly
的值会被用来做其他逻辑,比如用来判断一个库是主库还是备库。因此,修改 global
变量的方式影响面更大,我不建议你使用。FTWRL
命令之后由于客户端发生异常断开,那么 MySQL
会自动释放这个全局锁,整个库回到可以正常更新的状态。而将整个库设置为 readonly
之后,如果客户端发生异常,则数据库就会一直保持 readonly
状态,这样会导致整个库长时间处于不可写状态,风险较高。MySQL
里面表级别的锁有两种:一种是表锁,一种是元数据锁(meta data lock,MDL
)。
**表锁的语法是 lock tables … read/write
。**与 FTWRL
类似,可以用 unlock tables
主动释放锁,也可以在客户端断开的时候自动释放。需要注意,lock tables
语法除了会限制别的线程的读写外,也限定了本线程接下来的操作对象。
另一类表级的锁是 MDL(metadata lock)
。MDL
不需要显式使用,在访问一个表的时候会被自动加上。MDL
的作用是,保证读写的正确性。你可以想象一下,如果一个查询正在遍历一个表中的数据,而执行期间另一个线程对这个表结构做变更,删了一列,那么查询线程拿到的结果跟表结构对不上,肯定是不行的。
因此,在 MySQL 5.5
版本中引入了 MDL
,当对一个表做增删改查操作的时候,加 MDL
读锁;当要对表做结构变更操作的时候,加 MDL
写锁。
MySQL
的行锁是在引擎层由各个引擎自己实现的。但并不是所有的引擎都支持行锁,比如 MyISAM
引擎就不支持行锁。不支持行锁意味着并发控制只能使用表锁,对于这种引擎的表,同一张表上任何时刻只能有一个更新在执行,这就会影响到业务并发度。InnoDB
是支持行锁的,这也是 MyISAM
被 InnoDB
替代的重要原因之一。
顾名思义,行锁就是针对数据表中行记录的锁。这很好理解,比如事务 A 更新了一行,而这时候事务 B 也要更新同一行,则必须等事务 A 的操作完成后才能进行更新。
也就是说,在 InnoDB
事务中,行锁是在需要的时候才加上的,但并不是不需要了就立刻释放,而是要等到事务结束时才释放。这个就是两阶段锁协议。
知道了这个设定,对我们使用事务有什么帮助呢?那就是,如果你的事务中需要锁多个行,要把最可能造成锁冲突、最可能影响并发度的锁尽量往后放。
当并发系统中不同线程出现循环资源依赖,涉及的线程都在等待别的线程释放资源时,就会导致这几个线程都进入无限等待的状态,称为死锁。这里我用数据库中的行锁举个例子。
事务 A 把 id 为 1 的行锁了,然后事务 B 把 id 为 2 的行锁了,紧接事务 A 想操作 id 为 2 的行,但 id 为 2 的行已经被事务 B 锁住了,所以会阻塞,等待把 id 为 2 的行解锁,此时,事务 B 想操作 id 为 1 的行,但 id 为 1 的行已经被事务 A 锁住了,所以会阻塞。此时的情况就是事务 A 等待事务 B 把 id 为 2 的行解锁,事务 B 等待 事务 A 把 id 为 1 的行解锁,造成互相等待,这就是死锁现象。
当出现死锁以后,有两种策略:
innodb_lock_wait_timeout
来设置。innodb_deadlock_detect
· 设置为 on,表示开启这个逻辑。在 InnoDB
中,innodb_lock_wait_timeout
的默认值是 50s
,意味着如果采用第一个策略,当出现死锁以后,第一个被锁住的线程要过 50s
才会超时退出,然后其他线程才有可能继续执行。对于在线服务来说,这个等待时间往往是无法接受的。
但是,我们又不可能直接把这个时间设置成一个很小的值,比如 1s
。这样当出现死锁的时候,确实很快就可以解开,但如果不是死锁,而是简单的锁等待呢?所以,超时时间设置太短的话,会出现很多误伤。
所以,正常情况下我们还是要采用第二种策略,即:主动死锁检测,而且 innodb_deadlock_detect
的默认值本身就是 on。主动死锁检测在发生死锁的时候,是能够快速发现并进行处理的,但是它也是有额外负担的。
最后,我给你留下一个问题吧。如果你要删除一个表里面的前 10000 行数据,有以下三种方法可以做到:
delete from T limit 10000
;delete from T limit 500
;delete from T limit 500
。答案:第二种。
第一种锁的粒度太大了。
第三种可能会造成锁冲突。