原文链接:MySQL学习(进阶篇)
连接层
最上层是一些客户端和链接服务,主要完成一些类似于连接处理、授权认证、及相关的安全方案。服务器也会为安全接入的每个客户端验证它所具有的操作权限。
服务层
第二层家口主要完成大多数的核心服务功能,如SQL接口,并完成缓存的查询,SQL的分析和优化,部分内置函数的执行。所有跨存储引擎的功能也在这一层实现,如过程、函数等。
引擎层
存储引擎真正的负责了MySQL中数据的存储和提取,服务器通过API和存储引擎进行通信。不同的存储引擎具有不同的功能,这样我们可以根据自己的需要,来选取合适的存储引擎。
存储层
主要是将数据存储在文件系统之上,并完成与存储引擎的交互。
存储引擎就是存储数据、建立索引、更新/查询数据等技术的实现方式。存储引擎是基于表的,而不是基于库的,所以存储引擎也可以被称为表类型。
这里举一个简单的例子。我们创建用户表的语句是:
create table user(
id int primary key auto_increment comment '主键',
name varchar(10) not null unique comment '姓名',
age int check ( age>0 && age<=120 ) comment '年龄',
status char(1) default '1' comment '状态',
gender char(1) comment '性别'
) comment '用户表';
创建完user表后,我们查询建表语句:
1-- 查询建表语句 默认是InnoDB
show create table user;
这时会得到以下结果:
CREATE TABLE `user` (
`id` int NOT NULL AUTO_INCREMENT COMMENT '主键',
`name` varchar(10) NOT NULL COMMENT '姓名',
`age` int DEFAULT NULL COMMENT '年龄',
`status` char(1) DEFAULT '1' COMMENT '状态',
`gender` char(1) DEFAULT NULL COMMENT '性别',
PRIMARY KEY (`id`),
UNIQUE KEY `name` (`name`),
CONSTRAINT `user_chk_1` CHECK (((`age` > 0) and (`age` <= 120)))
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT='用户表'
可以看出mysql默认的存储引擎是InnoDB,我们也可以在建表的时候指定存储引擎。
-- 查询数据库支持的存储引擎
show engines;
-- 建表时指定存储引擎
CREATE TABLE 表名(
...
) ENGINE=INNODB;
InnoDB是一种兼顾高可靠性和高性能的通用存储引擎,在MySQL 5.5 之后,InnoDB是默认的MySQL存储引擎。
特点:
文件:
xxx.idb: xxx代表的是表名,innoDB引擎的每张表都会对应这样一个表空间文件,存储该表的表结构(frm、sdi)、数据和索引。
参数:innodb_file_per_table,决定多张表共享一个表空间还是每张表对应一个表空间
从idb文件中提取表结构:
ibd2sdi xxx.ibd
MyISAM是MySQL早期支持的默认存储引擎。
特点:
文件:
Memory 引擎的表数据是存储在内存中的,受硬件问题、断电问题的影响,只能将这些表作为临时表或缓存使用。
特点:
文件:
特点 | InnoDB | MyISAM | Memory |
---|---|---|---|
存储限制 | 64TB | 有 | 有 |
事务安全 | 支持 | - | - |
锁机制 | 行锁 | 表锁 | 表锁 |
B+tree索引 | 支持 | 支持 | 支持 |
Hash索引 | - | - | 支持 |
全文索引 | 支持(5.6版本之后) | 支持 | - |
空间使用 | 高 | 低 | N/A |
内存使用 | 高 | 低 | 中等 |
批量插入速度 | 低 | 高 | 高 |
支持外键 | 支持 | - | - |
存储引擎没有好坏之分,我们需要在合适的场景选择合适的存储引擎即可。
InnoDB:
MySQL默认存储引擎,支持事务、外键。如果应用对事务的完整性有比较高的要求,在并发条件下要求数据的一致性,数据操作除了插入和查询之外,还包含很多的更新,删除操作,那么InnoDB存储引擎是比较合适的选择。
MyISAM:
如果应用是以读操作和插入操作为主,只有很少的更新和删除操作,并且对事物的完整性、并发性要求不是很高,那么选择这个存储引擎是非常合适的。
MEMORY:
将所有数据保存在内存中,访问速度快,通常用于临时表及缓存。MEMORY的缺陷就是对表的大小有限制,太大的表无法缓存在内存中,而且无法保障数据的安全性。
索引是帮助MySQL高效获取数据的数据结构(有序)。在数据之外,数据库系统还维护着特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据,这样就可以在这些数据结构上实现高级查找算法。
索引的优缺点:
优点 | 缺点 |
---|---|
提高数据检索的效率,降低数据库的IO成本 | 索引列也占用空间 |
通过索引列对数据进行排序,降低数据排序的成本,降低CPU的消耗 | 索引大大提高了查询效率同时也降低了更新表的速度 |
索引结构 | 描述 |
---|---|
B+Tree | 最常见的索引结构,大部分引擎都支持B+树索引 |
Hash索引 | 底层数据结构用哈希表实现,只有精确匹配索引列的查询才有效,不支持范围查询 |
R-Tree(空间索引) | 空间索引是 MyISAM 引擎的一个特殊索引类型,主要用于地理空间数据类型,通常使用较少 |
Full-Text(全文索引) | 是一种通过建立倒排索引,快速匹配文档的方式,类似于 Lucene, Solr, ES |
索引 | InnoDB | MyISAM | Memory |
---|---|---|---|
B+Tree索引 | 支持 | 支持 | 支持 |
Hash索引 | 不支持 | 不支持 | 支持 |
R-Tree索引 | 不支持 | 支持 | 不支持 |
Full-text | 5.6版本后支持 | 支持 | 不支持 |
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ii3Jvz2Q-1683447184351)(http://49.232.218.135:8888/down/fNT0QdXYD297 “二叉树索引”)]
二叉树缺点:顺序插入时,会形成一个链表,查询性能大大降低。大数据量情况下,层级较深,检索速度慢。
二叉树的缺点可以用红黑树解决:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OPLvP0WO-1683447184352)(http://49.232.218.135:8888/down/BA35Ib2Y8WCX “红黑树”)]
红黑树也属于二叉树,也存在层级较深,检索速度慢的缺点。
B-Tree (多路平衡查找树) 以一棵最大度数(max-degree,指一个节点的子节点个数)为5(5阶)的 b-tree 为例(每个节点最多存储4个key,5个指针)。
演示地址:https://www.cs.usfca.edu/~galles/visualization/BTree.html
演示地址:https://www.cs.usfca.edu/~galles/visualization/BPlusTree.html
与 B-Tree 的区别:
MySQL 索引数据结构对经典的 B+Tree 进行了优化。在原 B+Tree 的基础上,增加一个指向相邻叶子节点的链表指针,就形成了带有顺序指针的 B+Tree,提高区间访问的性能。
哈希索引就是采用一定的hash算法,将键值换算成新的hash值,映射到对应的槽位上,然后存储在hash表中。
如果两个(或多个)键值,映射到一个相同的槽位上,他们就产生了hash冲突(也称为hash碰撞),可以通过链表来解决。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hXPGSfd6-1683447184353)(http://49.232.218.135:8888/down/sfZQKi6myfv2 “Hash索引原理图”)]
特点:
存储引擎支持:
为什么InnoDB存储引擎选择使用B+Tree索引结构?
分类 | 含义 | 特点 | 关键字 |
---|---|---|---|
主键索引 | 针对于表中主键创建的索引 | 默认自动创建,只能有一个 | PRIMARY |
唯一索引 | 避免同一个表中某数据列的值重复 | 可以有多个 | UNIQUE |
常规索引 | 快速定位特定数据 | 可以有多个 | |
全文索引 | 全文索引查找的是文本中的关键词,而不是比较索引的值 | 可以有多个 | FULLTEXT |
在InnoDB存储引擎中,根据索引的存储形式,又可以分为以下两种:
分类 | 含义 | 特点 |
---|---|---|
聚集索引 | 将数据存储和索引放到一块,索引结构的叶子节点保存了行数据 | 必须有,而且只有一个 |
二级索引 | 将数据与索引分开存储,索引结构的叶子节点关联的是对应的主键 | 可以存在多个 |
聚集索引选取规则:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uS3en0RD-1683447184353)(http://49.232.218.135:8888/down/VHgnuLJO82gS “大致原理图”)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RjlVbNIL-1683447184354)(http://49.232.218.135:8888/down/WEnCiYKVu9wL “演示图”)]
1. 以下 SQL 语句,哪个执行效率高?为什么?
select * from user where id = 10;
select * from user where name = 'Arm';
-- 备注:id为主键,name字段创建的有索引
答:第一条语句,因为第二条需要回表查询,相当于两个步骤。
2. InnoDB 主键索引的 B+Tree 高度为多少?
答:假设一行数据大小为1k,一页中可以存储16行这样的数据。InnoDB 的指针占用6个字节的空间,主键假设为bigint,占用字节数为8.
可得公式:n * 8 + (n + 1) * 6 = 16 * 1024
,其中 8 表示 bigint 占用的字节数,n 表示当前节点存储的key的数量,(n + 1) 表示指针数量(比key多一个)。算出n约为1170。
如果树的高度为2,那么他能存储的数据量大概为:1171 * 16 = 18736
;
如果树的高度为3,那么他能存储的数据量大概为:1171 * 1171 * 16 = 21939856
。
另外,如果有成千上万的数据,那么就要考虑分表,涉及运维篇知识。
创建索引
CREATE [UNIQUE | FULLTEXT] INDEX index_name ON table_name(index_col_name,...);
查看索引
SHOW INDEX FROM table_name;
删除索引
DROP INDEX index_name ON table_name;
例子:
-- name字段为姓名字段,该字段的值可能会重复,为该字段创建索引
create index idx_user_name on tb_user(name);
-- phone手机号字段的值非空,且唯一,为该字段创建唯一索引
create unique index idx_user_phone on tb_user (phone);
-- 为profession, age, status创建联合索引
create index idx_user_pro_age_stat on tb_user(profession, age, status);
-- 为email建立合适的索引来提升查询效率
create index idx_user_email on tb_user(email);
-- 删除索引
drop index idx_user_email on tb_user;
查看当前数据库的 INSERT, UPDATE, DELETE, SELECT 访问频次:
SHOW [GLOBAL | SESSION] STATUS LIKE 'Com______';
慢查询日志记录了所有执行时间超过指定参数(long_query_time,单位:秒,默认10秒)的所有SQL语句的日志。
MySQL的慢查询日志默认没有开启,需要在MySQL的配置文件(/etc/my.cnf)中配置如下信息:
#开启MySQL慢查询日志开关
slow_query_log = 1
# 设置慢日志的时间为2秒,SQL语句执行时间超过两秒,就会视为慢查询,记录慢查询日志
long_query_time = 2
更改后记得重启MySQL服务,日志文件位置:/var/lib/mysql/localhost-slow.log
查看慢查询日志开关状态:
show variables like 'slow_query_log';
show profiles
能够在做SQL优化时帮助我们了解时间都耗费到哪里去了。通过have_profiling
参数,能够看到当前MySQL是否支持profile操作:
SELECT @@have_profiling; # Yes表示支持,No表示不支持
默认profiling是关闭的,可以通过set语句在session/global级别开启profiling:
SET profiling=1;
查看所有语句的耗时:
show profiles;
查看指定query_id的SQL语句各阶段的耗时:
show profile for query query_id;
查看指定query_id的SQL语句CPU的使用情况:
show profile cpu for query query_id;
EXPLAIN 或者 DESC 命令获取 MySQL 如何执行 SELECT 语句的信息,包括在 SELECT 语句执行过程中表如何连接和连接的顺序。
语法:
# 直接在select语句之前加上关键字 explain / desc
EXPLAIN SELECT 字段列表 FROM 表名 WHERE 条件;
EXPLAIN 各字段含义:
如果索引了多列(联合索引),要遵循最左前缀法则。最左前缀法则指的是查询从索引的最左列开始,并且不跳过索引中的列。
如果跳跃某一列,索引将会部分失效(后面的字段索引失效)。
-- 为profession, age, status创建联合索引
create index idx_user_pro_age_stat on tb_user(profession, age, status);
select * from tb_user where profession = '软件工程' and age = 31 and status = '0'; # 联合索引
select * from tb_user where profession = '软件工程' and age = 31; # 联合索引
select * from tb_user where profession = '软件工程'; # 联合索引
select * from tb_user where age = 31 and status = '0'; # 全表扫描
select * from tb_user where profession = '软件工程' and status = '0'; # 联合索引(status失效)
select * from tb_user where age = 31 and status = '0' and profession = '软件工程'; # 联合索引(最左前缀法则和查询的顺序没有关系)
联合索引中,出现范围查询(<, >),范围查询右侧的列索引失效。可以用>=或者<=来规避索引失效问题。
在索引列上进行运算操作,索引将失效。
select * from tb_user where phone = '17799990015'; # 索引正常
select * from tb_user where substring(phone, 10, 2) = '15'; # 索引失效
字符串类型字段使用时,不加引号,索引将失效。
select * from tb_user where phone = 17799990015; # 索引失效
模糊查询中,如果仅仅是尾部模糊匹配,索引不会是失效;如果是头部模糊匹配,索引失效。前后都有 % 也会失效。
select * from tb_user where profession like '%工程'; # 索引失效
用 or 分割开的条件,如果 or 其中一个条件的列没有索引,那么涉及的索引都不会被用到。
如果 MySQL 评估使用索引比全表更慢,则不使用索引。
是优化数据库的一个重要手段,简单来说,就是在SQL语句中加入一些人为的提示来达到优化操作的目的。
例如,使用索引:
select * from tb_user use index(idx_user_pro) where profession="软件工程";
不使用哪个索引:
select * from tb_user ignore index(idx_user_pro) where profession="软件工程";
必须使用哪个索引:
select * from tb_user force index(idx_user_pro) where profession="软件工程";
use
是建议,实际使用哪个索引 MySQL 还会自己权衡运行速度去更改,force
就是无论如何都强制使用该索引。
尽量使用覆盖索引(查询使用了索引,并且需要返回的列,在该索引中已经全部能够找到),减少 select *。
-- 为profession, age, status创建联合索引
create index idx_user_pro_age_stat on tb_user(profession, age, status);
select id,profession,age, status from tb_user where profession = '软件工程' and age = 31 and status = '0'; # 不涉及回表查询
select profession,age from tb_user where profession = '软件工程' and age = 31 and status = '0'; # 不涉及回表查询
select profession,age, name from tb_user where profession = '软件工程' and age = 31 and status = '0';# 涉及回表查询(联合索引无法获得name值,需要通过主键信息再次查询整行信息),执行效率慢
explain 中 extra 字段含义:
using index condition:查找使用了索引,但是需要回表查询数据
using where; using index:查找使用了索引,但是需要的数据都在索引列中能找到,所以不需要回表查询
思考题:
面试题:一张表,有四个字段(id, username, password, status),由于数据量大,需要对以下SQL语句进行优化,该如何进行才是最优方案:
select id, username, password from tb_user where username='itcast';
回答:为user和password建立联合索引。
当字段类型为字符串(varchar, text等)时,有时候需要索引很长的字符串,这会让索引变得很大,查询时,浪费大量的磁盘IO,影响查询效率,此时可以只降字符串的一部分前缀,建立索引,这样可以大大节约索引空间,从而提高索引效率。
语法:
create index idx_xxxx on table_name(column(n));
前缀长度:可以根据索引的选择性来决定,而选择性是指不重复的索引值(基数)和数据表的记录总数的比值,索引选择性越高则查询效率越高,唯一索引的选择性是1,这是最好的索引选择性,性能也是最好的。
选择性工具:
select count(distinct email) / count(*) from tb_user;
select count(distinct substring(email, 1, 5)) / count(*) from tb_user;
单列索引:即一个索引只包含单个列
联合索引:即一个索引包含了多个列
在业务场景中,如果存在多个查询条件,考虑针对于查询字段建立索引时,建议建立联合索引,而非单列索引。
例子:
select id, phone, name from tb_user where phone = '17799990010' and name = '韩信';
如果对phone和name建立单列索引,会只使用phone单列索引,则查询name字段会回表查询。
批量插入(一次建议不超过1000条)
insert into tb_test values(1, 'Tom'),(2, 'Cat'), (3, 'Jerry');
手动提交事务
start transaction;
insert into tb_test values(1, 'Tom'),(2, 'Cat'), (3, 'Jerry');
insert into tb_test values(4, 'Tom'),(5, 'Cat'), (6, 'Jerry');
insert into tb_test values(7, 'Tom'),(8, 'Cat'), (9, 'Jerry');
commit;
主键顺序插入
大批量插入数据:如果一次性需要插入大批量数据,使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load
指令进行插入:
# 客户端连接服务端时,加上参数 --local-infile(这一行在bash/cmd界面输入)
mysql --local-infile -u root -p
# 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关
set global local_infile = 1;
select @@local_infile;
# 执行load指令将准备好的数据,加载到表结构中
load data local infile '/root/sql1.log' into table 'tb_user' fields terminated by ',' lines terminated by '\n';
数据组织方式:在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表(index organized table IOT)。
页分裂:页可以为空,也可以填充一半,也可以填充100%,每个页包含了2-N行数据(如果一行数据过大,会行溢出),根据主键排列。
页合并:当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。当页中删除的记录到达 MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前后)看看是否可以将这两个页合并以优化空间使用。
MERGE_THRESHOLD:合并页的阈值,可以自己设置,在创建表或创建索引时指定。
视频演示地址:https://www.bilibili.com/video/BV1Kr4y1i7ru?p=90
主键设计原则:
如果order by字段全部使用升序排序或者降序排序,则都会走索引,但是如果一个字段升序排序,另一个字段降序排序,则不会走索引,explain的extra信息显示的是Using index, Using filesort
,如果要优化掉Using filesort
,则需要另外再创建一个索引,如:
create index idx_user_age_phone_ad on tb_user(age asc, phone desc);
此时使用
select id, age, phone from tb_user order by age asc, phone desc;
会全部走索引。
总结:
例子:
-- 没有创建索引时,根据age和phone进行排序
explain select id,age,phone from tb_user order by age, phone;# Using filesort
-- 创建索引
create index idx_user_age_phone_aa on tb_user(age, phone);
-- 创建索引后,根据age,phone进行升序排序
explain select id, age, phone from tb_user order by age, phone; # Using index
-- 创建索引后,根据age,phone进行降序排序
explain select id, age, phone from tb_user order by age desc, phone desc; # Backward index scan; Using index
-- 创建索引后,根据phone,age进行升序排序,不符合最左前缀法则
explain select id, age, phone from tb_user order by phone, age; # Using index; Using filesort
-- 创建索引后,根据age进行升序,phone进行降序
explain select id, age, phone from tb_user order by age asc, phone desc; # Using index; Using filesort
-- 根据age升序,phone降序创建索引
create index idx_user_age_phone_ad on tb_user(age asc, phone desc);
-- 创建索引后,根据age进行升序,phone进行降序
explain select id, age, phone from tb_user order by age asc, phone desc; # Using index
-- 删除先前建立的索引
drop index idx_user_pro_age_sta on tb_user;
drop index idx_user_age_phone_aa on tb_user;
drop index idx_user_age_phone_ad on tb_user;
-- 执行分组操作,根据profession字段分组,由于没有索引extra字段的值为using temporary
explain select profession, count(*) from tb_user group by profession; # Using temporary
-- 根据profession,age,status字段创建联合索引
create index idx_user_pro_age_sta on tb_user(profession, age, status);
-- 执行分组操作,根据profession字段分组
explain select profession, count(*) from tb_user group by profession; # Using index
-- 根据age字段分组(不满足最左前缀法则)
explain select age, count(*) from tb_user group by profession;# Using index; Using temporary
常见的问题如limit 2000000, 10
,此时需要 MySQL 排序前2000000条记录,但仅仅返回2000000 - 2000010的记录,其他记录丢弃,查询排序的代价非常大。
优化方案:一般分页查询时,通过创建覆盖索引能够比较好地提高性能,可以通过覆盖索引加子查询形式进行优化。
-- 此语句耗时很长
select * from tb_sku limit 9000000, 10;
-- 通过覆盖索引加快速度,直接通过主键索引进行排序及查询
select id from tb_sku order by id limit 9000000, 10;
-- 下面的语句是错误的,因为 MySQL 不支持 in 里面使用 limit
-- select * from tb_sku where id in (select id from tb_sku order by id limit 9000000, 10);
-- 通过连表查询即可实现第一句的效果,并且能达到第二句的速度
select * from tb_sku as s, (select id from tb_sku order by id limit 9000000, 10) as a where s.id = a.id;
优化方案:自己计数,如创建key-value表存储在内存或硬盘,或者是用redis
count的几种用法:
各种用法的性能:
按效率排序:count(字段) < count(主键) < count(1) < count(*),所以尽量使用 count(*)
InnoDB 的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则会从行锁升级为表锁。
update student set no = '123' where id = 1; # 由于id有主键索引,所以只会锁这一行
update student set no = '123' where name = 'test'; # 这句由于name没有索引,所以会把整张表都锁住进行数据更新,解决方法是给name字段添加索引
视图是一种虚拟存在的表。视图中的数据并不在数据库中实际存在,行和列数据来自定义视图的查询中使用的表,并且是在使用视图时动态生成的。
通俗的讲,视图只保存了查询的SQL逻辑,不保存查询结果。所以我们在创建视图的时候,主要的工作就落在创建这条SQL查询语句上。
语法:
CREATE [OR REPLACE] VIEW 视图名称(列名列表) AS SELECT 语句 [WITH [CASCADED | LOCAL] CHECK OPTION]
例子:
create or replace view stu_v_1 as select id, name from student where id <= 10;
-- 查询创建视图的语句
SHOW CREATE VIEW 视图名称;
-- 查看视图数据
SELECT * FROM 视图名称 ......;
例子:
show create view stu_v_1;
select * from stu_v_1 where id < 3;
-- 方式一
CREATE [OR REPLACE] VIEW 视图名称(列名列表) AS SELECT 语句 [WITH [CASCADED | LOCAL] CHECK OPTION]
-- 方式二
ALTER VIEW 视图名称(列名列表) AS SELECT 语句 [WITH [CASCADED | LOCAL] CHECK OPTION]
例子:
-- 方式一
create or replace view stu_v_1 as select id, name, no from student where id <= 10;
-- 方式二
alter view stu_v_1 as select id, name from student where id <= 10;
DROP VIEW [IF EXISTS] 视图名称 [,视图名称]...
例子:
drop view if exists stu_v_1;
无检查选项的情况:
-- 创建视图无检查选项
create or replace view stu_v_1 as select id, name from student where id <= 10;
-- 插入数据
insert into stu_v_1 values (6, 'Tom'); # 视图和表中都会多这一条记录
insert into stu_v_1 values ('30', 'Tom'); # 表中会多这一条记录,视图中却不会,因为创建视图时指定了id <= 10
带检查选项的情况:
-- 创建视图带检查选项
create or replace view stu_v_1 as select id, name from student where id <= 10 with cascaded check option;
-- 插入数据
insert into stu_v_1 values (6, 'Tom'); # 视图和表中都会多这一条记录
insert into stu_v_1 values ('30', 'Tom'); # 报错
当使用WITH CHECK QPTION
子句创建视图时,MySQL会通过视图检查正在更改的每个行,例如插入,更新,删除,以使其符合视图的定义。MySQL允许基于另一个视图创建视图,它还会检查依赖视图中的规则以保持一致性。为了确定检查的范围,mysql提供了两个选项:CASCADED
和 LOCAL
,默认值为 CASCADED
。
级联,一旦选择了这个选项,除了会检查创建视图时候的条件,还会检查所依赖视图的条件,因此子视图的检查选项会传递到父视图中。
create or replace view stu_v_1 as select id, name from student where id <= 20;
insert into stu_v_1 values (5, 'Tom'); # 插入成功,符合视图创建规则
insert into stu_v_1 values (25, 'Tom'); # 插入成功,不符合视图创建规则,但是视图创建时没添加 check option
create or replace view stu_v_2 as select id, name from stu_v_1 where id >= 10 with cascaded check option;
insert into stu_v_2 values (7, 'Tom');# 插入失败,不满足id >= 10
insert into stu_v_2 values (26, 'Tom');# 插入失败,满足id >= 10,不满足stu_v_1的id <= 20
insert into stu_v_2 values (15, 'Tom');# 插入成功,满足stu_v_2 id >= 10 和 stu_v_1 <= 20
create or replace view stu_v_3 as select id, name from stu_v_2 where id <= 15;
insert into stu_v_3 values (11, 'Tom'); # 插入成功
insert into stu_v_3 values (17, 'Tom'); # 插入成功,不符合stu_v_3视图创建规则,但是stu_v_3视图创建时没添加 check option。因此再检查stu_v_2,满足。再检查stu_v_1,满足。因此插入成功。
insert into stu_v_3 values (28, 'Tom'); # 插入失败。检查stu_v_2,满足。检查stu_v_1,不满足。
本地的条件也会检查,还会向上检查。在向上找的时候,就要看是否上面开了检查选项,如果没开就不检查。和 CASCADED 的区别就是 CASCADED 不管上面开没开检查选项都会进行检查。
create or replace view stu_v_4 as select id, name from student where id <= 15;
insert into stu_v_4 values (5, 'Tom'); # 插入成功,符合视图创建规则
insert into stu_v_4 values (16, 'Tom'); # 插入成功,不符合视图创建规则,但是视图创建时没添加 check option
create or replace view stu_v_5 as select id, name from stu_v_4 where id >= 10 with local check option;
insert into stu_v_5 values (13, 'Tom');# 插入成功
insert into stu_v_5 values (17, 'Tom');# 插入成功,满足id >= 10,不满足stu_v_4的id <= 15,但是stu_v_4没有check option,不用检查
create or replace view stu_v_6 as select id, name from stu_v_5 where id < 20;
insert into stu_v_6 values (14, 'Tom'); # 插入成功
要使视图可更新,视图中的行与基础表中的行之间必须存在一对一的关系。如果视图包含以下任何一项,则该视图不可更新
例子:
-- 创建视图,使用聚合函数
create view stu_v_count as select count(*) from student;
-- 插入数据
insert into stu_v_count values(10); # 插入失败
作用:
总而言之 类似于给表加上了一个外壳,通过这个外壳访问表的时候,只能按照所设计的方式进行访问与更新。
存储过程是事先经过编译并存储在数据库中的一段SQL 语句的集合,调用存储过程可以简化应用开发人员的很多工作,减少数据在数据库和应用服务器之间的传输,对于提高数据处理的效率是有好处的。
存储过程思想上很简单,就是数据库SQL 语言层面的代码封装与重用。
特点:
语法:
CREATE PROCEDURE 存储过程名称([参数列表])
BEGIN
-- SQL语句
END;
语法:
CALL 名称 ([参数]);
例子:
-- 新建
create procedure p1()
begin
select count(*) from stundet;
end;
-- 调用
call p1();
语法:
-- 查询指定数据库的存储过程及状态信息
SELECT* FROM INFORMATION_SCHEMA.ROUTINES WHERE ROUTINE_SCHEMA = 'xxx' ;
-- 查询某个存储过程的定义
SHOW CREATE PROCEDURE 存储过程名称;
例子:
select * from information_schema.ROTINES where ROUTINE_SCHEMA = 'itcast';
show create procedure p1;
DROP PROCEDURE [ IFEXISTS ] 存储过程名称;
注意:在命令行中,执行存储过程的SQL时,需要通过关键字delimiter指定SQL语句的结束符。
系统变量 是MySQL服务器提供,不是用户定义的,属于服务器层面。分为全局变量、会话变量。
查看系统变量
-- 查看所有系统变量
SHOW [SESSION | GLOBAL] VARIABLES;
-- 通过LIKE模糊匹配方式查找变量
SHOW [SESSION | GLOBAL] VARIABLES LIKE '......';
-- 查看指定变量的值
SELECT @@[SESSION | GLOBAL] 系统变量名;
设置系统变量名
SET [SESSION | GLOBAL] 系统变量名 = 值;
SET @@[SESSION | GLOBAL]系统变量名=值;
用户自定义变量 是用户根据需要自己定义的变量,用户变量不用提前声明,在用的时候直接用"@变量名"使用就可以。其作用域为当前连接。
赋值:
SET @var_name=expr[, @var_name=expr]...;
SET @var_name:=expr[, @var_name:=expr]...;
SELECT @var_name:=expr[, @var_name:=expr]...;
SELECT 字段名 INTO @var_name FROM 表名;
使用:
SELECT @var_name;
局部变量 是根据需要定义的局部生效的变量,访问之前,需要DECLARE
声明。可用作存储过程内的局部变量和输入参数,局部变量的范围是在其内声明的BEGIN…END
块。
声明:
DECLARE 变量名 变量类型[DEFAULT ...];
变量类型就是数据库字段类型:INT,BIGINT,CHAR,VARCHAR,DATE,TIME等。
赋值:
SET 变量名=值;
SET 变量名:=值;
SELECT 字段名 INTO 变量名 FROM 表名 ...;
例子:
create prodecure p2()
begin
declare stu_count int default 0;
select count(*) into stu_count from student;
select stu_count;
end;
语法:
IF 条件1 THEN
......
ELSEIF 条件2 THEN #可选
......
ELSE #可选
......
END IF;
例子:
根据定义的分数score变量,判定当前分数对应的分数等级。
create procedure p3()
begin
declare score int default 58;
declare result varchar(10);
if score >= 85 then
set result := '优秀';
elseif score >= 60 then
set result := '及格';
else
set result := '不及格';
end if;
select result;
end;
类型 | 含义 | 备注 |
---|---|---|
IN | 该类参数作为输入,也就是需要调用时传入值 | 默认 |
OUT | 该类参数作为输出,也就是该参数可以作为返回值 | |
INOUT | 既可以作为输入参数,也可以作为输出参数 |
用法:
CREATE PROCEDURE 存储过程名称([IN/OUT/INOUT] 参数名 参数类型)
BEGIN
#SQL语句
END;
例子:
根据传入参数score,判定当前分数对应的分数等级,并返回。
create procedure p4(in score int, out result varchar(10))
begin
if score >= 85 then
set result := '优秀';
elseif score >= 60 then
set result := '及格';
else
set result := '不及格';
end if;
end;
call p4(68, @result);
语法:
-- 语法一:
CASE case_value
WHEN when_value1 THEN statement_list1
[WHEN when_value2 THEN statement_list2]...
[ELSE statement_list]
END CASE;
-- 语法二
CASE case_value
WHEN search_condiction1 THEN statement_list1
[WHEN search_condiction2 THEN statement_list2]...
[ELSE statement_list]
END CASE;
例子:
根据传入的月份,判定月份所属的季节。
create procedure p6(in month int)
begin
declare result varchar(10);
case
when month >= 1 and month <=3 then
set result := '第一季度';
when month >= 4 and month <=6 then
set result := '第二季度';
when month >= 7 and month <=9 then
set result := '第三季度';
when month >= 10 and month <=12 then
set result := '第四季度';
end case;
select concat('您输入的月份:',month,',所属的季度为:', result);
end;
while 循环时有条件的循环控制语句。满足条件后,再执行循环体中的SQL语句。具体语法为:
# 先判定条件,如果条件为 true,则执行逻辑,否则,不执行逻辑
WHILE 条件 DO
SQL逻辑...
END WHILE;
例子:
计算从1累加到n的值,n为传入的参数值。
create procedure p7(in n int)
begin
declare total int default 0;
while n > 0
set total = total + n;
set n = n - 1;
end while;
select total;
end;
repeat 是有条件的循环控制语句,当满足条件的时候退出循环。具体语法为:
# 先执行一次逻辑,然后判定逻辑是否满足,如果满足,则退出。如果不满足,则继续下一次循环。
REPEAT
SQL逻辑
UNTIL 条件
END REPEAT;
例子:
计算从1累加到n的值,n为传入的参数值。
create procedure p8(in n int)
begin
declare total int default 0;
repeat
set total = total + n;
set n = n - 1;
until n <= 0;
end repeat;
select total;
end;
loop 实现简单的循环,如果不在SQL逻辑中增加退出循环的条件,可以用其来实现简单的死循环。loop可以配合以下两个语句使用:
语法:
[begin_label] LOOP:
SQL逻辑...
END LOOP [end_label];
例子:
计算从1累加到n的值,n为传入的参数值。
create procedure p9(in n int)
begin
declare total int default 0;
sum:loop
if n <= 0 then
leave sum;
end if;
set total = total + n;
set n = n - 1;
end loop sum;
select total;
end;
游标(CURSOR)是用来存储查询结果集的数据类型,在存储过程和函数中可以使用游标对结果集进行循环的处理。游标的使用包括游标的声明、OPEN、FETCH和CLOSE,其语法分别如下。
声明游标
DECLARE 游标名称 CURSOR FOR 查询语句;
打开游标
OPEN 游标名称;
获取游标记录
FETCH 游标名称 INTO 变量[,变量];
例子:
根据传入参数uage,来查询用户表tb_user中,所有用户年龄小于等于uage的用户姓名(name)和专业(profession),并将用户的姓名和专业插入到所创建的一张新表(id,name,profession)中。
create procedure p10(in uage int)
begin
declare uname varchar(100);
declare upro varchar(100);
declare u_cursor cursor for select name, profession from tb_user where age <= uage;
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100);
profession varchar(100);
);
open u_cursor;
while true do
fetch u_cursor into uname, upro;
insert into tb_user_pro values (null, uname, upro);
end while;
close u_cursor;
end;
以上程序运行会报错,但是表生成成功。但是由于是死循环,游标中的数据获取完后,程序会报错。这就需要用到条件处理程序。
条件处理程序 可以用来定义在流程控制结构执行过程中遇到问题时相应的处理步骤。具体语法为:
DECLARE handler action HANDLER FOR condition value L condition value]..statement;
handler_action
CONTINUE: 继续执行当前程序
EXIT: 终止执行当前程序
condition_value
SQLSTATE sqlstate_value: 状态码,如02000
SQLWARNING: 所有以01开头的SQLSTATE代码的简写
NOT FOUND: 所有以02开头的SQLSTATE代码的简写
SQLEXCEPTION: 所有没有被SQLWARNING或NOT FOUND捕获的SQLSTATE代码的简写
例子:
create procedure p10(in uage int)
begin
declare uname varchar(100);
declare upro varchar(100);
declare u_cursor cursor for select name, profession from tb_user where age <= uage;
declare exit handler for SQLSTATE '02000' close u_cursor; # 当满足'02000'时触发关闭游标的操作
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100);
profession varchar(100);
);
open u_cursor;
while true do
fetch u_cursor into uname, upro;
insert into tb_user_pro values (null, uname, upro);
end while;
close u_cursor;
end;
存储函数是有返回值的存储过程,存储函数的参数只能是IN类型的。具体语法如下:
CREATE FUNCTION 存储函数名称([参数列表])
RETURNS type [characteristic...]
BEGIN
#SQL语句
RETURN ...;
END;
characteristic说明:
1. DETERMINISTIC:相同的输入参数总是产生相同的结果。
2. NO SQL:不包含SQL语句。
3. READS SQL DATA:包含读取数据的语句,但不包含写入数据的语句。
例子:
计算从1累加到n的值,n为传入的参数值。
create function fun1(n int)
returns int deterministic
begin
declare total int default 0;
while n > 0 do
set total := total + n;
set n := n - 1;
end while;
return total;
end;
-- 调用
select fun1(100);
触发器是与表有关的数据库对象,指在insert/update/delete之前或之后,触发并执行触发器中定义的SQL语句集合。触发器的这种特性可以协助应用在数据库端确保数据的完整性,日志记录,数据校验等操作。
使用别名OLD和NEW来引用触发器中发生变化的记录内容,这与其他的数据库是相似的。现在触发器还只支持行级触发(比如说 一条语句影响了 5 行 则会被触发 5 次),不支持语句级触发(比如说 一条语句影响了 5 行 则会被触发 1 次)。
触发器类型 | NEW 和 OLD |
---|---|
INSERT 型触发器 | NEW表示将要或者已经新增的数据 |
UPDATE 型触发器 | OLD 表示修改之前的数据,NEW表示将要或已经修改后的数据 |
DELETE型触发器 | OLD表示将要或者已经删除的数据 |
语法:
创建
CREATE TRIGGER trigger_name
BEFORE/AFTER INSERT/UPDATE/DELETE
ON tbl_name FOR EACH ROW #行级触发器
BEGIN
trigger_stmt;
END;
查看
SHOW TRIGGERS;
删除
DROP TRIGGER [schema_name] trigger_name; # 如果没有指定schema_name,默认为当前数据库
需求:通过触发器记录 user 表的数据变更日志(user_logs),包含增加,修改,删除
-- 准备工作,新建日志表
create table user_logs(
id int(11) not null primary key;
operation varchar(20) not null comment '操作类型,insert/update/delete';
operate_time datetime not null comment '操作时间';
operate_id int(11) not null comment '操作的ID';
operate_params varchar(500) comment '操作参数';
primary key('id');
)engine=innodb default charset=utf8;
-- 插入触发器
create trigger tb_user_insert_trigger
after insert on tb_user for each row
begin
insert into user_logs(id,operation, operate_time, operate_id, operate_params) values (null, 'insert', now(), new.id, concat('插入的数据内容为:id=', new.id, ', name=', new.name, ', phone=', new.phone, ', email=', new.email, ',profession=', new.profession));
end;
-- 更新触发器
create trigger tb_user_update_trigger
after update on tb_user for each row
begin
insert into user_logs(id,operation, operate_time, operate_id, operate_params) values (null, 'update', now(), new.id, concat('更新之前的数据内容为:id=', old.id, ', name=', old.name, ', phone=', old.phone, ', email=', old.email, ',profession=', old.profession), '更新之后的数据内容为:id=', new.id, ', name=', new.name, ', phone=', new.phone, ', email=', new.email, ',profession=', new.profession));
end;
-- 删除触发器
create trigger tb_user_delete_trigger
after delete on tb_user for each row
begin
insert into user_logs(id,operation, operate_time, operate_id, operate_params) values (null, 'insert', now(), new.id, concat('删除的数据内容为:id=', old.id, ', name=', old.name, ', phone=', old.phone, ', email=', old.email, ',profession=', old.profession));
end;
锁是计算机协调多个进程或线程并发访问某一资源的机制。在数据库中,除传统的计算资源(CPU、RAM、I/O)的争用以外,数据也是一种供许多用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。从这个角度来说,锁对数据库而言显得尤其重要,也更加复杂。
按照锁的细粒度分,分为以下三类:
全局锁就是对整个数据库实例加锁,加锁后整个实例就处于只读状态,后续的DML的写语句,DDL语句,已经更新操作的事务提交语句都将被阻塞。
其典型的使用场景是做全库的逻辑备份,对所有的表进行锁定,从而获取一致性视图,保证数据的完整性。
添加全局锁:
flush tables with read lock;
数据备份:
mysqldump -u用户名 -p密码 数据库名 > 文件路径/文件名.sql
注意这不是一个数据库命令,不能在mysql的命令行执行。
数据库中加全局锁,是一个比较重的操作,存在以下问题:
在InnoDB引擎中,我们可以在备份时加上参数–single-transaction
参数来完成不加锁的一致性数据备份。
mysqldump --single-transaction -u用户名 -p密码 数据库名 > 文件路径/文件名.sql
表级锁,每次操作锁住整张表。锁定粒度大,发生锁冲突的概率最高,并发度最低。应用在MyISAM、InnoDB、BDB等存储引擎中。
对于表级锁,主要分为以下三类:
对于表锁,分为两类:
语法:
加锁:lock tables 表名... read/write
释放锁:unlock tables / 客户端断开连接
MDL加锁过程是系统自动控制,无需显式使用,在访问一张表的时候会自动加上。MDL锁主要作用是维护表元数据的数据一致性,在表上有活动事务的时候,不可以对元数据进行写入操作。
为了避免DML与DDL冲突,保证写的正确性。
在MySQL5.5中引入了MDL,当对一张表进行增删改查的时候,加MDL读锁(共享);当对表结构进行变更操作的时候,加MDL写锁(排他)。
对应SQL | 锁类型 | 说明 |
---|---|---|
lock tables xxx read/write | SHARED_READ_ONLY/SHARED_NO_READ_WRITE | |
select, select … lock in share mode | SHARED_READ(属于MDL读锁) | 与SHARED_READ、SHARED_WRITE兼容,与EXCLUSIVE互斥 |
insert, update, delete, select … for update | SHARED_WRITE(属于MDL读锁) | 与SHARED_READ、SHARED_WRITE兼容,与EXCLUSIVE互斥 |
alter table… | EXCLUSIVE | 与其他的MDL都互斥 |
查看元数据锁的语法:
select object_typr, object_schema, object_name, lock_typr, lock_duration from performance_schema.metadata_locks;
DML语句执行时,会给正在执行的行加上行锁,此时如果想对这个表添加表锁,需要遍历每一行是否存在行锁,效率极低。
为了避免DML在执行时,加的行锁与表锁的冲突,在InnoDB中引入了意向锁,使得表锁不用检查每行数据是否加锁,使用意向锁来减少表锁的检查。
一个客户端对某一行加上了行锁,那么系统也会对其加上一个意向锁,当别的客户端来想要对其加上表锁时,便会检查意向锁是否兼容,若是不兼容,便会阻塞直到意向锁释放。
意向锁分为两类:
意向锁的兼容性:
查看意向锁及行锁的加锁情况:
select object_schema, object_name, index_name, lock_type, lock_mode, lock_data from performance_schema.data_locks;
行级锁,每次操作锁住对应的行数据。锁定粒度最小,发生锁冲突的概率最低,并发度最高。应用在InnoDB存储引擎中。
InnoDB的数据是基于索引组织的,行锁是通过对索引上的索引项加锁来实现的,而不是对记录加的锁。
对于行级锁,主要分为以下三类:
InnoDB实现了以下两种类型的行锁:
共享锁与共享锁之间兼容,共享锁与排他锁之间互斥,排他锁与排他锁之间互斥。
SQL | 行锁类型 | 说明 |
---|---|---|
insert | 排他锁 | 自动加锁 |
update | 排他锁 | 自动加锁 |
delete | 排他锁 | 自动加锁 |
select | 不加任何锁 | |
select … lock in share mode | 共享锁 | 需要手动在SELECT之后加LOCK IN SHARE MODE |
select … for update | 排他锁 | 需要手动在SELECT之后加FOR UPDATE |
默认情况下,InnoDB在REPEATABLE READ
事务隔离级别运行,InnoDB使用next-key
锁进行搜索和索引扫描,以防止幻读。
默认情况下,InnoDB在REPEATABLE READ事务隔离级别运行,InnoDB使用next-key 锁进行搜索和索引扫描,以防止幻读。
注意:间隙锁唯一目的是防止其他事务插入间隙。间隙锁可以共存,一个事务采用的间隙锁不会阻止另一个事务在同一间隙上采用间隙锁。
例子:
存在以下一张表:
id | name | age |
---|---|---|
1 | Java | 1 |
3 | PHP | 3 |
8 | rose | 8 |
11 | jetty | 11 |
19 | Lilly | 19 |
25 | luci | 25 |
执行下面的sql语句:
-- id是唯一索引
update stu set age = 10 where id = 5;
此时,会给id为3和8之间的记录加上间隙锁(不包含3和8)(情形1)。此时,我们在另一个事务中插入id为7的数据:
insert into stu value(7,'Ruby',7);
由于间隙锁的存在,上面这条sql语句会阻塞。
-- 给age添加一个普通索引后执行查询操作
select * from stu where age = 3 lock in share mode;
此时,会给id为3和7之间的记录加上间隙锁(情形2).
表空间(ibd文件),一个mysql实例可以对应多个表空间,用于存储记录、索引等数据。
段,分为数据段(Leaf node segment)、索引段(Non-leaf node segment)、回滚段(Rollback segment),InnoDB是索引组织表,数据段就是B+树的叶子节点,索引段即为B+树的非叶子节点。段用来管理多个Extent(区)。
区,表空间的单元结构,每个区的大小为1M。默认情况下,InnoDB存储引擎页大小为16K,即一个区中一共有64个连续的页。
页,是InnoDB存储引擎磁盘管理的最小单元,每个页的大小默认为16KB。为了保证页的连续性,InnoDB存储引擎每从磁盘申请4-5个区。一页包含若干行。
行,InnoDB存储引擎数据是按进行存放的。
InnoDB引擎架构图:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-X8dv1Eun-1683447184355)(http://49.232.218.135:8888/down/86HYEpYOdXmI ‘InnoDB引擎架构图’)]
Buffer Pool:缓冲池是主内存中的一个区域,里面可以缓存磁盘上经常操作的真实数据,在执行增删改查操作时,先操作缓冲池中的数据(若缓冲池没有数据,则从磁盘加载并缓存),然后再以一定频率刷新到磁盘,从而减少磁盘I0,加快处理速度。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-F6yyJrX9-1683447184355)(http://49.232.218.135:8888/down/JyNlCGEGRPJe ‘内存结构’)]
磁盘结构:
InnoDB的整个体系结构为:
当业务操作的时候直接操作的是内存缓冲区,如果缓冲区当中没有数据,则会从磁盘中加载到缓冲区,增删改查都是在缓冲区的,后台线程以一定的速率刷新到磁盘。
事务是一组操作的集合,它是一个不可分割的工作单位,事务会把所有的操作作为一个整体一起向系统提交或撤销操作请求,即这些操作要么同时成功,要么同时败。具有ACID四大特征。
原子性,一致性,持久性这三大特性由 redo log 和 undo log 日志来保证的。 隔离性 是由锁机制和MVCC保证的。
redo log:
重做日志,记录的是事务提交时数据页的物理修改,是用来实现事务的持久性。 该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log file),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都存到该日志文件中,用于在刷新脏页到磁盘,发生错误时,进行数据恢复使用。
undo log:
回滚日志,用于记录数据被修改前的信息,作用包含两个:提供回滚和MVCC(多版本并发控制)。 undo log和redo log记录物理日志不一样,它是逻辑日志。可以认为当delete一条记录,undo log中会记录一条对应的insert记录,反之亦然,当update一条记录时,它记录一条对应相反的update记录。当执行rollback时,就可以从undo log中的逻辑记录读取到相应的内容并进行回滚。
当前读
读取的是记录的最新版本,读取时还要保证其他并发事务不能修改当前记录,会对读取的记录进行加锁。对于我们日常的操作,如:select…lock in share mode(共享锁),select……for update、update、insert、delete(排他锁)都是一种当前读。
快照读
简单的select(不加锁)就是快照读,快照读,读取的是记录数据的可见版本,有可能是历史数据,不加锁,是非阻塞读。
MVCC
全称Multi-Version Concurrency Control,多版本并发控制。指维护一个数据的多个版本,使得读写操作没有冲突,快照读为MySQL实现MVCC提供了一个非阻塞读功能。MVCC的具体实现,还需要依赖于数据库记录中的三个隐式字段、undo log日志、readView。
当我们创建一张表时,显示的指定了字段,例如id,age和name。InnoDB会隐式的给这张表增加三个额外的字段:DB_TRX_ID
, DB_ROLL_PTR
和DB_ROW_ID
。
隐藏字段 | 含义 |
---|---|
DB_TRX_ID | 最近修改事务ID,记录插入这条记录或最后一次修改该记录的事务ID。 |
DB_ROLL_PTR | 回滚指针,指向这条记录的上一个版本,用于配合undo log,指向上一个版本。 |
DB_ROW_ID | 隐藏主键,如果表结构没有指定主键,将会生成该隐藏字段。 |
undo log回滚日志,在insert、update、delete的时候产生的便于数据回滚的日志。
当insert的时候,产生的undo log日志只在回滚时需要,在事务提交后,可被立即删除。
而update、delete的时候,产生的undo log日志不仅在回滚时需要,在快照读时也需要,不会立即被删除。
通过一个实际例子来简单介绍undo log版本链的原理。
首先,表中有下面这条记录:
由于还未进行更新操作,其DB_ROLL_PTR
指针的值为null
。接下来,事务2,事务3,事务4和事务5并发执行。
可以看到,事务2最先修改这条id为30的记录,在修改之前,InnoDB引擎先会生成一条undo log日志,该undo log日志会记录数据原来的样子。并将id为30的记录的DB_ROLL_PTR
指向undo log日志的地址值(0x00001),并修改DB_TRX_ID
为当前事务的id。
同理,在事务三对id为30的记录进行更新操作时,在修改之前,InnoDB引擎先会生成一条undo log日志,该undo log日志会记录数据原来的样子,包括DB_TRX_ID
,和DB_ROLL_PTR
字段的信息。并将id为30的记录的DB_ROLL_PTR
指向新生成的undo log日志的地址值,并修改DB_TRX_ID
为当前事务的id。
事务4同理,不再进行过多赘述。。
不同事务或相同事务对同一条记录进行修改,会导致该记录的undo log生成一条记录版本链,链表的头部是最新的旧记录,链表的尾部是最早的旧记录。
ReadView(读视图) 是 快照读 SQL执行时MVCC提取数据的依据,记录并维护系统当前活跃的事务(未提交的)id。
ReadView 中包含了四个核心字段:
字段 | 含义 |
---|---|
m_ids | 当前活跃的事务ID集合 |
min_trx_id | 最小活跃事务ID |
max_trx_id | 预分配事务ID,当前最大事务ID + 1(因为事务ID是自增的) |
creator_trx_id | ReadView创建者的事务ID |
版本链数据访问规则:
trx_id:代表当前事务ID
trx_id == creator_trx_id 可以访问该版本 => 成立,说明数据是当前事务更改的
trx_id < min_trx_id 可以访问该版本 => 成立,说明数据已经提交了
trx_id > max_trx_id 不可以访问该版本 => 成立,说明该事务是在ReadView生成后开启的
min_trx_id <= trx_id <= max_trx_id 如果trx_id不在m_ids中是可以访问该版本的 => 成立,说明数据已经提交
不同的隔离级别,生成ReadView的时机不同:
RC隔离级别下,在事务中每一次执行快照读时生成ReadView。下面,通过一个例子来进行介绍。
事务五的两次查询操作将会生成两个不同的快照读:
根据版本链数据访问规则,来查看这两次查询操作访问到的数据版本:
第一条查询语句:
先看看是否能查找到当前记录,即DB_TRX_ID
为4的版本:
DB_TRX_ID
不等于 creator_trx_id ,第一条不成立DB_TRX_ID
大于 min_trx_id, 第二条不成立DB_TRX_ID
小于 max_trx_id,第三条不成立DB_TRX_ID
<= max_trx_id,但是DB_TRX_ID
在m_ids中,说明DB_TRX_ID
为4的记录事务还未提交,不能访问。因此,第一条查询语句无法访问当前记录。需要顺着版本链继续查找。
同理,DB_TRX_ID
为3的记录也无法访问。DB_TRX_ID
为2的记录满足条件:DB_TRX_ID
< min_trx_id
, 因此可以访问到这条历史记录。
因此,第一条查询语句的结果为:id = 30, age = 3, name = A30。
第二条查询语句:
同理,第二条查询语句获得的记录为DB_TRX_ID
为3的版本,即 id = 30, age = 3, name = A3。
很好地满足了读已提交。
RR隔离级别下,仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView。还是以上面的例子进行介绍:
由于ReadView复用,因此在同一个事务中,两次读取同一条数据的结果应该相同。