提示:mysql基础,进阶,运维(持续更新,更新速度与本人学习进度一致,加入自己的认知和理解,以下操作主要针对8.0后的)
下载
压缩包安装指导链接
官网下载
输入MySQL中root用户的密码,一定记得记住该密码(后期登录要用)
基本都是默认下一步
配置
安装好MySQL之后,还需要配置环境变量,这样才可以在任何目录下连接MySQL
C. 找到 Path 系统变量, 点击 “编辑”
D. 选择 “新建” , 将MySQL Server的安装目录下的bin目录添加到环境变量
(mysql的安装目录下的bin目录,最好复制粘贴路径,不容易出错)
记得确定,保存配置
MySQL安装完成之后,在系统启动时,会自动启动MySQL服务,我们无需手动启动了。
当然,也可以手动的通过指令启动停止,以管理员身份运行cmd,进入命令行执行如下指令:
登录
[ ]内为可选参数,如果需要连接远程的MySQL,需要加上这两个参数来指定远程主机IP、端口,如果
连接本地的MySQL,则无需指定这两个参数。
数值类型
默认是有符号的,若要使用无符号的需要定义。
例如:
create table T1(
age TINYINT – 有符号
);
create table T2(
age TINYINT UNSIGNED – 无符号
);
字符串
日期类型:
CURRENT_TIMESTAMP --自动更新时间
CREATE TABLE t14 (
birthday DATE , -- 生日
job_time DATETIME, -- 记录年月日 时分秒
login_time TIMESTAMP
NOT NULL DEFAULT CURRENT_TIMESTAMP
ON UPDATE CURRENT_TIMESTAMP -- 登录时间, 如果希望 login_time 列自动更新, 需要配置
);
全称 Structured Query Language,结构化查询语言。操作关系型数据库的编程语言,定义了
一套操作关系型数据库统一标准 。
1). SQL语句可以单行或多行书写,以分号结尾。
2). SQL语句可以使用空格/缩进来增强语句的可读性。
3). MySQL数据库的SQL语句不区分大小写,关键字建议使用大写。
4). 注释:
单行注释:-- 注释内容 或 # 注释内容
多行注释:/* 注释内容 */
Data Definition Language,数据定义语言,用来定义数据库对象(数据库,表,字段) 。
SHOW CREATE DATABASE db_name;#显示数据库创建语句
show databases ; #查询所有数据库
select database() ;#查询当前数据库
create database [ if not exists ] 数据库名 [ default charset 字符集 ] [ collate 排序 规则 ] ; #创建数据库
drop database [ if exists ] 数据库名 ; #删除数据库
use 数据库名 ;#切换数据库
mysqldump -u 用户名 -p -B 数据库1 数据库2 … > 文件名.sql #备份数据库,在dos命名行生效
例如:备份table_01库到D盘根目录下,并命名为bak3(登录用户为root)
mysqldump --column-statistics=0 -u root -p -B table_01 > d:\bak3.sql
如果报错就加上--column-statistics=0
,这个可能是因为版本比较老的原因。
mysqldump --column-statistics=0 -u root -p -B table_01 > d:\bak3.sql
Source 文件名.sql #恢复数据库
例如:恢复bak3.sql中的库信息(不同版本的编码方式,对数据的恢复有影响)
source d:\bak3.sql
(或者直接粘贴以sql结尾的文件中的内容运行)
获取数据源1000w条
使用load指令进行插入操作
登录mysql时加上--local_infile
否则在导入时会报:
ERROR 2068 (HY000): LOAD DATA LOCAL INFILE file request rejected due to restrictions on access.
检查是否开启local_infile
如果没有开启会报:
ERROR 3948 (42000): Loading local data is disabled; this must be enabled on both the client and server sides
使用该指令查看(默认是0,关闭状态):
select @@local_infile;
使用该指令进行设置
setglobal
local_infile = 1; #要加global,因为他是全局变量,不加要报错
在导入数据前,先选好库,建好对应的表
导入数据:
load data local infile ‘路径名’ into table `表名` fields terminated by ‘,’ lines terminated by ‘\n’;
例如:我的表名是tb_sku,tb_sku1.sql数据上传放置在linux服务器的/root/sql/目录下load data local infile '/root/sql/tb_sku1.sql' into table `tb_sku` fields terminated by ',' lines terminated by '\n';
- 登录时加上 --local_infile
- 开启 local_infile
- 创建好对应的库和表
- 将要导入的sql表,找好存放位置,导入数据
show tables; #查询当前数据库所有表
desc 表名 ; #查看指定表结构
show create table 表名 ;#查询指定表的建表语句
CREATE TABLE 表名(
字段1 字段1类型 [ COMMENT 字段1注释 ],
字段2 字段2类型 [COMMENT 字段2注释 ],
字段3 字段3类型 [COMMENT 字段3注释 ],
… ,
字段n 字段n类型 [COMMENT 字段n注释 ]
) [ COMMENT 表注释 ] ; #创建表结构
注意: […] 内为可选参数,最后一个字段后面没有逗号
ALTER TABLE 表名 ADD 字段名 类型 (长度) [ COMMENT 注释 ] [ 约束 ];#添加字段
ALTER TABLE 表名 MODIFY 字段名 新数据类型 (长度);# 修改数据类型
ALTER TABLE 表名 CHANGE 旧字段名 新字段名 类型 (长度) [ COMMENT 注释 ] [ 约束 ];# 修改字段名和字段类型
ALTER TABLE 表名 DROP 字段名; #删除字段
ALTER TABLE 表名 RENAME TO 新表名; #修改表名
DROP TABLE [ IF EXISTS ] 表名;# 删除表
TRUNCATE TABLE 表名;# 删除指定表, 并重新创建表
DML英文全称是Data Manipulation Language(数据操作语言),用来对数据库中表的数据记录进
行增、删、改操作。
添加数据(INSERT)
修改数据(UPDATE)
删除数据(DELETE)
INSERT INTO 表名 (字段名1, 字段名2, …) VALUES (值1, 值2, …);#给指定字段添加数据
INSERT INTO 表名 VALUES (值1, 值2, …);# 给全部字段添加数据(一一对应)
INSERT INTO 表名 (字段名1, 字段名2, …) VALUES (值1, 值2, …), (值1, 值2, …), (值 1, 值2, …) ;
INSERT INTO 表名 VALUES (值1, 值2, …), (值1, 值2, …), (值1, 值2, …) ;
#批量添加数据
UPDATE 表名 SET 字段名1 = 值1 , 字段名2 = 值2 , … [ WHERE 条件 ] ;#修改数据
DELETE FROM 表名 [ WHERE 条件 ] ;#删除数据
注意:
- DELETE 语句的条件可以有,也可以没有,如果没有条件,则会删除整张表的所有数
据。- DELETE 语句不能删除某一个字段的值(可以使用UPDATE,将该字段值置为NULL即 可)。
DQL英文全称是Data Query Language(数据查询语言),数据查询语言,用来查询数据库中表的记
录。
查询关键字: SELECT
SELECT 字段1, 字段2, 字段3 … FROM 表名 ;
SELECT * FROM 表名 ;# 查询多个字段
‘*’ 号代表查询所有字段,在实际开发中尽量少用(不直观、影响效率)
SELECT 字段1 [ AS 别名1 ] , 字段2 [ AS 别名2 ] … FROM 表名;# 字段设置别名(as可省略)
SELECT DISTINCT 字段列表 FROM 表名;# 去除重复记录(关键字distinct)
SELECT 字段列表 FROM 表名 WHERE 条件列表 ;
举例:(假如有一个emp表,以下查询字段都有)
查询没有身份证号的员工信息
select * from emp where idcard is null;
查询性别为 女 且年龄小于 25岁的员工信息
select * from emp where gender = ‘女’ and age < 25;
SELECT 聚合函数(字段列表) FROM 表名 ;
注意 : NULL值是不参与所有聚合函数运算的。
举例:(假设有emp表,包含有以下字段)
统计该企业员工的平均年龄
select avg(age) from emp;
统计北京地区员工的年龄之和
select sum(age) from emp where workaddress = ‘北京’;
SELECT 字段列表 FROM 表名 [ WHERE 条件 ] GROUP BY 分组字段名 [ HAVING 分组 后过滤条件 ];
注意事项:
• 分组之后,查询的字段一般为聚合函数和分组字段,查询其他字段无任何意义(会报错,新手初学极易犯错,比如本人)。
• 执行顺序: where > 聚合函数 > having 。
• 支持多字段分组, 具体语法为 : group by columnA,columnB
where与having区别:
- 执行时机不同:where是分组之前进行过滤,不满足where条件,不参与分组;而having是分组
之后对结果进行过滤。- 判断条件不同:where不能对聚合函数进行判断,而having可以。
举例:
查询年龄小于45的员工 , 并根据工作地址分组 , 获取员工数量大于等于3的工作地址
select workaddress, count(*) num from emp where age < 45 group by workaddress having num >= 3;
/*
解释:(执行)
首先from emp:查询的是emp表
where age<45:查询emp表中小于45岁的人
group by workaddress:将emp表中小于45岁的人依据工作地址进行分组
having num>=3:(num为聚合函数count(*)查询起的别名)在分组后筛选保留每组人数大于等于3的组
select workaddress, count(*) num:最终emp展示的字段workaddress,num。
*/
SELECT 字段列表 FROM 表名 ORDER BY 字段1 排序方式1 , 字段2 排序方式2 ;
排序方式
ASC : 升序(默认值)
DESC: 降序
注意事项:
• 如果是升序, 可以不指定排序方式ASC ;
• 如果是多字段排序,当第一个字段值相同时,才会根据第二个字段进行排序 ;
SELECT 字段列表 FROM 表名 LIMIT 起始索引, 查询记录数 ;
注意事项:
• 起始索引从0开始,起始索引 = (查询页码 - 1)* 每页显示记录数。
• 分页查询是数据库的方言,不同的数据库有不同的实现,MySQL中是LIMIT。
• 如果查询的是第一页数据,起始索引可以省略,直接简写为 limit 查询记录数。
默认的查询记录数应该是1000条(mysql8.0)
总结:
DQL语句的执行顺序为: from ... where ... group by ...having ... select ... order by ... limit ...
DCL英文全称是Data Control Language(数据控制语言),用来管理数据库用户、控制数据库的访
问权限。
在软件自带的mysql库里,藏着用户user表
select * from mysql.user;(查询结果部分截图)
注解:
其中 Host代表当前用户访问的主机, 如果为localhost, 仅代表只能够在当前本机访问,是不可以
远程访问的,'%'是设置任意ip可访问。 User代表的是访问该数据库的用户名。在MySQL中需要通过Host和User来唯一标识一个用户。
后面的属性是权限(N为无该权限,Y为有该权限)
– 权限有很多(比如查看root用户所拥有的权限)
# 创建用户
CREATE USER ‘用户名’@‘主机名’ IDENTIFIED BY ‘密码’;
#默认密码加密方式(版本不同,加密方式也不同)
CREATE USER ‘用户名’@‘主机名’ IDENTIFIED WITH mysql_native_password BY ‘密码’;
#指定加密方式为mysql_native_password
#修改用户密码
ALTER USER ‘用户名’@‘主机名’ IDENTIFIED WITH mysql_native_password BY ‘新密码’ ;
#删除用户
DROP USER ‘用户名’@‘主机名’ ;
权限控制详解
以下为比较常见的,其他权限描述及含义,可以直接参考官方文档
# 查询权限
SHOW GRANTS FOR ‘用户名’@‘主机名’ ;
#授予权限
GRANT 权限列表 ON 数据库名.表名 TO ‘用户名’@‘主机名’;
#撤销权限
REVOKE 权限列表 ON 数据库名.表名 FROM ‘用户名’@‘主机名’;
查看更多详细
select 函数名([参数1],[参数2],…)
常见
常见
举例:
生成一个六位的随机数
select lpad(round(rand()*1000000 , 0), 6, ‘0’);
rand()产生的是0-1范围的随机小数不包含0,1,小数位数也不确定。
常见
常见
举例:
#不为null
SELECT IFNULL(‘Ok’,‘Default’);
输出Ok
#‘‘为空,就是空字符串和null不是一回事
SELECT IFNULL(’’,‘Default’);
输出’’
#为null
SELECT IFNULL(NULL,‘Default’);
输出 Default
概述:约束是作用于表中字段上的规则,用于限制存储在表中的数据。
目的:保证数据库中数据的正确、有效性和完整性。约束是作用于表中字段上的,可以在创建表/修改表的时候添加约束。
注意:
- primary key不能重复而且不能为null。
一张表最多只能有一个主键,但可以是复合主键
复合主键需要写在表后 primary key(属性1,属性2…)- unique细节:如果没有指定not null,则unique字段可以有多个null;一张表可以有多个unique字段
- foreign key细节:
一个外键只能关联一张表
一张表可以有多个外键
外键指向的主表的字段,要求是primary key或者是unique约束(也就是要求不能有重复值)
表的类型是innodb,这样的表才支持外键
外键字段的类型要和主表关联字段的类型一致(长度可以不同)
外键字段的值,必须在主表关联的字段中出现过,或者为null[前提是外键字段允许为null]
一旦建立主外键的关系,数据不能随意删除了.
CREATE TABLE tb_user(
id int AUTO_INCREMENT PRIMARY KEY ,
name varchar(10) NOT NULL UNIQUE ,
age int check (age > 0 && age <= 120) ,
status char(1) default '1' ,
gender char(1)
);
外键约束
#添加外键(在建表初始时,在建表完成后)
CREATE TABLE 表名(
字段名 数据类型,
...
[CONSTRAINT] [外键名称] FOREIGN KEY (外键字段名) REFERENCES 主表 (主表列名)
);
ALTER TABLE 表名 ADD CONSTRAINT 外键名称 FOREIGN KEY (外键字段名) REFERENCES 主表 (主表列名) ;
举例:
以上表为例:为emp表的dept_id字段添加外键约束,关联dept表的主键id。
alter table emp add constraint fk_emp_dept_id foreign key (dept_id) references dept(id);
#删除外键
ALTER TABLE 表名 DROP FOREIGN KEY 外键名称;
举例:删除emp表的外键fk_emp_dept_id。
alter table emp drop foreign key fk_emp_dept_id;
删除/更新行为
添加了外键之后,再删除父表数据时产生的约束行为,我们就称为删除/更新行为。具体的删除/更新行为有以下几种:
语法:ALTER TABLE 表名 ADD CONSTRAINT 外键名称 FOREIGN KEY (外键字段) REFERENCES 主表名 (主表字段名) ON UPDATE 行为 -- 在更新时采用的行为 ON DELETE 行为; -- 在删除时采用的行为
一对多:
案例: 部门 与 员工的关系
关系: 一个部门对应多个员工,一个员工对应一个部门
实现: 在多的一方建立外键,指向一的一方的主键
多对多:
案例: 学生 与 课程的关系
关系: 一个学生可以选修多门课程,一门课程也可以供多个学生选择
实现: 建立第三张中间表,中间表至少包含两个外键,分别关联两方主键
一对一:
案例: 学生 与 课程的关系
关系: 一个学生可以选修多门课程,一门课程也可以供多个学生选择
实现: 建立第三张中间表,中间表至少包含两个外键,分别关联两方主键
分类:
内连接:相当于查询A、B交集部分数据
外连接:
左外连接:查询左表所有数据,以及两张表交集部分数据
右外连接:查询右表所有数据,以及两张表交集部分数据
自连接:当前表与自身的连接查询,自连接必须使用表别名
内连接:
隐式内连接:
SELECT 字段列表 FROM 表1 , 表2 WHERE 条件 … ;
显式内连接
SELECT 字段列表 FROM 表1 [ INNER ] JOIN 表2 ON 连接条件 … ;
举例:
假设有一个emp和dept表
查询每一个员工的姓名 , 及关联的部门的名称
select emp.name , dept.name from emp , dept where emp.dept_id = dept.id ; – 隐式内连接
select e.name, d.name from emp e inner join dept d on e.dept_id = d.id; –显示内连接
二者查询结果相同
外连接:
左外连接 left join …on…
SELECT 字段列表 FROM 表1 LEFT [ OUTER ] JOIN 表2 ON 条件 … ;
左外连接相当于查询表1(左表)的所有数据,当然也包含表1和表2交集部分的数据
右外连接 right join … on …
SELECT 字段列表 FROM 表1 RIGHT [ OUTER ] JOIN 表2 ON 条件 … ;
右外连接相当于查询表2(右表)的所有数据,当然也包含表1和表2交集部分的数据。
注意事项:
左外连接和右外连接是可以相互替换的,只需要调整在连接查询时SQL中,表结构的先后顺序就可以了。而我们在日常开发使用时,更偏向于左外连接。
自连接:
- 是自己连接自己,也就是把一张表连接查询多次
- 而对于自连接查询,可以是内连接查询,也可以是外连接查询。
SELECT 字段列表 FROM 表A 别名A JOIN 表A 别名B ON 条件 … ;
注意事项:
在自连接查询中,必须要为表起别名,要不然我们不清楚所指定的条件、返回的字段,到底
是哪一张表的字段。
联合查询:
关键字union [all]
就是把多次查询的结果合并起来,形成一个新的查询结果集。
SELECT 字段列表 FROM 表A …
UNION [ ALL ]
SELECT 字段列表 FROM 表B …;
注意事项:
对于联合查询的多张表的列数必须保持一致,字段类型也需要保持一致。
union all 会将全部的数据直接合并在一起,union 会对合并之后的数据去重。
举例:
假设有一个emp表啊(我电脑上有。。。)
SELECT * FROM emp WHERE salary < 5000;
SELECT * FROM emp WHERE age > 50;
使用union all 的结果
SQL语句中嵌套SELECT语句,称为嵌套查询,又称子查询。
SELECT * FROM t1 WHERE column1 = ( SELECT column1 FROM t2 );
子查询的位置:(子查询可以出现的位置)
WHERE之后
FROM之后
SELECT之后
根据子查询的返回结果可分为:
A. 标量子查询(子查询结果为单个值)
B. 列子查询(子查询结果为一列)
C. 行子查询(子查询结果为一行)
D. 表子查询(子查询结果为多行多列)
标量子查询:
子查询返回的结果是单个值(数字、字符串、日期等),最简单的形式,这种子查询称为标量子查询。
常用的操作符:=、 <>、 >、 >=、 <、 <=
举个栗子:
假如现在有一张emp表和一张dept表数据如下(后面附表数据):
查询 “销售部” 的所有员工信息
select * from emp where dept_id = (select id from dept where name = '销售部');
列子查询
子查询返回的结果是一列(可以是多行),这种子查询称为列子查询。
常用的操作符:IN 、NOT IN 、 ANY 、SOME 、 ALL
举例:
查询 “销售部” 和 “市场部” 的所有员工信息select * from emp where dept_id in (select id from dept where name = '销售部' or name = '市场部');
行子查询
子查询返回的结果是一行(可以是多列),这种子查询称为行子查询。
常用的操作符:= 、<> 、IN 、NOT IN
举例:
查询与 “张无忌” 的薪资及直属领导相同的员工信息select * from emp where (salary,managerid) = (select salary, managerid from emp where name = '张无忌');
表子查询
子查询返回的结果是多行多列,这种子查询称为表子查询。
常用的操作符:IN
举例:
查询与 “鹿杖客” , “宋远桥” 的职位和薪资相同的员工信息
select * from emp where (job,salary) in ( select job, salary from emp where name = '鹿杖客' or name = '宋远桥' );
练习题来喽~~~~:
前期表的创建:-- 创建dept表,并插入数据 create table dept( id int auto_increment comment 'ID' primary key, name varchar(50) not null comment '部门名称' )comment '部门表'; INSERT INTO dept (id, name) VALUES (1, '研发部'), (2, '市场部'), (3, '财务部'), (4, '销售部'), (5, '总经办'), (6, '人事部'); -- 创建emp表,并插入数据 create table emp( id int auto_increment comment 'ID' primary key, name varchar(50) not null comment '姓名', age int comment '年龄', job varchar(20) comment '职位', salary int comment '薪资', entrydate date comment '入职时间', managerid int comment '直属领导ID', dept_id int comment '部门ID' )comment '员工表'; -- 添加外键 emp的dept_id为从表外键,id为dept主表的主键 alter table emp --表名称 add constraint fk_emp_dept_id -- 外键名称(自定义) foreign key (dept_id) references dept(id); INSERT INTO emp (id, name, age, job,salary, entrydate, managerid, dept_id) VALUES (1, '金庸', 66, '总裁',20000, '2000-01-01', null,5), (2, '张无忌', 20, '项目经理',12500, '2005-12-05', 1,1), (3, '杨逍', 33, '开发', 8400,'2000-11-03', 2,1), (4, '韦一笑', 48, '开发',11000, '2002-02-05', 2,1), (5, '常遇春', 43, '开发',10500, '2004-09-07', 3,1), (6, '小昭', 19, '程序员鼓励师',6600, '2004-10-12', 2,1), (7, '灭绝', 60, '财务总监',8500, '2002-09-12', 1,3), (8, '周芷若', 19, '会计',48000, '2006-06-02', 7,3), (9, '丁敏君', 23, '出纳',5250, '2009-05-13', 7,3), (10, '赵敏', 20, '市场部总监',12500, '2004-10-12', 1,2), (11, '鹿杖客', 56, '职员',3750, '2006-10-03', 10,2), (12, '鹤笔翁', 19, '职员',3750, '2007-05-09', 10,2), (13, '方东白', 19, '职员',5500, '2009-02-12', 10,2), (14, '张三丰', 88, '销售总监',14000, '2004-10-12', 1,4), (15, '俞莲舟', 38, '销售',4600, '2004-10-12', 14,4), (16, '宋远桥', 40, '销售',4600, '2004-10-12', 14,4), (17, '陈友谅', 42, null,2000, '2011-10-12', 1,null); -- 创建salgrade表,并插入数据 create table salgrade( grade int, losal int, hisal int ) comment '薪资等级表'; insert into salgrade values (1,0,3000); insert into salgrade values (2,3001,5000); insert into salgrade values (3,5001,8000); insert into salgrade values (4,8001,10000); insert into salgrade values (5,10001,15000); insert into salgrade values (6,15001,20000); insert into salgrade values (7,20001,25000); insert into salgrade values (8,25001,30000);
题目:(多练没坏处,毕竟,是吧)
1). 查询员工的姓名、年龄、职位、部门信息 (隐式内连接)
2). 查询年龄小于30岁的员工的姓名、年龄、职位、部门信息(显式内连接)
3). 查询拥有员工的部门ID、部门名称
4). 查询所有年龄大于40岁的员工, 及其归属的部门名称; 如果员工没有分配部门, 也需要展示出来(外连接)
5). 查询所有员工的工资等级
6). 查询 “研发部” 所有员工的信息及 工资等级
7). 查询 “研发部” 员工的平均工资
8). 查询工资比 “灭绝” 高的员工信息。
9). 查询比平均薪资高的员工信息
10). 查询低于本部门平均工资的员工信息
11). 查询所有的部门信息, 并统计部门的员工人数
答案:(仅供参考,写法多样,实现结果要求即可)
注意:一旦为表起了别名,就不能再使用表名来指定对应的字段了,此时只能够使用别名来指定字段。
/* 1). 查询员工的姓名、年龄、职位、部门信息 (隐式内连接)
表: emp , dept
连接条件: emp.dept_id = dept.id */
SELECT e.NAME
,e.age
,e.job
,d.NAME
FROM emp e LEFT JOIN dept d ON e.dept_id=d.id
;/*
2). 查询年龄小于30岁的员工的姓名、年龄、职位、部门信息(显式内连接)
表: emp , dept
连接条件: emp.dept_id = dept.id
*/
SELECT e.NAME
,e.age
,e.job
,d.NAME
FROM emp e JOIN dept d ON e.dept_id
=d.id
WHERE e.age
<30;/*
3). 查询拥有员工的部门ID、部门名称(distinct)
表: emp , dept
连接条件: emp.dept_id = dept.id
*/
SELECT DISTINCT d.* FROM emp e,dept d WHERE e.dept_id
=d.id
;/*
4). 查询所有年龄大于40岁的员工, 及其归属的部门名称; 如果员工没有分配部门, 也需要展示出
来(外连接) 表: emp , dept
连接条件: emp.dept_id = dept.id
*/
SELECT e.*,b.NAME
FROM emp e JOIN dept b ON e.dept_id
=b.id
WHERE e.age
>40;/*
5). 查询所有员工的工资等级
表: emp , salgrade
连接条件 : emp.salary >= salgrade.losal and emp.salary <= salgrade.hisal
*/
SELECT e.*,s.grade
FROM emp e LEFT JOIN salgrade s ON e.salary
>=s.losal
AND e.salary
<=s.hisal
;/*
6). 查询 “研发部” 所有员工的信息及 工资等级
表: emp , salgrade , dept
连接条件 : emp.salary between salgrade.losal and salgrade.hisal ,
emp.dept_id = dept.id
查询条件 : dept.name = ‘研发部’
*/
SELECT e.* , s.grade FROM emp e , dept d , salgrade s WHERE e.dept_id = d.id AND ( e.salary BETWEEN s.losal AND s.hisal ) AND d.name = ‘研发部’;/*
7). 查询 “研发部” 员工的平均工资
表: emp , dept
连接条件 : emp.dept_id = dept.id AND d.name=‘研发部’ AVG(salary)
*/
SELECT AVG(salary) FROM emp e , dept d WHERE e.dept_id
=d.id AND d.name=‘研发部’;/*
8). 查询工资比 “灭绝” 高的员工信息。
*/
SELECT * FROM emp e WHERE e.salary
>=(SELECT salary FROM emp WHERE NAME=‘灭绝’);/*
9). 查询比平均薪资高的员工信息
*/
SELECT * FROM emp e WHERE e.salary
>(SELECT AVG(salary) FROM emp );/*
10). 查询低于本部门平均工资的员工信息
*/
SELECT * FROM emp e2 WHERE e2.salary < ( SELECT AVG(e1.salary) FROM emp e1 WHERE e1.dept_id = e2.dept_id );/*
11). 查询所有的部门信息, 并统计部门的员工人数
*/
SELECT d.id
,d.NAME
,COUNT(*) FROM emp e JOIN dept d ON e.dept_id
=d.id GROUP BY e.dept_id
;
或
SELECT d.id, d.name , ( SELECT COUNT(*) FROM emp e WHERE e.dept_id = d.id ) ‘人数’ FROM dept d;
事务 是一组操作的集合,它是一个不可分割的工作单位,事务会把所有的操作作为一个整体一起向系统提交或撤销操作请求,即这些操作要么同时成功,要么同时失败。
简单的例子:微信转账,我给你转100元,我要-100元,你要+100元,这样子属于正常情况,同时成功。如果要是我-100,你没+100,或者我没-100,你却+100,这都属于出现了异常,要同时失败,进行回滚。我不-100,你也不+100,也就是恢复到原始数据状态,没转账之前。
查看事务的状态(1开启,0关闭,默认是1)
SELECT @@autocommit ;
设置事务提交方式
SET @@autocommit = 0 ;
提交事务
COMMIT;
回滚事务
ROLLBACK;
开启事务
START TRANSACTION 或 BEGIN ;
设置回滚点
savepoint 回滚点名称
回到指定的回滚点
rollback to 回滚点名称
- 原子性(Atomicity):事务是不可分割的最小操作单元,要么全部成功,要么全部失败。
- 一致性(Consistency):事务完成时,必须使所有的数据都保持一致状态。
- 隔离性(Isolation):数据库系统提供的隔离机制,保证事务在不受外部并发操作影响的独立环境下运行。
- 持久性(Durability):事务一旦提交或回滚,它对数据库中的数据的改变就是永久的。
赃读:
不可重复读:
一个事务先后读取同一条记录,但两次读取的数据不同,称之为不可重复读。
事务A两次读取同一条记录,但是读取到的数据却是不一样的。
幻读:
个人理解:
脏读: 多个用户连接数据库进行操作,其中一个对表进行了修改,但是并未提交(commit)表,其他用户却可以看到他对表所做的修改内容。
不可重复读 :其中有的用户对表操作完后,提交了表,导致其他用户所看到的表也随之发生了改变,相当于表由于其他用户的提交变成实时更新的了。正确的应该是各个用户对表操作时是互不影响,相互隔离(独立)的。(在我本次对表的操作没有提交之前(commit),其他用户操作完提交后的结果我是看不到的,只有我提交后,再次访问该表,才应该看到。)
查看事务隔离级别
SELECT @@TRANSACTION_ISOLATION;
设置事务隔离级别
SET [ SESSION | GLOBAL ] TRANSACTION ISOLATION LEVEL { READ UNCOMMITTED | READ COMMITTED | REPEATABLE READ | SERIALIZABLE }
注意:
- session是只对当前会话窗口设置隔离级别,其他窗口不受该限制
- global是对所有的新的会话窗口设置隔离级别,当前已开启的窗口无效
虽然设置了global变量、session变量,但是在mysql服务重启之后,数据库的配置又会重新初始化,一切按照my.ini的配置进行初始化。global和session的配置都会失效了。- 事务隔离级别越高,数据越安全,但是性能越低。
- 1). 连接层
最上层是一些客户端和链接服务,包含本地sock 通信和大多数基于客户端/服务端工具实现的类似于
TCP/IP的通信。主要完成一些类似于连接处理、授权认证、及相关的安全方案。在该层上引入了线程
池的概念,为通过认证安全接入的客户端提供线程。同样在该层上可以实现基于SSL的安全链接。服务
器也会为安全接入的每个客户端验证它所具有的操作权限。- 2). 服务层
第二层架构主要完成大多数的核心服务功能,如SQL接口,并完成缓存的查询,SQL的分析和优化,部
分内置函数的执行。所有跨存储引擎的功能也在这一层实现,如 过程、函数等。在该层,服务器会解析查询并创建相应的内部解析树,并对其完成相应的优化如确定表的查询的顺序,是否利用索引等,最后生成相应的执行操作。如果是select语句,服务器还会查询内部的缓存,如果缓存空间足够大,这样在解决大量读操作的环境中能够很好的提升系统的性能。- 3). 引擎层
存储引擎层, 存储引擎真正的负责了MySQL中数据的存储和提取,服务器通过API和存储引擎进行通信。不同的存储引擎具有不同的功能,这样我们可以根据自己的需要,来选取合适的存储引擎。数据库中的索引是在存储引擎层实现的。- 4). 存储层
数据存储层, 主要是将数据(如: redolog、undolog、数据、索引、二进制日志、错误日志、查询日志、慢查询日志等)存储在文件系统之上,并完成与存储引擎的交互。
存储引擎就是存储数据、建立索引、更新/查询数据等技术的实现方式 。存储引擎是基于表的,而不是基于库的,所以存储引擎也可被称为表类型。我们可以在创建表的时候,来指定选择的存储引擎(ENGINE = 类型),如果没有指定将自动选择默认的存储引擎(INNODB)。
实例:
CREATE TABLE 表名(
字段1 字段1类型 ,
… ,
字段n 字段n类型
) ENGINE = INNODB ;
1). 介绍
InnoDB是一种兼顾高可靠性和高性能的通用存储引擎,在 MySQL 5.5 之后,InnoDB是默认的MySQL 存储引擎。
2). 特点
DML操作遵循ACID模型,支持事务;
行级锁,提高并发访问性能;
支持外键FOREIGN KEY约束,保证数据的完整性和正确性;
3). 文件
xxx.ibd:xxx代表的是表名,innoDB引擎的每张表都会对应这样一个表空间文件,存储该表的表结构(frm-早期的 、sdi-新版的)、数据和索引。
- 对于InnoDB引擎的表,每一张表都对应一个ibd文件
这个ibd文件中不仅存放表结构、数据,还会存放该表对应的索引信息。 而该文件是基于二进制存储的,不能直接基于记事本打开,我们可以使用mysql提供的一个指令 ibd2sdi ,通过该指令就可以从ibd文件中提取sdi信息,而sdi数据字典信息中就包含该表的表结构。
- 表空间 : InnoDB存储引擎逻辑结构的最高层,ibd文件其实就是表空间文件,在表空间中可以包含多个Segment段。
- 段 : 表空间是由各个段组成的, 常见的段有数据段、索引段、回滚段等。InnoDB中对于段的管理,都是引擎自身完成,不需要人为对其控制,一个段中包含多个区。
- 区 : 区是表空间的单元结构,每个区的大小为1M。 默认情况下, InnoDB存储引擎页大小为16K, 即一个区中一共有64个连续的页。
- 页 : 页是组成区的最小单元,页也是InnoDB 存储引擎磁盘管理的最小单元,每个页的大小默认为 16KB。为了保证页的连续性,InnoDB 存储引擎每次从磁盘申请 4-5 个区。
- 行 : InnoDB 存储引擎是面向行的,也就是说数据是按行进行存放的,在每一行中除了定义表时所指定的字段以外,还包含两个隐藏字段(后面会详细介绍)。
1). 介绍
MyISAM是MySQL早期的默认存储引擎。
2). 特点
不支持事务,不支持外键
支持表锁,不支持行锁
访问速度快
3). 文件
xxx.sdi:存储表结构信息
xxx.MYD: 存储数据
xxx.MYI: 存储索引
1). 介绍
Memory引擎的表数据时存储在内存中的,由于受到硬件问题、或断电问题的影响,只能将这些表作为临时表或缓存使用。
2). 特点
内存存放
hash索引(默认)
3).文件
xxx.sdi:存储表结构信息
面试题:
InnoDB引擎与MyISAM引擎的区别 ?
①. InnoDB引擎, 支持事务, 而MyISAM不支持。
②. InnoDB引擎, 支持行锁和表锁, 而MyISAM仅支持表锁, 不支持行锁。
③. InnoDB引擎, 支持外键, 而MyISAM是不支持的。
InnoDB: 是Mysql的默认存储引擎,支持事务、外键。如果应用对事务的完整性有比较高的要
求,在并发条件下要求数据的一致性,数据操作除了插入和查询之外,还包含很多的更新、删除操作,那么InnoDB存储引擎是比较合适的选择。
MyISAM : 如果应用是以读操作和插入操作为主,只有很少的更新和删除操作,并且对事务的完整性、并发性要求不是很高,那么选择这个存储引擎是非常合适的。
MEMORY:将所有数据保存在内存中,访问速度快,通常用于临时表及缓存。MEMORY的缺陷就是对表的大小有限制,太大的表无法缓存在内存中,而且无法保障数据的安全性。
-- 修改表的存储引擎
ALTER TABLE 表名 ENGINE=引擎;
索引介绍
索引(index)是帮助MySQL高效获取数据的数据结构(有序)。在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据, 这样就可以在这些数据结构上实现高级查找算法,这种数据结构就是索引。
在无索引情况下,就需要从第一行开始扫描,一直扫描到最后一行,我们称之为 全表扫描,性能很低。在建立了索引之后,会按照特定的查找方式查询
MySQL的索引是在存储引擎层实现的,我们平常所说的索引,如果没有特别指明,都是指B+树结构组织的索引
推荐动态学习算法的网址`
假如说
MySQL的索引结构采用二叉树的数据结构
对于一串ID值:17,19,20,22,23,33,34,36
由上可见:
- 顺序插入时,会形成一个链表,查询性能大大降低。
- 大数据量情况下,层级较深,检索速度慢。
如果采用红黑树
(红黑树是一颗自平衡二叉树):
也会存在一个缺点:大数据量情况下,层级较深,检索速度慢。
综上:在MySQL的索引结构中,并没有选择二叉树或者红黑树,而选择的是B+Tree
B-Tree,B树是一种多叉路衡查找树,相对于二叉树,B树每个节点可以有多个分支,即多叉。
提示:
- 树的度数指的是一个节点的子节点个数。
- 度数:在树中,每个节点的子节点(子树)的个数就称为该节点的度degree。
- 阶数:(Order)阶定义为一个节点的子节点数目的最大值。(自带最大值属性)
演示:
插入一组数据: 100 65 169 368 900 556 780 35 215 1200 234 888 158 90 1000 88 120 268 250 。然后观察一些数据插入过程中,节点的变化情况。
B-Tree
特点:
- 5阶的B树,每一个节点最多存储4个key,对应5个指针。
- 一旦节点存储的key数量到达5,就会裂变,中间元素向上分裂。
- 在B树中,非叶子节点和叶子节点都会存放数据。
动态展示B - Tree的创建过程,自己尝试
B+Tree是B-Tree的变种
以一颗最大度数(max-degree)为4(4阶)的b+tree为例,来看一
下其结构示意图:
蓝色框框起来的部分,是索引部分,仅仅起到索引数据的作用,不存储数据。
绿色框框起来的部分,是数据存储部分,在其叶子节点中要存储具体的数据。
演示:
插入一组数据: 100 65 169 368 900 556 780 35 215 1200 234 888 158 90 1000 88 120 268 250 。然后观察一些数据插入过程中,节点的变化情况。
B+Tree
B+Tree 与 B-Tree相比,主要有以下三点区别:
- 所有的数据都会出现在叶子节点。
- 叶子节点形成一个单向链表。
- 非叶子节点仅仅起到索引数据作用,具体的数据都是在叶子节点存放的。
动态展示B+Tree的创建过程,自己尝试
MySQL索引数据结构对经典的B+Tree进行了优化。在原B+Tree的基础上,增加一个指向相邻叶子节点的链表指针,就形成了带有顺序指针的B+Tree,提高区间访问的性能,利于排序。
MySQL中除了支持B+Tree索引,还支持一种索引类型—Hash索引。
结构
特点
- Hash索引只能用于对等比较(=,in),不支持范围查询(between,>,< ,…)
- 无法利用索引完成排序操作
- 查询效率高,通常(不存在hash冲突的情况)只需要一次检索就可以了,效率通常要高于B+tree索引
存储引擎支持
在MySQL中,支持hash索引的是Memory存储引擎。 而InnoDB中具有自适应hash功能,hash索引是InnoDB存储引擎根据B+Tree索引在指定条件下自动构建的。
思考题: 为什么InnoDB存储引擎选择使用B+tree索引结构?
A. 相对于二叉树,层级更少,搜索效率高;
B. 对于B-tree,无论是叶子节点还是非叶子节点,都会保存数据,这样导致一页中存储的键值减少,指针跟着减少,要同样保存大量数据,只能增加树的高度,导致性能降低;
C. 相对Hash索引,B+tree支持范围匹配及排序操作;
聚集索引选取规则:
- 如果存在主键,主键索引就是聚集索引。
- 如果不存在主键,将使用第一个唯一(UNIQUE)索引作为聚集索引。
- 如果表没有主键,或没有合适的唯一索引,则InnoDB会自动生成一个rowid作为隐藏的聚集索引。
以select * from user where name='Arm';为例,分析查找过程:
- 由于是根据name字段进行查询,所以先根据name='Arm’到name字段的二级索引中进行匹配查找。但是在二级索引中只能查找到 Arm 对应的主键值 10。
- 由于查询返回的数据是*,所以此时,还需要根据主键值10,到聚集索引中查找10对应的记录,最终找到10对应的行row。
- 最终拿到这一行的数据,直接返回。
回表查询: 这种先到二级索引中查找数据,找到主键值,然后再到聚集索引中根据主键值,获取数据的方式,称之为回表查询。
1). 创建索引
CREATE [ UNIQUE | FULLTEXT ] INDEX index_name ON table_name ( index_col_name,... ) ;
2). 查看索引
SHOW INDEX FROM table_name ;
3). 删除索引
DROP INDEX index_name ON table_name ;
告诉大家一个小秘密,在linux环境下操作mysql,通过ctrl+L可以实现清屏。
通过如下指令,可以查看当前数据库的INSERT、UPDATE、DELETE、SELECT的访问频次:
-- session 是查看当前会话 ; -- global 是查询全局数据 ; SHOW GLOBAL >STATUS LIKE 'Com_______';
慢查询日志记录了所有执行时间超过指定参数(long_query_time,单位:秒,默认10秒)的所有SQL语句的日志。
MySQL的慢查询日志默认没有开启
通过该指令可以查看:
show variables like ‘slow_query_log’;
开启慢查询日志,要在MySQL的配置文件(/etc/my.cnf)中配置如下信息:
(vim /etc/my.cnf 进入按i插入,找好位置写入,按esc退出插入模式,在按:wq保存退出)
# 开启MySQL慢日志查询开关 slow_query_log=1 # 设置慢日志的时间为2秒,SQL语句执行时间超过2秒,就会视为慢查询,记录慢查询日志 long_query_time=2
配置完毕之后,重启服务
systemctl restart mysqld
再次查看慢查询日志状态:
查看慢日志文件中记录的信息(每个人的文件名不一样,但是后缀都是
-slow.log)
tail -f /var/lib/mysql/主机名-slow.log #动态查看日志
比如我的就是(
ctrl+c停止
):
tail -f /var/lib/mysql/hyl-slow.log
依照之前的配置,当某条语句执行的时间>=2s,就会被记录在log中。
这样,通过慢查询日志,就可以定位出执行效率比较低的SQL,从而有针对性的进行优化。
提示:只有在my.cnf配置文件写入的配置信息,在每次重启后都仍然会生效(写在my.cnf就相当于默认配置了),而只是在mysql命令里通过设置的,有些指令只在当时启用,重启服务后会失效
profile可以帮助我们记录每条语句的执行时间和资源占用情况
查看当前MySQL是否支持profile操作:
SELECT @@have_profiling ;
查看当前的开关状态
select @@profiling;
通过set语句在[session|global]级别开启profiling:
SET profiling = 1;
默认是session
(可以自己开几个窗口进行验证)
session与global的区别:(一个窗口可理解为一个已经登录mysql的终端)
- session是在当前窗口生效,已设置立马起效,不影响其他窗口。
- global是对所有的新建窗口生效,在设置之前已经打开的终端无效,而且在当前进行global设置的终端上也无效。
- 当服务重启后,设置失效。
开启后,执行一系列的业务SQL的操作,然后通过如下指令查看指令的执行耗时:
例如:
– 查看每一条SQL的耗时基本情况
show profiles;
– 查看指定query_id的SQL语句各个阶段的耗时情况
show profile for query query_id;
– 查看指定query_id的SQL语句CPU的使用情况
show profile cpu for query query_id;
EXPLAIN 或者 DESC命令获取 MySQL 如何执行 SELECT 语句的信息,包括在 SELECT 语句执行过程中表如何连接和连接的顺序
-- 直接在select语句之前加上关键字 explain / desc EXPLAIN SELECT 字段列表 FROM 表名 WHERE 条件 ;
desc / explain select * from tb_user where id=1;
想要了解更多字段信息,可以看这篇blog
联合索引(索引了多列),要遵守最左前缀法则
最左前缀法则指的是查询从索引的最左列开始,并且不跳过索引中的列。如果跳跃某一列,索引将会部分失效(后面的字段索引失效)。
注:索引中的列的先后指的是在创建索引的时候写入顺序的先后
下面三个语句虽然都是创建的联合索引,但是在使用时却是不一样的。
create index idx_p_a_s on tb_user(profession,age,status);
create index idx_p_a_g on tb_user(age,profession,status);
create index idx_p_a_g on tb_user(status,age,profession);
以下表tb_user为例,进行演示:
已经提前创建好对应的索引:
最左前缀法则:对于当前的表和索引的创建关系,查询时,最左变的列,也就是profession必须存在,否则索引全部失效。而且中间不能跳过某一列,否则该列后面的字段索引将失效。
create index idx_p_a_g on tb_user(profession,age,status);
主键索引,是表创建时自建的
例1:
explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
explain select * from tb_user where profession = '软件工程' and age = 31;
explain select * from tb_user where profession = '软件工程';
结论:以上的这三组测试中,我们发现只要联合索引最左边的字段 profession存在,索引就会生效,只不过索引的长度不同。 而且由以上三组测试,我们也可以推测出profession字段索引长度为47、age字段索引长度为2、status字段索引长度为5。
列2:
explain select * from tb_user where age = 31 and status = '0';
explain select * from tb_user where status = '0';
结论:而通过上面的这两组测试,我们也可以看到索引并未生效
,原因是因为不满足最左前缀法则,联合索引最左边的列profession不存在。
例3:
explain select * from tb_user where profession = '软件工程' and status = '0';
结论:
上述的SQL查询时,存在profession字段,即最左边的列是存在的,索引满足最左前缀法则的基本条件。但是查询时,跳过了age这个列,所以后面的列索引是不会使用的,也就是索引部分生效
,所以索引的长度就是47。
提示:下面三条语句效果是一样的
explain select * from tb_user where age = 31 and status = '0' and profession = '软件工程'; explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0'; explain select * from tb_user where status = '0'and age = 31 and profession = '软件工程' ;
如上面所说:
索引中的列的先后指的是在创建索引的时候写入顺序的先后
,指的是创建索引时写入的先后:create index idx_p_a_g on tb_user(profession,age,status);
也就是:最左前缀法则中指的最左边的列,是指在查询时,联合索引的最左边的字段(即是第一个字段)必须存在,与我们编写SQL时,条件编写的先后顺序无关。
联合索引中,出现范围查询(>,<),范围查询(之后)右侧的列索引失效。
例:
explain select * from tb_user where profession = '软件工程' and age > 30 and status = '0';
当范围查询使用> 或 < 时,走联合索引了,但是索引的长度为49,就说明范围查询右边的status字段是没有走索引的。explain select * from tb_user where profession = '软件工程' and age >= 30 and status = '0';
在索引列上进行运算操作, 索引将失效。
例·:
先创建一个phone单列索引
explain select * from tb_user where substring(phone,10,2) = ‘15’; #substring()字符串截取函数
字符串类型字段使用时,不加引号,索引将失效。
例:
explain select * from tb_user where profession = ‘软件工程’ and age = 31 and status = ‘0’;
explain select * from tb_user where profession = ‘软件工程’ and age = 31 and status = 0;
如果仅仅是尾部模糊匹配,索引不会失效。如果是头部模糊匹配,索引失效。
例:(都是根据profession字段查询,符合最左前缀法则,联合索引是可以生效的)
explain select * from tb_user where profession like ‘软件%’;生效
explain select * from tb_user where profession like ‘%工程’;失效
explain select * from tb_user where profession like ‘%工%’;失效
当or连接的条件,左右两侧字段都有索引时,索引才会生效
explain select * from tb_user where phone = '17799990017' or age = 23; explain select * from tb_user where age = 23 or phone = '17799990017';
为age也创建一个索引
create index idx_age on tb_user(age);
explain select * from tb_user where phone = ‘17799990017’ or age = 23;
总结:当or连接的条件,左右连接条件都要有索引,索引才起效。
如果MySQL评估使用索引比全表更慢,则不使用索引。
- MySQL在查询时,会评估使用索引的效率与走全表扫描的效率,如果走全表扫描更快,则放弃索引,走全表扫描。
- 索引是用来索引少量数据的,如果通过索引查询返回大批量的数据,则还不如走全表扫描来的快,此时索引就会失效
SQL提示,是优化数据库的一个重要手段,简单来说,就是在SQL语句中加入一些
人为提示
来达到优化操作的目的。
在tb_user表中对profession单独创建了一个单利索引(idx_pro):
1).
use index
: 建议MySQL使用哪一个索引完成此次查询(mysql自己不一定采用)。
explain select * from tb_user use index(idx_pro) where profession = ‘软件工程’;
2).
ignore index
: 忽略指定的索引。
explain select * from tb_user ignore index(idx_pro) where profession = ‘软件工程’;
3).
force index
: 强制使用索引。
explain select * from tb_user force index(idx_pro) where profession = ‘软件工程’;
覆盖索引是指 查询使用了索引,并且需要返回的列,在该索引中已经全部能够找到 。
也就是说:select 后要查询的列,在索引中都有包含。
例:(关注的是后面的Extra)
# 要查询的字段 id, profession explain select id, profession from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
# 要查询的字段 id,profession,age, status explain select id,profession,age, status from tb_user where profession = '软件工程' and age = 31 and status = '0' ;
# 要查询的字段 id,profession,age, status, name explain select id,profession,age, status, name from tb_user where profession = '软 件工程' and age = 31 and status = '0' ;
# 要查询全部字段 explain select * from tb_user where profession = '软件工程' and age = 31 and status = '0';
using index :使用覆盖索引的时候就会出现 using where:在查找使用索引的情况下,需要回表去查询所需的数据 using index condition:查找使用了索引,但是需要回表查询数据 using index & using where:查找使用了索引,但是需要的数据都在索引列中能找到,所以不需要回表查询数据
- 在tb_user表中有一个联合索引 idx_p_a_s,该索引关联了三个字段profession、age、status,而这个索引也是一个二级索引,所以叶子节点下面挂的是这一行的主键(此表主键为id)。
- 所以当我们查询返回的数据在 id、profession、age、status 之中,则直接走二级索引直接返回数据了。
- 如果超出这个范围,就需要拿到主键id,再去扫描聚集索引,再获取额外的数据了,这个过程就是回表。 而我们如果一直使用select * 查询返回所有字段值,很容易就会造成回表查询(除非是根据主键查询,此时只会扫描聚集索引)。
当字段类型为字符串(varchar,text,longtext等)时,有时候需要索引很长的字符串,这会让索引变得很大,查询时,浪费大量的磁盘IO, 影响查询效率。此时可以只将字符串的一部分前缀,建立索引,这样可以大大节约索引空间,从而提高索引效率。
create index idx_xxxx on table_name(column(n)) ;
– idx__xxx为创建的索引名称
– table_name为表名
– column(n) 对应的列名,n长度
例:create index idx_email_5 on tb_user(email(5));
前缀长度的选择:
可以根据索引的选择性来决定,而选择性是指不重复的索引值(基数)和数据表的记录总数的比值,索引选择性越高则查询效率越高, 唯一索引的选择性是1,这是最好的索引选择性,性能也是最好的。
例:select count(distinct email) / count(*) from tb_user ;
单列索引:即一个索引只包含单个列。
联合索引:即一个索引包含了多个列。
例·:
explain select Id,name,phone from tb_user where phone=‘17799990000’ and age =23;
通过上述执行计划我们可以看出来,在and连接的两个字段 phone、name上都是有单列索引的,但是最终mysql只会选择一个索引,也就是说,只能走一个字段的索引,此时是会回表查询的。创建age和phone的联合索引:
create unique index idx_phone_name on tb_user(phone,name);
再次执行:explain select Id,name,phone from tb_user where phone=‘17799990000’ and age =23;
此时,查询时,就走了联合索引,而在联合索引中包含 phone、name的信息,在叶子节点下挂的是对应的主键id,所以查询是无需回表查询的。
1). 针对于数据量较大,且查询比较频繁的表建立索引。
2). 针对于常作为查询条件(where)、排序(order by)、分组(group by)操作的字段建立索引。
3). 尽量选择区分度高的列作为索引,尽量建立唯一索引,区分度越高,使用索引的效率越高。
4). 如果是字符串类型的字段,字段的长度较长,可以针对于字段的特点,建立前缀索引。
5). 尽量使用联合索引,减少单列索引,查询时,联合索引很多时候可以覆盖索引,节省存储空间,避免回表,提高查询效率。
6). 要控制索引的数量,索引并不是多多益善,索引越多,维护索引结构的代价也就越大,会影响增删改的效率。
7). 如果索引列不能存储NULL值,请在创建表时使用NOT NULL约束它。当优化器知道每列是否包含NULL值时,它可以更好地确定哪个索引最有效地用于查询
如果一次性插入数据在可控范围内:
优化一(采用批量插入):
Insert into tb_name(n1,n2,…) values(m1,m2,…),(m1,m2…),(m1,m2,…);
优化二(手动控制事务):
在执行插入语句前,开启事务,插入结束后,提交事务
(因为mysql的Innodb是默认事务开启的,每单独插入一次,就会提交一次)例: start transaction; insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry'); insert into tb_test values(4,'Tom'),(5,'Cat'),(6,'Jerry'); insert into tb_test values(7,'Tom'),(8,'Cat'),(9,'Jerry'); commit;
优化三(主键顺序插入,性能要高于乱序插入):
就是插入数据的时候,主键id,最好是顺序的插入,可以尽量的规避页合并,页分裂,提高效率。
主键乱序插入 : 8 1 9 21 88 2 4 15 89 5 7 3
主键顺序插入 : 1 2 3 4 5 7 8 9 15 21 88 89
如果一次大批量插入数据(百万条以上)
此时可以使用MySQL数据库提供的load指令
进行插入。
操作如下(在最开始库操作,已经说过了):-- 客户端连接服务端时,加上参数 -–local-infile mysql –-local_infile -u root -p -- 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关 set global local_infile = 1; -- 执行load指令将准备好的数据,加载到表结构中 load data local infile 'sql文件路径' into table tb_name fields terminated by ',' lines terminated by '\n' ; -- fields terminated by ',' 字段值之间以','进行分割 -- lines terminated by '\n' 每一行数据之间以\n换行
上面我们提到,主键顺序插入的性能是要高于乱序插入的。现在就介绍一下具体的原因,然后再分析一下主键又该如何设计。
1). 数据组织方式
在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表(index organized table IOT)。
行数据,都是存储在聚集索引的叶子节点上的。而我们之前也讲解过InnoDB的逻辑结构图:
在InnoDB引擎中,数据行是记录在逻辑结构 page 页中的,而每一个页的大小是固定的,默认16K。那也就意味着, 一个页中所存储的行也是有限的,如果插入的数据行row在该页存储不小,将会存储到下一个页中,页与页之间会通过指针连接。
2). 页分裂
页可以为空,也可以填充一半,也可以填充100%。每个页包含了2-N行数据(如果一行数据过大,会行溢出),根据主键排列。
A. 主键顺序插入效果
①. 从磁盘中申请页, 主键顺序插入
②. 第一个页没有满,继续往第一页插入
③. 当第一个也写满之后,再写入第二个页,页与页之间会通过指针连接
④. 当第二页写满了,再往第三页写入
B. 主键乱序插入效果
①. 加入1#,2#页都已经写满了,存放了如图所示的数据
②. 此时再插入id为50的记录,我们来看看会发生什么现象
会再次开启一个页,写入新的页中吗?
不会。因为,索引结构的叶子节点是有顺序的。按照顺序,应该存储在47之后。
但是47所在的1#页,已经写满了,存储不了50对应的数据了。 那么此时会开辟一个新的页 3#。
但是并不会直接将50存入3#页,而是会将1#页后一半的数据,移动到3#页,然后在3#页,插入50。
移动数据,并插入id为50的数据之后,那么此时,这三个页之间的数据顺序是有问题的。
1#的下一个页,应该是3#, 3#的下一个页是2#。 所以,此时,需要重新设置链表指针。
上述的这种现象,称之为 “页分裂”,是比较耗费性能的操作。
3). 页合并
目前表中已有数据的索引结构(叶子节点)如下:
当我们对已有数据进行删除时,具体的效果如下:
当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。
当我们继续删除2#的数据记录
当页中删除的记录达到 MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。
删除数据,并将页合并之后,再次插入新的数据21,则直接插入3#页
这个里面所发生的合并页的这个现象,就称之为 “页合并”。
优化:
- 满足业务需求的情况下,尽量降低主键的长度。
- 插入数据时,尽量选择顺序插入,选择使用AUTO_INCREMENT自增主键。
- 尽量不要使用UUID做主键或者是其他自然主键,如身份证号。
- 业务操作时,避免对主键的修改。
MySQL的排序,有两种方式:
- Using filesort : 通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sortbuffer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫 FileSort 排序。
- Using index : 通过有序索引顺序扫描直接返回有序数据,这种情况即为 using index,不需要额外排序,操作效率高。
对于以上的两种排序方式,Using index的性能高,而Using filesort的性能低,我们在优化排序操作时,尽量要优化为 Using index。
优化:
A. 根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则。
B. 尽量使用覆盖索引。
C. 多字段排序, 一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC)。
D. 如果不可避免的出现filesort,大数据量排序时,可以适当增大排序缓冲区大小sort_buffer_size(默认256k)。
对于分组操作,在联合索引中,也是符合最左前缀法则的.
所以,在分组操作中,我们需要通过以下两点进行优化,以提升性能:
- A. 在分组操作时,可以通过索引来提高效率。
- B. 分组操作时,索引的使用也是满足最左前缀法则的。
在数据量比较大时,如果进行limit分页查询,在查询时,越往后,分页查询效率越低。
假如:
当在进行分页查询时,如果执行 limit 2000000,10 ,此时需要MySQL排序前2000010 记录,仅仅返回 2000000 - 2000010 的记录,其他记录丢弃,查询排序的代价非常大 。
优化思路: 一般分页查询时,通过创建 覆盖索引 能够比较好地提高性能,可以通过覆盖索引加子查询形式进行优化
- MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行 count(*) 的时候会直接返回这个数,效率很高; 但是如果是带条件的count,MyISAM也慢。
- InnoDB 引擎,它执行 count(*) 的时候,需要把数据一行一行地从引擎里面读出来,然后累积计数。
count的用法:
count() 是一个聚合函数,对于返回的结果集,一行行地判断,如果 count 函数的参数不是NULL,累计值就加 1,否则不加,最后返回累计值。
用法:count(*)、count(主键)、count(字段)、count(数字)、count(expression)
expression表示一个表达式,意思是在count中我们可以得到符合特点条件的记录数。
count(expression)举例:
检索计数is_reply=0的行数
SELECT COUNT(IF(is_reply=0,1,NULL)) count FROM t_iov_help_feedback;
按照效率排序的话,count(字段) < count(主键 id) < count(1) ≈ count(*),所以尽量使用 count(*)。
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁 ,并且该索引不能失效,否则会从行锁升级为表锁 。
优化:
也就是说,在更新数据时要尽量使用索引,规避行锁升级为表锁,提高并发性能。
- 视图(View)是一种虚拟存在的表。视图中的数据并不在数据库中实际存在,行和列数据来自定义视图的查询中使用的表,并且是在使用视图时动态生成的。
- 通俗的讲,视图只保存了查询的SQL逻辑,不保存查询结果。所以我们在创建视图的时候,主要的工作就落在创建这条SQL查询语句上。
简单的理解:视图并不存储数据信息,数据信息仍放置在基表中,视图的查询结果是从基表中动态生成的。
细节:
- 创建视图后,到数据库去看,对应视图只有一个视图结构文件(形式: 视图名.frm)
- 视图的数据变化会影响到基表,基表的数据变化也会影响到视图[insert update delete ]
- 视图中可以再使用视图,数据仍来自基表
创建
CREATE [OR REPLACE] VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [ CASCADED | LOCAL ] CHECK OPTION ]
-- OR REPLACE 替换作用如其名。
加上该字段,就是不修改视图名,仍能创建同名视图,也就是覆盖原来的同名视图;
不加该字段,就是创建一次之后,就不能创建同名视图了。
with [cascaded|local] check optin --检查选项,后面细说
查询
查看创建视图语句:
SHOW CREATE VIEW 视图名称;
查看视图数据:
SELECT * FROM 视图名称;
修改
方式一:
CREATE [OR REPLACE] VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [ CASCADED | LOCAL ] CHECK OPTION ]
方式二:
ALTER VIEW 视图名称[(列名列表)] AS SELECT语句 [ WITH [ CASCADED | LOCAL ] CHECK OPTION ]
删除
DROP VIEW [IF EXISTS] 视图名称
-- if exists 对视图进行一个判断,有删无过,不加的话,当该视图不存在时,会报错。
演示:
以下表student表为例:
-- 创建视图 create or replace view v1 as select id,name from student where id <= 10; -- 查询视图 show create view v1; select * from v1; select * from v1 where id < 3; -- 修改视图 create or replace view v1 as select id,name,no from student where id <= 10; alter view v1 as select id,name from student where id <= 10; -- 删除视图 drop view if exists v1; -- 给视图中插入数据(最终数据是存放在基表student表中的,要知道视图不存放数据) insert into v1 values(6,'Tom'); insert into v1 values(17,'Tom22'); -- 可以告诉你的是,当你查询v1视图时,是没有id=17的这一行数据的,由创建表的语句决定的id<10.
- 当使用WITH CHECK OPTION子句创建视图时,MySQL会通过视图检查正在更改的每个行,例如插入,更新,删除,以使其符合视图的定义。
- MySQL允许基于另一个视图创建视图,它还会检查依赖视图中的规则以保持一致性。为了确定检查的范围,mysql提供了两个选项: CASCADED 和 LOCAL(默认值为 CASCADED) 。
1).
CASCADED 级联
。
比如,v2视图是基于v1视图的,如果在v2视图创建的时候指定了检查选项为 cascaded,但是v1视图创建时未指定检查选项。 则在执行检查时,不仅会检查v2,还会级联检查v2的关联视图v1。
也就是说:指定了检查选项为cascaded,那么在向上递归查找时,在该视图之前的视图,不管加没加检查选项,都会执行检查(强制)
2).
LOCAL 本地
。
比如,v2视图是基于v1视图的,如果在v2视图创建的时候指定了检查选项为 local ,但是v1视图创建时未指定检查选项。 则在执行检查时,知会检查v2,不会检查v2的关联视图v1。
也就是说:同上,如果是加的local的,任然向上递归查找该视图之前的视图,但是只有之前的视图加了检查选项,才执行检查,如果没加,就不检查(非强制)
要使视图可更新,视图中的行与基础表中的行之间必须存在一对一的关系。如果视图包含以下任何一项,则该视图
不可更新
:A. 聚合函数或窗口函数(SUM()、 MIN()、 MAX()、 COUNT()等)
B. DISTINCT
C. GROUP BY
D. HAVING
E. UNION 或者 UNION ALL
示例演示:
下述的视图中,就只有一个单行单列的数据。
create view v_count as select count(*) from student;
如果我们对这个视图进行更新或插入的,将会报错。
insert into v_count values(10);
1). 简单
视图不仅可以简化用户对数据的理解,也可以简化他们的操作。那些被经常使用的查询可以被定义为视图,从而使得用户不必为以后的操作每次指定全部的条件。
2). 安全
数据库可以授权,但不能授权到数据库特定行和特定的列上。通过视图用户只能查询和修改他们所能见到的数据。
3). 数据独立
视图可帮助用户屏蔽真实表结构变化带来的影响。
其他见解:
介绍:存储过程是事先经过编译并存储在数据库中的一段 SQL 语句的集合。
(一组经过预先编译的 SQL 语句的封装。)
可以简化应用开发,减少数据在数据库和应用服务器之间的传输,对于提高数据处理的效率是有好处的。
因为:存储过程预先存储在 MySQL 服务器上,需要执行的时候,客户端只需要向服务器端发出调用存储过程的命令,服务器端就可以把预先存储好的这一系列 SQL 语句全部执行。
简单理解:是数据库 SQL 语言层面的代码封装与重用,类似于自定义函数。
特点:
封装,复用:可以把某一业务SQL封装在存储过程中,需要用到的时候直接调用即可。
可以接收参数,也可以返回数据 :再存储过程中,可以传递参数,也可以接收返回值。
减少网络交互,效率提升 : 如果涉及到多条SQL,每执行一次都是一次网络传输。 而如果封装在存储过程中,我们只需要网络交互一次可能就可以了。
需要通过关键字 delimiter 指定SQL语句的结束符,否则对于有的版本要报错
创建
CREATE PROCEDURE 自定义存储过程名称 ([ 参数列表 ])
BEGIN
相关SQL语句
END ;
调用
CALL 名称 ([ 参数 ]);
查看
SELECT * FROM INFORMATION_SCHEMA.ROUTINES WHERE ROUTINE_SCHEMA = 'xxx'; -- 查询指定数据库的存储过程及状态信息
SHOW CREATE PROCEDURE 存储过程名称 ; -- 查询某个存储过程的定义
删除
DROP PROCEDURE [ IF EXISTS ] 存储过程名称 ;
存储过程基本演示:
-- 存储过程基本语法 -- 创建 DELIMITER ! CREATE PROCEDURE p1() BEGIN SELECT COUNT(*) FROM student; END! -- 调用 call p1(); -- 查看 show create procedure p1; -- 删除 drop procedure if exists p1;
系统变量
系统变量: 是MySQL服务器提供,不是用户定义的,属于服务器层面。
分为全局变量(GLOBAL)
会话变量(SESSION)。
查看系统变量
SHOW [ SESSION | GLOBAL ] VARIABLES ; -- 查看所有系统变量 SHOW [ SESSION | GLOBAL ] VARIABLES LIKE 'xxx'; -- 可以通过LIKE模糊匹配方式查找变量 SELECT @@[SESSION | GLOBAL] 系统变量名; -- 查看指定变量的值
设置系统变量
SET [ SESSION | GLOBAL ] 系统变量名 = 值 ; SET @@[SESSION | GLOBAL]系统变量名 = 值 ;
提示:
如果没有指定SESSION/GLOBAL,默认是SESSION,会话变量。
举例:
-- 查看系统变量 show session variables ; show session variables like 'auto%'; show global variables like 'auto%'; select @@global.autocommit; select @@session.autocommit; -- 设置系统变量 -- 事务的开关 set session autocommit = 1; set global autocommit = 0;
用户自定义变量
用户定义变量 :是用户根据需要自己定义的变量。
- 用户变量不用提前声明,在用的时候直接用 “@变量名” 使用就可以。
- 其作用域为当前连接。
赋值:
(可以使用=
,也可以使用:=
)
方式一:-- 可以一行设置多个变量 SET @var_name = expr [, @var_name = expr] ... ; SET @var_name := expr [, @var_name := expr] ... ;
方式二:
SELECT @var_name := expr [, @var_name := expr] ... ; >SELECT 字段名 INTO @var_name FROM 表名;
使用:
SELECT @var_name ;
注意: 用户定义的变量若未对其进行声明,初始化或赋值,则直接获取到的值为NULL。
举例:
-- 赋值(声明) set @myage := 10; select @mycolor := 'red'; -- 使用 select @mycolor , @myage; select @myname; -- 为声明,直接用,获取的值为null
局部变量
局部变量 :是根据需要定义的在局部生效的变量,访问之前,需要DECLARE声明。
- 可用作存储过程内的局部变量和输入参数
- 局部变量的范围是在其内声明的BEGIN … END块。
声明:
DECLARE 变量名 变量类型 [DEFAULT ... ] ; 变量类型就是数据库字段类型:INT、BIGINT、CHAR、VARCHAR、DATE、TIME等。
赋值:
SET 变量名 = 值 ; SET 变量名 := 值 ; SELECT 字段名 INTO 变量名 FROM 表名 ... ;
举例:
-- 声明局部变量 - declare -- 赋值 declare ! create procedure p2() begin declare stu_count int default 0; select count(*) into stu_count from student; select stu_count; end! -- 调用 call p2();
前面已经提到过,存储过程是可以使用参数的。
参数的类型,主要分为以下三种:IN、OUT、INOUT。 具体的含义如下:CREATE PROCEDURE 存储过程名称 ([ IN/OUT/INOUT 参数名 参数类型 ]) BEGIN -- SQL语句 END ;
案例演示(可以先向下看看IF的语法,在来看):
根据传入参数score,判定当前分数对应的分数等级,并返回。
score >= 85分,等级为优秀。
score >= 60分 且 score < 85分,等级为及格。
score < 60分,等级为不及格。
-- 创建
DELIMITER !
CREATE PROCEDURE p3(IN score INT,OUT res VARCHAR(10) )
BEGIN
IF score >=85 THEN
SET res :='优秀';
ELSEIF score >=60 AND score<85 THEN
SET res :='及格';
ELSE
SET res :='不及格';
END IF;
-- select res;
END!
-- 查看
CALL p3(85,@res);
SELECT @res;
if 用于做条件判断,具体的语法结构为:
IF 条件1 THEN .... ; ELSEIF 条件2 THEN -- 可选 ..... ; ELSE -- 可选 ..... ; END IF;
注意结尾标识
end if;
不要忘了
在if条件判断的结构中,ELSE IF 结构可以有多个,也可以没有。 ELSE结构可以有,也可以没有。
语法1:
-- 含义: 当case_value的值为 when_value1时,执行statement_list1, -- 当值为 when_value2时, 执行statement_list2, -- 否则就执行 statement_list CASE case_value WHEN when_value1 THEN statement_list1 WHEN when_value2 THEN statement_list2] ... ELSE statement_list END CASE;
语法2:
-- 含义: 当条件search_condition1成立时,执行statement_list1, -- 当条件search_condition2成 立时,执行statement_list2, -- 否则就执行 statement_list CASE WHEN search_condition1 THEN statement_list1 WHEN search_condition2 THEN statement_list2 ... ELSE statement_list END CASE;
案例演示:
根据传入的月份,判定月份所属的季节(要求采用case结构)。
1-3月份,为第一季度
4-6月份,为第二季度
7-9月份,为第三季度
10-12月份,为第四季度
-- 创建
-- 多个条件之间,可以使用 and 或 or 进行连接
DELIMITER !
CREATE PROCEDURE p4(IN MONTH INT)
BEGIN
DECLARE result VARCHAR(10);
CASE
WHEN MONTH >= 1 AND MONTH <= 3 THEN
SET result := '第一季度';
WHEN MONTH >= 4 AND MONTH <= 6 THEN
SET result := '第二季度';
WHEN MONTH >= 7 AND MONTH <= 9 THEN
SET result := '第三季度';
WHEN MONTH >= 10 AND MONTH <= 12 THEN
SET result := '第四季度';
ELSE
SET result := '非法参数';
END CASE;
SELECT CONCAT('所属的季度为: ',result);
END!
-- 查看
CALL p4(3);
while 循环是有条件的循环控制语句。满足条件后,再执行循环体中的SQL语句。(可以理解为java中的while循环)
语法:
-- 先判定条件,如果条件为true,则执行逻辑, -- 否则,不执行逻辑 WHILE 条件 DO SQL逻辑... END WHILE;
案例演示:
计算从1累加到n的值,n为传入的参数值。
-- 创建
DELIMITER !
CREATE PROCEDURE p6(IN n INT)
BEGIN
DECLARE j INT ;
DECLARE i INT ;
SET j:=1;
SET i:=0;
WHILE j<=n DO
SET i:=i+j;
SET j:=j+1;
END WHILE;
SELECT i;
END!
--执行
CALL p6(100);
repeat是有条件的循环控制语句, 当满足until声明的条件的时候,则退出循环 。(可以理解为do…while)
语法:
-- 先执行一次逻辑,然后判定UNTIL条件是否满足, -- 如果满足,则退出。 -- 如果不满足,则继续下一次循环 REPEAT SQL逻辑... UNTIL 条件 END REPEAT;
案例演示:
计算从1累加到n的值,n为传入的参数值。(使用repeat实现)
-- 创建
DELIMITER !
CREATE PROCEDURE p7(IN n INT )
BEGIN
DECLARE i INT DEFAULT 0;
DECLARE j INT DEFAULT 1;
REPEAT
SET i:=i+j;
SET j:=j+1;
UNTIL j>n
END REPEAT;
SELECT i;
END!
-- 执行
CALL p7(100);
LOOP 实现简单的循环,如果不在SQL逻辑中增加退出循环的条件,可以用其来实现简单的死循环。
LOOP可以配合一下两个语句使用:
- LEAVE :配合循环使用,退出循环。(理解为break)
- ITERATE:必须用在循环中,作用是跳过当前循环剩下的语句,直接进入下一次循环。(理解为continue)
语法:
[begin_label:] LOOP SQL逻辑... END LOOP [end_label]; LEAVE label; -- 退出指定标记的循环体 ITERATE label; -- 直接进入下一次循环 begin_label,end_label,label 是我们自定义的标记名
案例演示1(练习:LEAVE):
计算从1累加到n的值,n为传入的参数值。
DELIMITER !
CREATE PROCEDURE p8(IN n INT)
BEGIN
DECLARE i INT DEFAULT 0;
DECLARE j INT DEFAULT 1;
my_sum:LOOP
SET i:=i+j;
SET j:=j+1;
IF j>n THEN
LEAVE my_sum;
END IF;
END LOOP my_sum;
SELECT i;
END!
-- 执行
CALL p8(100);
案例演示2 (练习:ITERATE):
求1-n之间偶数的和
DELIMITER !
CREATE PROCEDURE p11(IN n INT)
BEGIN
DECLARE i INT DEFAULT 0;
DECLARE j INT DEFAULT 0;
IF n>1 THEN
qiuou:LOOP
SET j:=j+1;
if (j mod 2)=1 then
iterate qiuou;
end if;
IF j>n THEN
LEAVE qiuou;
END IF;
SET i:=i+j;
END LOOP;
ELSE SET i:=n;
END IF;
SELECT i;
END!
-- 执行
CALL p11(5);
游标
(CURSOR)是用来存储查询结果集的数据类型,在存储过程和函数中可以使用游标对结果集进行循环的处理。
语法(游标的使用包括游标的声明、OPEN、FETCH 和 CLOSE):
-- 声明游标 DECLARE 游标名称 CURSOR FOR 查询语句 ; -- 打开游标 OPEN 游标名称 ; -- 获取游标记录 FETCH 游标名称 INTO 变量 [, 变量 ] ; -- 关闭游标 CLOSE 游标名称 ;
条件处理程序:
条件处理程序(Handler)可以用来定义在流程控制结构执行过程中遇到问题时相应的处理步骤.
具体语法为:
DECLARE handler_action HANDLER FOR condition_value [, condition_value] ... statement ;
handler_action 的取值:
CONTINUE: 继续执行当前程序
EXIT: 终止执行当前程序
condition_value 的取值:
SQLSTATE sqlstate_value: 状态码,如 02000
SQLWARNING: 所有以01开头的SQLSTATE代码的简写
NOT FOUND: 所有以02开头的SQLSTATE代码的简写
SQLEXCEPTION: 所有没有被SQLWARNING 或 NOT FOUND捕获的SQLSTATE代码的简写
案例演示:
根据传入的参数sage,来查询用户表tb_user中,所有的用户年龄小于等于sage的用户姓名(name)和专业(profession),并将用户的姓名和专业插入到所创建的一张新表(id,name,profession)中。
-- 逻辑:
-- A. 声明游标, 存储查询结果集
-- B. 准备: 创建表结构
-- C. 开启游标
-- D. 获取游标中的记录
-- E. 插入数据到新表中
-- F. 关闭游标
DELIMITER !
create procedure p12(in sage int)
begin
-- 声明两个局部变量
declare uname varchar(100);
declare upro varchar(100);
-- 声明游标
declare u_cursor cursor for select name,profession from tb_user where age <= sage;
-- 声明条件处理程序 : 当SQL语句执行抛出的状态码为02000时,将关闭游标u_cursor,并退出
declare exit handler for SQLSTATE '02000' close u_cursor;
-- 用not found 代替02000
-- 通过SQLSTATE的代码简写方式 NOT FOUND
declare exit handler for not found close u_cursor;
-- 删除tb_user_pro表
drop table if exists tb_user_pro;
-- 创建表
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100),
profession varchar(100)
);
-- 打开游标
open u_cursor;
-- while循环(true死循环,会抛出02000状态码,就会自动调用上面的条件处理)
while true do
fetch u_cursor into uname,upro;
insert into tb_user_pro values (null, uname, upro);
end while;
-- 关闭游标
close u_cursor;
end!
--执行
call p12(30);
了解更多,请看官方文档
存储函数是有返回值的存储过程,存储函数的参数
只能是IN类型
的。
语法:
CREATE FUNCTION 存储函数名称 ([ 参数列表 ])
RETURNS type [characteristic ...]
BEGIN
-- SQL语句
RETURN ...;
END ;
characteristic说明:
DETERMINISTIC:相同的输入参数总是产生相同的结果
NO SQL :不包含 SQL 语句。
READS SQL DATA:包含读取数据的语句,但不包含写入数据的语句。
案例演示:
计算从1累加到n的值,n为传入的参数值。
create function fun1(n int)
returns int deterministic --指定返回值类型
begin
declare total int default 0;
while n>0 do
set total := total + n;
set n := n - 1;
end while;
return total;
end;
-- 执行
select fun1(50);
在mysql8.0版本中binlog默认是开启的,一旦开启了,mysql就要求在定义存储过程时,需要指定
characteristic特性,否则就会报如下错误:
触发器是与表有关的数据库对象,指在insert/update/delete之前(BEFORE)或之后(AFTER),触发并执行触发器中定义的SQL语句集合。
- 触发器的这种特性可以协助应用在数据库端确保数据的完整性, 日志记录 , 数据校验等操作 。
- 使用别名OLD和NEW来引用触发器中发生变化的记录内容,这与其他的数据库是相似的。现在触发器还只支持行级触发,不支持语句级触发。
创建
CREATE TRIGGER trigger_name
BEFORE/AFTER INSERT/UPDATE/DELETE
ON tbl_name FOR EACH ROW -- 行级触发器
BEGIN
trigger_stmt ;
END;
查看
SHOW TRIGGERS ;
删除
DROP TRIGGER [schema_name.]trigger_name ; -- 如果没有指定 schema_name,默认为当前数据库 。
/*
schema_name --可理解为指定的数据库名称
在mysql中基本认为schema和数据库(database)是相同的,
也就是说schema名称和数据库实例的名称是相同的,
一个数据库只拥有一个schema。
但是其他数据库产品会有所不同,在oracle数据库中,schema是数据库database的一部分。
*/
前期准备:
创建一个tb_user表:
在建立一个user_logs表用于记录CREATE TABLE `tb_user` ( `id` INT NOT NULL AUTO_INCREMENT COMMENT '主键', `name` VARCHAR(50) NOT NULL COMMENT '用户名', `phone` VARCHAR(11) NOT NULL COMMENT '手机号', `email` VARCHAR(100) DEFAULT NULL COMMENT '邮箱', `profession` VARCHAR(11) DEFAULT NULL COMMENT '专业', `age` TINYINT UNSIGNED DEFAULT NULL COMMENT '年龄', `gender` CHAR(1) DEFAULT NULL COMMENT '性别 , 1: 男, 2: 女', `status` CHAR(1) DEFAULT NULL COMMENT '状态', `createtime` DATETIME DEFAULT NULL COMMENT '创建时间', PRIMARY KEY (`id`) ) COMMENT='系统用户表'; -- 简单插入几条数据 INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime) VALUES >('吕布', '17799990000', '[email protected]', '软件工程', 23, '1', '6', '2001-02-02 00:00:00'); INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime) VALUES ('曹操', '17799990001', '[email protected]', '通讯工程', 33, '1', '0', '2001-03-05 00:00:00'); INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime) VALUES ('赵云', '17799990002', '[email protected]', '英语', 34, '1', '2', '2002-03-02 00:00:00'); INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime) VALUES ('孙悟空', '17799990003', '[email protected]', '工程造价', 54, '1', '0', '2001-07-02 00:00:00'); INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime) VALUES ('花木兰', '17799990004', '[email protected]', '软件工程', 23, '2', '1', '2001-04-22 00:00:00'); INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime) VALUES ('大乔', '17799990005', '[email protected]', '舞蹈', 22, '2', '0', '2001-02-07 00:00:00'); INSERT INTO tb_user (name, phone, email, profession, age, gender, status, createtime) VALUES ('露娜', '17799990006', '[email protected]', '应用数学', 24, '2', '0', '2001-02-08 00:00:00'); -- 创建user_logs表 create table user_logs( id int(11) not null auto_increment, operation varchar(20) not null comment '操作类型, insert/update/delete', operate_time datetime not null comment '操作时间', operate_id int(11) not null comment '操作的ID', operate_params varchar(500) comment '操作参数', primary key(`id`) );
插入数据触发器
DELIMITER !
CREATE TRIGGER tb_user_insert_trigger
AFTER INSERT ON tb_user FOR EACH ROW
BEGIN
INSERT INTO user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES
(NULL, 'insert', NOW(), new.id, CONCAT('插入的数据内容为: id='
,new.id,',name=',new.name, ', phone=', NEW.phone, ', email=', NEW.email, ', profession=', NEW.profession));
END!
测试:
-- 查看
show triggers ;
-- 插入数据到tb_user
insert into tb_user(id, name, phone, email, profession, age, gender, status, createtime) VALUES (20,'三皇子','18809091212','[email protected]','软件工 程',23,'1','1',now());
修改数据触发器
DELIMITER !
CREATE TRIGGER tb_user_update_trigger
AFTER UPDATE ON tb_user FOR EACH ROW
BEGIN
INSERT INTO user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES
(NULL, 'update', NOW(), new.id, CONCAT('更新之前的数据: id=',
old.id,',name=',old.name, ', phone=', old.phone, ', email=', old.email, ', profession=', old.profession,
' | 更新之后的数据: id=',new.id,',name=',new.name, ', phone=', NEW.phone, ', email=', NEW.email, ', profession=', NEW.profession));
END!
测试:
-- 查看
show triggers ;
-- 更新
update tb_user set profession = '会计' where id = 3;
update tb_user set profession = '会计' where id <= 5; -- id<=5 更新的是多条数据,都会被记录
删除数据触发器
DELIMITER !
CREATE TRIGGER tb_user_delete_trigger
AFTER DELETE ON tb_user FOR EACH ROW
BEGIN
INSERT INTO user_logs(id, operation, operate_time, operate_id, operate_params)
VALUES
(NULL, 'delete', NOW(), old.id, CONCAT('删除之前的数据: id=',
old.id,',name=',old.name, ', phone=', old.phone, ', email=', old.email, ', profession=', old.profession));
END!
测试:
-- 查看
show triggers ;
-- 删除数据
delete from tb_user where id = 4;
作为初学者,对于里面的很多细节都还有些疑惑,后续学习中在补充
锁是计算机协调多个进程或线程并发访问某一资源的机制。在数据库中,除传统的计算资源(CPU、RAM、I/O)的争用以外,数据也是一种供许多用户共享的资源。
MySQL中的锁,按照锁的粒度分,分为以下三类:
全局锁:锁定数据库中的所有表。
表级锁:每次操作锁住整张表。
行级锁:每次操作锁住对应的行数据。
全局锁就是对整个数据库实例加锁,加锁后整个实例就处于只读状态,后续的DML语句(增删改),DDL语句(定义数据库语句),已经更新操作的事务提交语句都将被阻塞。
其典型的使用场景是做全库的逻辑备份
加全局锁之后:是对所有的表进行锁定,是所有库里的所有表都只允许读(查看)
红色表示被阻塞了,绿色就是正常。
对数据库进行进行逻辑备份之前,先对整个数据库加上全局锁,一旦加了全局锁之后,其他的DDL、DML全部都处于阻塞状态,但是可以执行DQL语句,也就是处于只读状态,而数据备份就是查询操作。那么数据在进行逻辑备份的过程中,数据库中的数据就是不会发生变化的,这样就保证了数据的一致性和完整性。
语法:
加全局锁
flush tables with read lock ;
数据备份举例
mysqldump -uroot –p1234 itcast > itcast.sql
备份itcast库里面的所有表,并保存到当前目录下命名为itcast.sql文件
释放锁
unlock tables ;
特点:
数据库中加全局锁,是一个比较重的操作,存在以下问题:
- 如果在主库上备份,那么在备份期间都不能执行更新,业务基本上就得停摆。
- 如果在从库上备份,那么在备份期间从库不能执行主库同步过来的二进制日志(binlog),会导致主从延迟。
在InnoDB引擎中,我们可以在备份时加上参数 --single-transaction 参数来完成不加锁的一致性数据备份。(也就是说,数据库备份时加上上面的参数,效果是一样的)
mysqldump --single-transaction -uroot –p123456 itcast > itcast.sql
表级锁,每次操作锁住整张表。锁定粒度大,发生锁冲突的概率最高,并发度最低。应用在MyISAM、InnoDB、BDB等存储引擎中。
表级锁分类:
- 表锁
- 元数据锁(meta data lock,MDL)
- 意向锁
对于表锁,分为两类:
- 表共享读锁(read lock)
- 表独占写锁(write lock)
语法:
加锁:lock tables 表名… read/write。
释放锁:unlock tables / 客户端断开连接 。
特点:
读锁(read lock)
左侧为客户端一,对指定表加了读锁,客户1的读正常,增删改会报错
;对于右侧客户端二不会影响读,但是会阻塞
右侧客户端的写。
写锁(write lock)
左侧为客户端一,对指定表加了写锁,会阻塞右侧客户端的读和写。
结论: 读锁不会阻塞其他客户端的读,但是会阻塞写。写锁既会阻塞其他客户端的读,又会阻塞其他客户端的写。
是在事务下
meta data lock , 元数据锁,简写MDL。(为了避免DML与DDL冲突,保证读写的正确性)
演示(偷偷告诉你个东西:cmd窗操作mysql可以输入system cls清屏,shell类连接工具ctrl+l清屏)
(看不如练)
可以通过下面的SQL,查看数据库中的元数据锁的情况select object_type,object_schema,object_name,lock_type,lock_duration from performance_schema.metadata_locks ;
为了避免DML在执行时,加的行锁与表锁的冲突,在InnoDB中引入了意向锁,使得表锁不用检查每行数据是否加锁,使用意向锁来减少表锁的检查。(没有意向锁,加表锁时,要一行一行的去判断行锁)
介绍:
假如没有意向锁,客户端一对表加了行锁后,客户端二如何给表加表锁呢,来通过示意图简单分析一
下:
首先客户端一,开启一个事务,然后执行DML操作,在执行DML语句时,会对涉及到的行加行锁。
当客户端二,想对这张表加表锁时,会检查当前表是否有对应的行锁,如果没有,则添加表锁,此时就会从第一行数据,检查到最后一行数据,效率较低。
有了意向锁之后 :
客户端一,在执行DML操作时,会对涉及的行加行锁,同时也会对该表(自动)加上意向锁
.
而其他客户端,在对这张表加表锁的时候,会根据该表上所加的意向锁来判定是否可以成功加表锁,而不用逐行判断行锁情况了。
分类
一旦事务提交了,意向共享锁、意向排他锁,都会自动释放。
- 意向共享锁(IS): 由语句select … lock in share mode添加 。 与表锁共享锁(read)兼容,与表锁排他锁(write)互斥。
- 意向排他锁(IX): 由insert、update、delete、select…for update添加 。与表锁共享锁(read)及排他锁(write)都互斥。
- 意向锁之间不会互斥。
演示:
意向共享锁与表读锁是兼容的
意向排他锁与表读锁、写锁都是互斥的
可以通过以下SQL,查看意向锁及行锁的加锁情况:select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;
行级锁,每次操作锁住对应的行数据。锁定粒度最小,发生锁冲突的概率最低,并发度最高。应用在InnoDB存储引擎中。
InnoDB的数据是基于索引组织的,行锁是通过对索引上的索引项加锁来实现的,而不是对记录加的锁。
对于行级锁,主要分为以下三类:
行锁:
InnoDB实现了以下两种类型的行锁:
- 共享锁(S):允许一个事务去读一行,阻止其他事务获得相同数据集的排它锁。
- 排他锁(X):允许获取排他锁的事务更新数据,阻止其他事务获得相同数据集的共享锁和排他锁。
演示:
默认情况下,InnoDB在 REPEATABLE READ事务隔离级别运行,InnoDB使用 next-key 锁进行搜索和索引扫描,以防止幻读。
- 针对唯一索引进行检索时,对已存在的记录进行等值匹配时,将会自动优化为行锁。
- InnoDB的行锁是针对于索引加的锁,不通过索引条件检索数据,那么InnoDB将对表中的所有记录加锁,此时 就会升级为表锁。
可以通过以下SQL,查看意向锁及行锁的加锁情况:
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;
数据准备stu表:
CREATE TABLE `stu` ( `id` int NOT NULL PRIMARY KEY AUTO_INCREMENT, `name` varchar(255) DEFAULT NULL, `age` int NOT NULL ) ENGINE = InnoDB CHARACTER SET = utf8mb4; INSERT INTO `stu` VALUES (1, 'tom', 1); INSERT INTO `stu` VALUES (3, 'cat', 3); INSERT INTO `stu` VALUES (8, 'rose', 8); INSERT INTO `stu` VALUES (11, 'jetty', 11); INSERT INTO `stu` VALUES (19, 'lily', 19); INSERT INTO `stu` VALUES (25, 'luci', 25);
普通的select语句,执行时,不会加锁。
select…lock in share mode,加共享锁,共享锁与共享锁之间兼容。
共享锁与排他锁之间互斥
客户端一获取的是id为1这行的共享锁,客户端二是可以获取id为3这行的排它锁的,因为不是同一行数据。 而如果客户端二想获取id为1这行的排他锁,会处于阻塞状态,以为共享锁与排他锁之间互斥。
排它锁与排他锁之间互斥
当客户端一,执行update语句,会为id为1的记录加排他锁; 客户端二,如果也执行update语句更新id为1的数据,也要为id为1的数据加排他锁,但是客户端二会处于阻塞状态,因为排他锁之间是互斥的。 直到客户端一,把事务提交了,才会把这一行的行锁释放,此时客户端二,解除阻塞。
无索引行锁升级为表锁
在客户端一中,开启事务,并执行update语句,更新name为Lily的数据,也就是id为19的记录 。然后在客户端二中更新id为3的记录,却不能直接执行,会处于阻塞状态,为什么呢?
原因就是因为此时,客户端一,根据name字段进行更新时,name字段是没有索引的,如果没有索引,此时行锁会升级为表锁(因为行锁是对索引项加的锁,而name没有索引)。
间隙锁&临键锁
默认情况下,InnoDB在 REPEATABLE READ事务隔离级别运行,InnoDB使用 next-key 锁进行搜索和索引扫描,以防止幻读。
- 索引上的等值查询(唯一索引),给不存在的记录加锁时, 优化为间隙锁 。
- 索引上的等值查询(非唯一普通索引),向右遍历时最后一个值不满足查询需求时,next-key lock 退化为间隙锁。
- 索引上的范围查询(唯一索引)–会访问到不满足条件的第一个值为止。
注意:间隙锁唯一目的是防止其他事务插入间隙。间隙锁可以共存,一个事务采用的间隙锁不会阻止另一个事务在同一间隙上采用间隙锁。
演示:
索引上的等值查询(唯一索引),给不存在的记录加锁时, 优化为间隙锁 。
索引上的等值查询(非唯一普通索引),向右遍历时最后一个值不满足查询需求时,next-key lock 退化为间隙锁。
我们知道InnoDB的B+树索引,叶子节点是有序的双向链表。 假如,我们要根据这个二级索引查询值为18的数据,并加上共享锁,我们是只锁定18这一行就可以了吗? 并不是,因为是非唯一索引,这个结构中可能有多个18的存在,所以,在加锁时会继续往后找,找到一个不满足条件的值(当前案例中也就是29)。此时会对18加临键锁,并对29之前的间隙加锁。
索引上的范围查询(唯一索引)–会访问到不满足条件的第一个值为止。
查询的条件为id>=19,并添加共享锁。 此时我们可以根据数据库表中现有的数据,将数据分为三个部分:
[19] ------ (19,25] --------(25,+∞]
所以数据库数据在加锁是,就是将19加了行锁,25的临键锁(包含25及25之前的间隙),正无穷的临键锁(正无穷及之前的间隙)。
InnoDB的逻辑存储结构如下图所示:
1). 表空间
表空间是InnoDB存储引擎逻辑结构的最高层, 如果用户启用了参数 innodb_file_per_table(在8.0版本中默认开启) ,则每张表都会有一个表空间(xxx.ibd),一个mysql实例可以对应多个表空间,用于存储记录、索引等数据。
2). 段
段,分为数据段(Leaf node segment)、索引段(Non-leaf node segment)、回滚段(Rollback segment),InnoDB是索引组织表,数据段就是B+树的叶子节点, 索引段即为B+树的非叶子节点。段用来管理多个Extent(区)。
3). 区
区,表空间的单元结构,每个区的大小为1M。 默认情况下, InnoDB存储引擎页大小为16K, 即一个区中一共有64个连续的页。
4). 页
页,是InnoDB 存储引擎磁盘管理的最小单元,每个页的大小默认为 16KB。为了保证页的连续性,InnoDB 存储引擎每次从磁盘申请 4-5 个区。
5). 行
行,InnoDB 存储引擎数据是按行进行存放的。
在行中,默认有两个隐藏字段:Trx_id:每次对某条记录进行改动时,都会把对应的事务id赋值给trx_id隐藏列。
Roll_pointer:每次对某条引记录进行改动时,都会把旧的版本写入到undo日志中,然后这个隐藏列就相当于一个指针,可以通过它来找到该记录修改前的信息。
MySQL5.5 版本开始,默认使用InnoDB存储引擎,它擅长事务处理,具有崩溃恢复特性,在日常开发中使用非常广泛。下面是InnoDB架构图,左侧为内存结构,右侧为磁盘结构。
在左侧的内存结构中,主要分为这么四大块儿: Buffer Pool、Change Buffer、Adaptive Hash Index、Log Buffer。 接下来介绍一下这四个部分
1). Buffer Pool
InnoDB存储引擎基于磁盘文件存储,访问物理硬盘和在内存中进行访问,速度相差很大,为了尽可能弥补这两者之间的I/O效率的差值,就需要把经常使用的数据加载到缓冲池中,避免每次访问都进行磁盘I/O。在InnoDB的缓冲池中不仅缓存了索引页和数据页,还包含了undo页、插入缓存、自适应哈希索引以及InnoDB的锁信息等等。
缓冲池 Buffer Pool,是主内存中的一个区域,里面可以缓存磁盘上经常操作的真实数据,在执行增
删改查操作时,先操作缓冲池中的数据(若缓冲池没有数据,则从磁盘加载并缓存),然后再以一定频率刷新到磁盘,从而减少磁盘IO,加快处理速度。
缓冲池以Page页为单位,底层采用链表数据结构管理Page。根据状态,将Page分为三种类型:• free page:空闲page,未被使用。
• clean page:被使用page,数据没有被修改过。
• dirty page:脏页,被使用page,数据被修改过,也中数据与磁盘的数据产生了不一致。在专用服务器上,通常将多达80%的物理内存分配给缓冲池 。参数设置:
show variables like ‘innodb_buffer_pool_size’;
2). Change Buffer
Change Buffer,更改缓冲区(针对于非唯一二级索引页),在执行DML语句时,如果这些数据Page没有在Buffer Pool中,不会直接操作磁盘,而会将数据变更存在更改缓冲区 Change Buffer中,在未来数据被读取时,再将数据合并恢复到Buffer Pool中,再将合并后的数据刷新到磁盘中。
Change Buffer的意义是什么呢?
先来看一幅图,这个是二级索引的结构图:
与聚集索引不同,二级索引通常是非唯一的,并且以相对随机的顺序插入二级索引。同样,删除和更新可能会影响索引树中不相邻的二级索引页,如果每一次都操作磁盘,会造成大量的磁盘IO。有了ChangeBuffer之后,我们可以在缓冲池中进行合并处理,减少磁盘IO。
3). Adaptive Hash Index
自适应hash索引,用于优化对Buffer Pool数据的查询。MySQL的innoDB引擎中虽然没有直接支持hash索引,但是给我们提供了一个功能就是这个自适应hash索引。因为前面我们讲到过,hash索引在进行等值匹配时,一般性能是要高于B+树的,因为hash索引一般只需要一次IO即可,而B+树,可能需要几次匹配,所以hash索引的效率要高,但是hash索引又不适合做范围查询、模糊匹配等。
InnoDB存储引擎会监控对表上各索引页的查询,如果观察到在特定的条件下hash索引可以提升速度,
则建立hash索引,称之为自适应hash索引。
自适应哈希索引,无需人工干预,是系统根据情况自动完成。
参数: adaptive_hash_index
4). Log Buffer
Log Buffer:日志缓冲区,用来保存要写入到磁盘中的log日志数据(redo log 、undo log),默认大小为 16MB,日志缓冲区的日志会定期刷新到磁盘中。如果需要更新、插入或删除许多行的事务,增加日志缓冲区的大小可以节省磁盘 I/O。
参数:
innodb_log_buffer_size:缓冲区大小
innodb_flush_log_at_trx_commit:(日志刷新到磁盘时机,取值主要包含以下三个):1: 日志在每次事务提交时写入并刷新到磁盘,默认值。
0: 每秒将日志写入并刷新到磁盘一次
2: 日志在每次事务提交后写入,并每秒刷新到磁盘一次。
再来看看InnoDB体系结构的右边部分,也就是磁盘结构:
1). System Tablespace
系统表空间是更改缓冲区的存储区域。如果表是在系统表空间而不是每个表文件或通用表空间中创建
的,它也可能包含表和索引数据。(在MySQL5.x版本中还包含InnoDB数据字典、undolog等)
参数:innodb_data_file_path
系统表空间,默认的文件名叫 ibdata1。
2). File-Per-Table Tablespaces
如果开启了innodb_file_per_table开关 ,则每个表的文件表空间包含单个InnoDB表的数据和索
引 ,并存储在文件系统上的单个数据文件中。
开关参数:innodb_file_per_table ,该参数默认开启。
那也就是说,我们每创建一个表,都会产生一个表空间文件。
3). General Tablespaces
通用表空间,需要通过 CREATE TABLESPACE 语法创建通用表空间,在创建表时,可以指定该表空间。
A. 创建表空间
CREATE TABLESPACE ts_name ADD DATAFILE ‘file_name’ ENGINE = engine_name;
B. 创建表时指定表空间
CREATE TABLE xxx … TABLESPACE ts_name;
4). Undo Tablespaces
撤销表空间,MySQL实例在初始化时会自动创建两个默认的undo表空间(初始大小16M),用于存储
undo log日志。
5). Temporary Tablespaces
InnoDB 使用会话临时表空间和全局临时表空间。存储用户创建的临时表等数据。
6). Doublewrite Buffer Files
双写缓冲区,innoDB引擎将数据页从Buffer Pool刷新到磁盘前,先将数据页写入双写缓冲区文件中,便于系统异常时恢复数据。
7). Redo Log
重做日志,是用来实现事务的持久性。该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都会存到该日志中, 用于在刷新脏页到磁盘时,发生错误时, 进行数据恢复使用。
以循环方式写入重做日志文件,涉及两个文件:
前面我们介绍了InnoDB的内存结构,以及磁盘结构,那么内存中我们所更新的数据,又是如何到磁盘中的呢? 此时,就涉及到一组后台线程,接下来,就来介绍一些InnoDB中涉及到的后台线程。
在InnoDB的后台线程中,分为4类,分别是:Master Thread 、IO Thread、Purge Thread、Page Cleaner Thread。
1). Master Thread
核心后台线程,负责调度其他线程,还负责将缓冲池中的数据异步刷新到磁盘中, 保持数据的一致性,
还包括脏页的刷新、合并插入缓存、undo页的回收 。
2). IO Thread
在InnoDB存储引擎中大量使用了AIO来处理IO请求, 这样可以极大地提高数据库的性能,而IO Thread主要负责这些IO请求的回调。
我们可以通过以下的这条指令,查看到InnoDB的状态信息,其中就包含IO Thread信息。
show engine innodb status \G;
3). Purge Thread
主要用于回收事务已经提交了的undo log,在事务提交之后,undo log可能不用了,就用它来回收。
4). Page Cleaner Thread
协助 Master Thread 刷新脏页到磁盘的线程,它可以减轻 Master Thread 的工作压力,减少阻塞。
1). 事务
事务 是一组操作的集合,它是一个不可分割的工作单位,事务会把所有的操作作为一个整体一起向系
统提交或撤销操作请求,即这些操作要么同时成功,要么同时失败。
2). 特性• 原子性(Atomicity):事务是不可分割的最小操作单元,要么全部成功,要么全部失败。
• 一致性(Consistency):事务完成时,必须使所有的数据都保持一致状态。
• 隔离性(Isolation):数据库系统提供的隔离机制,保证事务在不受外部并发操作影响的独立环境下运行。
• 持久性(Durability):事务一旦提交或回滚,它对数据库中的数据的改变就是永久的。对于这四大特性,实际上分为两个部分。 其中的原子性、一致性、持久化,实际上是由InnoDB中的两份日志来保证的,一份是redo log日志,一份是undo log日志。 而持久性是通过数据库的锁,加上MVCC来保证的。
重做日志,记录的是事务提交时数据页的物理修改,是用来实现事务的持久性。
该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log file),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都存到该日志文件中, 用于在刷新脏页到磁盘,发生错误时, 进行数据恢复使用。
如果没有redolog,可能会存在什么问题的? 我们一起来分析一下。
我们知道,在InnoDB引擎中的内存结构中,主要的内存区域就是缓冲池,在缓冲池中缓存了很多的数据页。 当我们在一个事务中,执行多个增删改的操作时,InnoDB引擎会先操作缓冲池中的数据,如果缓冲区没有对应的数据,会通过后台线程将磁盘中的数据加载出来,存放在缓冲区中,然后将缓冲池中的数据修改,修改后的数据页我们称为脏页。 而脏页则会在一定的时机,通过后台线程刷新到磁盘中,从而保证缓冲区与磁盘的数据一致。 而缓冲区的脏页数据并不是实时刷新的,而是一段时间之后将缓冲区的数据刷新到磁盘中,假如刷新到磁盘的过程出错了,而提示给用户事务提交成功,而数据却没有持久化下来,这就出现问题了,没有保证事务的持久性.
那么,如何解决上述的问题呢? 在InnoDB中提供了一份日志 redo log,接下来我们再来分析一下,通过redolog如何解决这个问题。
有了redolog之后,当对缓冲区的数据进行增删改之后,会首先将操作的数据页的变化,记录在redo log buffer中。在事务提交时,会将redo log buffer中的数据刷新到redo log磁盘文件中。
过一段时间之后,如果刷新缓冲区的脏页到磁盘时,发生错误,此时就可以借助于redo log进行数据恢复,这样就保证了事务的持久性。 而如果脏页成功刷新到磁盘 或 或者涉及到的数据已经落盘,此时redolog就没有作用了,就可以删除了,所以存在的两个redolog文件是循环写的。
那为什么每一次提交事务,要刷新redo log 到磁盘中呢,而不是直接将buffer pool中的脏页刷新到磁盘呢 ?
因为在业务操作中,我们操作数据一般都是随机读写磁盘的,而不是顺序读写磁盘。 而redo log在往磁盘文件中写入数据,由于是日志文件,所以都是顺序写的。顺序写的效率,要远大于随机写。 这种先写日志的方式,称之为 WAL(Write-Ahead Logging)。
回滚日志,用于记录数据被修改前的信息 , 作用包含两个 : 提供回滚(保证事务的原子性) 和MVCC(多版本并发控制) 。
undo log和redo log记录物理日志不一样,它是逻辑日志。可以认为当delete一条记录时,undo log中会记录一条对应的insert记录,反之亦然,当update一条记录时,它记录一条对应相反的update记录。当执行rollback时,就可以从undo log中的逻辑记录读取到相应的内容并进行回滚。Undo log销毁:undo log在事务执行时产生,事务提交时,并不会立即删除undo log,因为这些日志可能还用于MVCC。
Undo log存储:undo log采用段的方式进行管理和记录,存放在前面介绍的 rollback segment回滚段中,内部包含1024个undo log segment。
1). 当前读
读取的是记录的最新版本,读取时还要保证其他并发事务不能修改当前记录,会对读取的记录进行加
锁。对于我们日常的操作,如:select … lock in share mode(共享锁),select …
for update、update、insert、delete(排他锁)都是一种当前读。
测试:
在测试中我们可以看到,即使是在默认的RR隔离级别下,事务A中依然可以读取到事务B最新提交的内容,因为在查询语句后面加上了 lock in share mode 共享锁,此时是当前读操作。当然,当我们加排他锁的时候,也是当前读操作。
2). 快照读
简单的select(不加锁)就是快照读,快照读,读取的是记录数据的可见版本,有可能是历史数据,不加锁,是非阻塞读。
• Read Committed:每次select,都生成一个快照读。
• Repeatable Read:开启事务后第一个select语句才是快照读的地方。
• Serializable:快照读会退化为当前读。
测试:
在测试中,我们看到即使事务B提交了数据,事务A中也查询不到。 原因就是因为普通的select是快照
读,而在当前默认的RR隔离级别下,开启事务后第一个select语句才是快照读的地方,后面执行相同
的select语句都是从快照中获取数据,可能不是当前的最新数据,这样也就保证了可重复读。
3). MVCC
全称 Multi-Version Concurrency Control,多版本并发控制。指维护一个数据的多个版本,使得读写操作没有冲突,快照读为MySQL实现MVCC提供了一个非阻塞读功能。MVCC的具体实现,还需要依赖于数据库记录中的三个隐式字段、undo log日志、readView。
接下来,我们再来介绍一下InnoDB引擎的表中涉及到的隐藏字段 、undolog 以及 readview,从而来介绍一下MVCC的原理。
以该表为例:
当我们创建了上面的这张表,我们在查看表结构的时候,就可以显式的看到这三个字段。 实际上除了这三个字段以外,InnoDB还会自动的给我们添加三个隐藏字段及其含义分别是:
而上述的前两个字段是肯定会添加的, 是否添加最后一个字段DB_ROW_ID,得看当前表有没有主键,如果有主键,则不会添加该隐藏字段。
示例(自己选个库,建个表,自己试试吧):
进入服务器中的 /var/lib/mysql/库名/ , 查看自建表的表结构信息, 通过如下指令:
ibd2sdi 表名.ibd
介绍
回滚日志,在insert、update、delete的时候产生的便于数据回滚的日志。
当insert的时候,产生的undo log日志只在回滚时需要,在事务提交后,可被立即删除。
而update、delete的时候,产生的undo log日志不仅在回滚时需要,在快照读时也需要,不会立即被删除
版本链
有一张表原始数据为:
DB_TRX_ID : 代表最近修改事务ID,记录插入这条记录或最后一次修改该记录的事务ID,是自增的。
DB_ROLL_PTR : 由于这条数据是才插入的,没有被更新过,所以该字段值为null。
然后,有四个并发事务同时在访问这张表。
A. 第一步
当事务2执行第一条修改语句时,会记录undo log日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
B.第二步
当事务3执行第一条修改语句时,也会记录undo log日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
C. 第三步
当事务4执行第一条修改语句时,也会记录undo log日志,记录数据变更之前的样子; 然后更新记录,并且记录本次操作的事务ID,回滚指针,回滚指针用来指定如果发生回滚,回滚到哪一个版本。
最终我们发现,不同事务或相同事务对同一条记录进行修改,会导致该记录的undolog生成一条记录版本链表,链表的头部是最新的旧记录,链表尾部是最早的旧记录。
ReadView(读视图)是 快照读 SQL执行时MVCC提取数据的依据,记录并维护系统当前活跃的事务(未提交的)id。
ReadView中包含了四个核心字段:
而在readview中就规定了版本链数据的访问规则:
trx_id 代表当前undolog版本链对应事务ID。
不同的隔离级别,生成ReadView的时机不同:READ COMMITTED :在事务中每一次执行快照读时生成ReadView。
REPEATABLE READ:仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView。
RC隔离级别
RC隔离级别下,在事务中每一次执行快照读时生成ReadView。
我们就来分析事务5中,两次快照读读取数据,是如何获取数据的?
在事务5中,查询了两次id为30的记录,由于隔离级别为Read Committed,所以每一次进行快照读都会生成一个ReadView,那么两次生成的ReadView如下。
那么这两次快照读在获取数据时,就需要根据所生成的ReadView以及ReadView的版本链访问规则,到undolog版本链中匹配数据,最终决定此次快照读返回的数据。
A. 先来看第一次快照读具体的读取过程:
在进行匹配时,会从undo log的版本链,从上到下进行挨个匹配:先匹配
这条记录,这条记录对应的trx_id为4,也就是将4带入右侧的匹配规则中。 ①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log版本链的下一条。
再匹配第二条
,这条记录对应的trx_id为3,也就是将3带入右侧的匹配规则中。①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log版本链的下一条。
再匹配第三条
,这条记录对应的trx_id为2,也就是将2带入右侧的匹配规则中。①不满足 ②满足 终止匹配,此次快照读,返回的数据就是版本链中记录的这条数据。
B. 再来看第二次快照读具体的读取过程:
在进行匹配时,会从undo log的版本链,从上到下进行挨个匹配:先匹配
这条记录,这条记录对应的
trx_id为4,也就是将4带入右侧的匹配规则中。 ①不满足 ②不满足 ③不满足 ④也不满足 ,都不满足,则继续匹配undo log版本链的下一条。
再匹配第二条
,这条记录对应的trx_id为3,也就是将3带入右侧的匹配规则中。①不满足 ②满足 。终止匹配,此次快照读,返回的数据就是版本链中记录的这条数据。
RR隔离级别
RR隔离级别下,仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView。 而RR 是可重复读,在一个事务中,执行两次相同的select语句,查询到的结果是一样的。
那MySQL是如何做到可重复读的呢? 我们简单分析一下就知道了
我们看到,在RR隔离级别下,只是在事务中第一次快照读时生成ReadView,后续都是复用该ReadView,那么既然ReadView都一样, ReadView的版本链匹配规则也一样, 那么最终快照读返回的结果也是一样的。
所以呢,MVCC的实现原理就是通过 InnoDB表的隐藏字段、UndoLog 版本链、ReadView来实现的。而MVCC + 锁,则实现了事务的隔离性。 而一致性则是由redolog 与 undolog保证。
自带的四个数据库:mysql、information_schema、performance_schema、sys
mysql
-e选项可以在Mysql客户端执行SQL语句,而不用连接到MySQL数据库再执行,对于一些批处理脚本,这种方式尤其方便。
mysqladmin
mysqladmin 是一个执行管理操作的客户端程序。可以用它来检查服务器的配置和当前状态、创建并删除数据库等。
通过帮助文档查看选项:
mysqladmin --help
示例:
mysqlbinlog
由于服务器生成的二进制日志文件以二进制格式保存,所以如果想要检查这些文本的文本格式,就会使用到mysqlbinlog 日志管理工具。
mysqlshow
示例:
查询每个数据库的表的数量及表中记录的数量
mysqlshow -uroot -p123456 --count
还能细化到库,表,表的字段查看数据库db01的统计信息
mysqlshow -uroot -p1234 db01 --count
查看数据库db01中的course表的信息
mysqlshow -uroot -p1234 db01 course --count
查看数据库db01中的course表的id字段的信息
mysqlshow -uroot -p1234 db01 course id --count
mysqldump
示例:
备份db01数据库到当前所在目录mysqldump -uroot -p123456 db01 > db01.sql
备份出来的数据包含:
删除表的语句
创建表的语句
数据插入语句
如果我们在数据备份时,不需要创建表,或者不需要备份数据,只需要备份表结构,都可以通过对应的
参数来实现。备份db01数据库中的表数据,不备份表结构(-t)
mysqldump -uroot -p1234 -t db01 > db01.sql
查看备份的数据,只有insert语句,没有备份表结构。将itcast数据库的表的表结构与数据分开备份(-T)(需要存储在MySQL信任的目录下,可以查看系统变量 secure_file_priv获取)
通过以下命令查看内容
cat tb_user.sql
cat tb_user.txt
mysqlimport/source
mysqlimport 是客户端数据导入工具,用来导入mysqldump 加 -T 参数后导出的文本文件。
source(先选好库)
如果需要导入sql文件,可以使用mysql中的source 指令 :