目录
insert优化
主键优化
页分裂
order by优化
测试:
group by优化
limit优化
count优化
update优化
如果我们需要一次性往数据库表中插入多条记录,可以从以下三个方面进行优化。
优化方案一
Insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');
批量插入会,会频繁调用事务,因此我们有了第二种优化方案。
优化方案二
手动控制事务
start transaction;
insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');
insert into tb_test values(4,'Tom'),(5,'Cat'),(6,'Jerry');
insert into tb_test values(7,'Tom'),(8,'Cat'),(9,'Jerry');
commit;
优化方案三
主键顺序插入,性能要高于乱序插入-----后文会讲解
主键乱序插入 : 8 1 9 21 88 2 4 15 89 5 7 3
主键顺序插入 : 1 2 3 4 5 7 8 9 15 21 88 89
优化方案四-大批量插入数据
如果一次性需要插入大批量数据(比如: 几百万的记录),使用insert语句插入性能较低,此时可以使 用MySQL数据库提供的load指令进行插入。操作如下:
左图为待插入的数据,右图为sql中搜索的数据,大概有100w数据插入需要19秒左右。
-- 第一步:客户端连接服务端时,加上参数 -–local-infile
mysql –-local-infile -u root -p
-- 第二步设置全局参数local_infile为1,开启从本地加载文件导入数据的开关
set global local_infile = 1;
-- 第三步执行load指令将准备好的数据,加载到表结构中
load data local infile '/root/sql1.log' into table tb_user fields
terminated by ',' lines terminated by '\n' ;
接下来我们来说一下主键优化策略。为什么说顺序插入会优于乱序插入。
我们都知道在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表 (index organized table IOT)。
行数据,都是存储在聚集索引的叶子节点上的。而我们之前也讲解过InnoDB的逻辑结构图:
在InnoDB引擎中,数据行是记录在逻辑结构 page 页中的,而每一个页的大小是固定的,默认16K。 那也就意味着, 一个页中所存储的行也是有限的,如果插入的数据行row在该页存储不小,将会存储 到下一个页中,页与页之间会通过指针连接。
页可以为空,也可以填充一半,也可以填充100%。每个页包含了2-N行数据(如果一行数据过大,会行 溢出),根据主键排列。
主键顺序插入效果。
插入第一页。
可以看出顺序插入时,数据会依次插入到每页当中。
主键乱序插入效果
假如,我们已经存入以下数据
此时再插入id为50的记录,我们来看看会发生什么现象
因为索引结果的叶子结点是有序的,按照顺序由应该在47之后
但是47所在的1#页,已经写满了,存储不了50对应的数据了。 那么此时会开辟一个新的页 3#。
乱序插入有页分裂现象,因此顺序插入性能会优于乱序,因此在插入数据时,一定使得数据顺序插入。
【主键设计原则】
MySQL的排序,有两种方式:
对于以上的两种排序方式,Using index的性能高,而Using filesort的性能低,我们在优化排序 操作时,尽量要优化为 Using index。
在之前测试时,把tb_user表所建立的部分索引直接删除
drop index idx_user_phone on tb_user;
drop index idx_user_phone_name on tb_user;
drop index idx_user_name on tb_user;
执行排序SQL
explain select id,age,phone from tb_user order by age ;
explain select id,age,phone from tb_user order by age, phone ;
-- 创建索引
create index idx_user_age_phone_aa on tb_user(age,phone);
explain select id,age,phone from tb_user order by age
同时mysql也支持降序联合索引,跟正序是一样的,我们看一下他们的结构图。
由上述的测试,我们得出order by优化原则:
我们主要来看看索引对于分组操作的影响。首先我们先将 tb_user 表的索引全部删除掉 。
接下来,在没有索引的情况下,执行如下SQL,查询执行计划:
explain select profession , count(*) from tb_user group by profession;
然后,我们在针对于 profession , age, status 创建一个联合索引。
create index idx_user_pro_age_sta on tb_user(profession , age , status);
紧接着,再执行前面相同的SQL查看执行计划。
数据量比较大时,如果进行limit分页查询,在查询时,越往后,分页查询效率越低。
当在进行分页查询时,如果执行 limit 2000000,10 ,此时需要MySQL排序前2000010 记 录,仅仅返回 2000000 - 2000010 的记录,其他记录丢弃,查询排序的代价非常大 。
优化思路: 一般分页查询时,通过创建 覆盖索引 能够比较好地提高性能,可以通过覆盖索引加子查 询形式进行优化。
explain select * from tb_sku t , (select id from tb_sku order by id
limit 2000000,10) a where t.id = a.id
按照效率排序的话,count(字段) < count(主键 id) < count(1) ≈ count(*),所以尽 量使用 count(*)。
针对update,我们需要注意行锁升级为表锁的情况。
update course set name = 'javaEE' where id = 1 ;
当我们在执行删除的SQL语句时,会锁定id为1这一行的数据,然后事务提交之后,行锁释放。
update course set name = 'SpringBoot' where name = 'PHP' ;
当我们开启多个事务,在执行上述的SQL时,我们发现行锁升级为了表锁。 导致该update语句的性能 大大降低。
原因:InnoDB的行锁是针对索引加的锁,不是针对记录加的锁 ,并且该索引不能失效,否则会从行锁 升级为表锁 。