- 批量插入(一次性插入多条数据)
insert into tb_user values(1,'TOM'),(2,'Mike')....
- 手动事务提交
start transaction
insert into tb_user values(1,'TOM'),(2,'Mike')....
insert into tb_user values(1,'TOM'),(2,'Mike')....
commit;
- 主键顺序插入
主键顺序插入会比乱序插入的效率高
如果一次性大批量插入数据,使用insert语句插入性能较低,此时可以使用Mysql提供的load指令进行插入,操作如下:
#客户端连接服务端是,加上参数--local-infile
mysql --local-infile -u root -p
#设置全局参数local_infile为1,开启本地加载文件导入数据开关
set global local_infile=1;
#执行load指令将准备好的数据插入到表结构中
load data local infile '/root/sql1.log' into table 'tb_user' fields terminated by ',' lines terminated by '\n';
操作案例
select @@local_infile;
set global local_infile=1;
在讲insert优化的时候,说到主键顺序插入的时候,会比乱序插入效率更高,这里就可以解释底层原理
在innoDB存储引擎中,表数据都是根据主键顺序组织存放(聚集索引底层原理)的,这种存储方式的表称为索引组织表(index organized table IOT),下图是InnoDB底层存储逻辑结构。
页可以为空,也可以填充一半,也可以填充100%。每个页包括2-N行数据(如果一行数据多大,会行溢出),根据主键排列。
又上面可以看出,主键顺序插入的时候,当一个页的容量不够时,会开辟新的页然后将继续插入(页与页之间会有双向联系),下面演示主键乱序插入
上图中,page1和page2已经插满了数据,现在继续插入id为50的数据,由于主键顺序排列的关系,50行是不能直接插入到page3的,而只能插入到47之后,但47之后已经没有位置了,此时数据库会找到page1的50%位置,然后把后半部分数据,放到page3中,接着50放入47后面
最后重新设计页表指针,这就是
页分裂现象
,这也解释了为什么主键顺序插入效率会高
当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其它记录声明使用,当页中删除的记录达到MERGE_THRESHOLD(默认为50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。
- 满足业务需求的情况下,尽量降低主键的长度
- 插入数据时,尽量选择顺序插入,选择使用
AUTO_INCREMNET
自增主键- 尽量不要使用UUID或者是其它自然主键,如身份证号作为主键(因为它们是无序的或长度较长)
- 尽量不要修改主键
对于Mysql中的排序有两种方式:
- Using filesort:通过表的索引或者全表扫描,读取满足条件的数据行,然后在排序缓存区
sort buffer
中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫FileSort
排序- Using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为
using index
,不需要额外排序,操作效率高
这里测试使用到了这篇文章的数据库(可以创建一下)
按照年龄排序查询用户信息
select 用户ID,姓名,年龄 from 用户表 order by 年龄;
-- 查看一下性能分析
explain select 年龄 from 用户表 order by 年龄;
可以发现使用的是
filesort
排序方式,因为age字段没有索引,效率是比较低的,下面给age创建索引,这时候再排序就是用index
排序了
create index idx_age on 用户表(年龄);
- 根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则
- 尽量使用覆盖索引
- 多字段排序,一个升序一个降,此时需要注意联合索引创建时的规则(ASC/DESC)
- 如果不可避免的出现filesort,大数据量排序时,可以适当增加排序缓冲区大小
sort_buffer_size
(排序缓存区,默认256K,超过这个大小会在磁盘文件中进行排序,效率很低)
show variables like 'sort_buffer_size'
操作之前删除所有索引
执行一个分组操作
select 城市,count(*) from 用户表 group by 城市;
explain select 城市,count(*) from 用户表 group by 城市;
using temporary
发现查询使用到了临时表(这样的效率是很低的),下面创建联合索引
create index idx_city_name_age_sex on 用户表(城市,姓名,年龄,性别);
再次执行分组操作,发现使用了索引
explain select 城市,count(*) from 用户表 group by 城市;
- 在分组操作时,可以通过索引来提高效率
- 分组操作时,索引的使用也是满足最左前缀法则的
首先执行分页操作
select * from 用户表 limit 0,10;
对于limit来说,一个常见非常头疼的问题是limit 2000000,10,此时需要mysql排序前200010记录,仅仅返回2000000-2000010的记录,其它记录丢弃,查询排序的代价非常大,这里可以使用
覆盖索引+子查询
的方式进行优化
explain select count(*) from 用户表;
在MyISAM存储引擎中,一张表的总行数存储在了磁盘上,因此执行count(*)的时候会直接返回这个数,效率很高,InnoDB就麻烦了,它执行count(*)时,需要把数据一行一行地从引擎里面读出来,然后累积计数,所以这里的优化思路只能是:
自己计数(例如每插入一条数据我们可以维护一个变量来加1)
- count()是一个聚合函数,对于返回的结果集,一行行判断,如果count函数的参数不是null,累积值就加1,最后返回累积值
- 用法:count(*)、count(主键)、count(字段)、count(1)
- count(主键):innoDB引擎会遍历整张表,把每一行的主键id都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能为null)
- cout(字段值):如果没有not null 约束,innoDB引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为null,不为null,计数累加。如果有not null 约束,innoDB存储引擎会遍历每一行的字段值都取出来,返回给服务层,直接按行进行累加
- count(1):innoDB引擎会遍历整张表,但不取值。服务层对于返回的每一行都会放一个数字1进去,直接按行进行累加
- count(*):innoDB引擎不回把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则会从行锁升级为表锁。