目录
MySQL调优-MySQL索引优化实战一
插入数据:
举一个大家不容易理解的综合例子:
1、联合索引第一个字段用范围不会走索引
2、强制走索引
什么是回表?为什么要回表?如何进行回表?
但是回表具有很大的弊端:
3、覆盖索引优化
4、in和or在表数据量比较大的情况会走索引,在表记录不多的情况下会选择全表扫描
5、like KK% 一般情况都会走索引
什么是索引下推?
为什么范围查找Mysql没有用索引下推优化?
Mysql如何选择合适的索引
trace工具用法如下:
常见sql深入优化
Order by与Group by优化
优化总结:
Using filesort文件排序原理详解
filesort文件排序方式
索引设计原则
1.代码先行,索引后上
2.联合索引尽量覆盖条件
3.不要在小基数字段上建立索引
4.长字符串我们可以采用前缀索引
5.where与order by冲突时优先where
6.基于慢sql查询做优化
索引设计实战
具体如图所示:使用processon绘制
索引设置多少为好?
CREATE TABLE `employees` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(24) NOT NULL DEFAULT '' COMMENT '姓名',
`age` int(11) NOT NULL DEFAULT '0' COMMENT '年龄',
`position` varchar(20) NOT NULL DEFAULT '' COMMENT '职位',
`hire_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '入职时间',
PRIMARY KEY (`id`),
KEY `idx_name_age_position` (`name`,`age`,`position`) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COMMENT='员工记录表';
INSERT INTO employees(name,age,position,hire_time) VALUES('LiLei',22,'manager',NOW());
INSERT INTO employees(name,age,position,hire_time) VALUES('HanMeimei', 23,'dev',NOW());
INSERT INTO employees(name,age,position,hire_time) VALUES('Lucy',23,'dev',NOW());
-- 插入一些示例数据
drop procedure if exists insert_emp;
delimiter ;;
create procedure insert_emp()
begin
declare i int;
set i=1;
while(i<=100000)do
insert into employees(name,age,position) values(CONCAT('zhuge',i),i,'dev');
set i=i+1;
end while;
end;;
delimiter ;
call insert_emp();
EXPLAIN SELECT * FROM employees WHERE name > 'LiLei' AND age = 22 AND position ='manager';
结论:联合索引第一个字段就用范围查找不会走索引,mysql内部可能觉得第一个字段就用范围,结果集应该很大,回表效率不高,还不如就全表扫描
如果你不相信MySQL底层优化的话,可以强制走二级索引。
EXPLAIN SELECT * FROM employees force index(idx_name_age_position) WHERE name > 'LiLei' AND age = 22 AND position ='manager';
结论:虽然使用了强制走索引让联合索引第一个字段范围查找也走索引,扫描的行rows看上去也少了点,但是最终查找效率不一定比全表扫描高,因为回表效率不高。具体的效率高低要使用trance这个MySQL自带的工具去进行底层分析!后面会记录讲解。
做了一个小实验:这个实验就证明了上面一个结论,走索引进行回表的效率不一定比走全表扫描要高。
-- 关闭查询缓存
set global query_cache_size=0;
set global query_cache_type=0;
-- 执行时间0.333s
SELECT * FROM employees WHERE name > 'LiLei';
-- 执行时间0.444s
SELECT * FROM employees force index(idx_name_age_position) WHERE name > 'LiLei';
现如今基本上所有的数据库表底层都是InnoDB引擎执行的,对于InnoDB引擎而言,一个数据库表对应到磁盘上的文件就是一个frm框架文件和一个ibd文件。
frm框架文件无需多管,ibd文件是一个存储数据和索引的文件的,因为InnoDB索引是聚集的,所以存储的真实数据和索引是处于同一个ibd文件中的。与之对应的是MyIASM执行引擎,对应MyISAM执行引擎的数据库表对应磁盘上的文件是一个索引文件,一个数据文件,一个frm框架文件,MyISAM是非聚集的。
正是因为我们数据库表使用的是InnoDB引擎,正因为它是聚集的,所以我们可以闲暇自如的使用回表操作,但是回表操作是极其耗费性能的!
在一个ibd文件中,它是可以包含聚簇索引和二级索引的,聚簇索引就相当于是二级索引的爸爸,聚簇索引底层的B+树存储结构的叶子节点中包含了数据库表的所有字段对应的数据,但是二级索引只是对应了一部分字段
关于二级索引,我举一个例子:我们创建一个name字段的二级索引,那么二级索引底层B+树的叶子节点中存储的数据是name字段和主键字段的数据。假设说我们执行一条SQL语句:select * from test where name = "leomessi",对于这个name我们走的是二级索引,但是该SQL语句select *中查询的是数据库表中的所有字段的值,那么由于二级索引对应的B+树的叶子节点中只存储了name字段和对应的主键字段的数据值,所以要进行回表操作!所谓回表操作即是:通过二级索引的B+树的叶子节点中的各个记录对应的主键字段进行回表找到同在ibd文件中的聚簇索引,这个聚簇索引对应的B+树的叶子节点中包含了select * 想要找到的所有字段的数据值!这就是回表的意义所在。
回表极大的消耗内存性能,有时候还不如直接走全表扫描!
上面一句话怎么理解?分析如下:
一个InnoDB引擎对应的数据库表,我们进行SQL语句操作时,正如 ”举一个大家不容易理解的综合例子:“这个例子中1和2 进行表述的那样!
我们不走联合索引是因为name>'LiLei'在MySQL底层看来,是会返回很多的记录行记录的,如果都走二级索引的话,即使走二级索引所需要扫描的行数可能会比直接走聚簇索引扫描全部记录行要少一些,甚至少很多。
EXPLAIN SELECT * FROM employees WHERE name > 'LiLei' AND age = 22 AND position ='manager';
但是我们select需要返回的字段是所有的字段,所以走二级索引的时候要进行回表操作,使用二级索引每扫描到一行记录都要进行一次回表操作!这一个过程所要消耗的性能是极其的高的。
在MySQL底层进行计算后,MySQL计算的即是走二级索引所节省扫描的行数对应的性能和二级索引每扫描到一次记录都回表操作所消耗性能相比对一下,看哪一个性能节省,最终就会选择走聚簇索引直接扫描全表还是走二级索引!
EXPLAIN SELECT name,age,position FROM employees WHERE name > 'LiLei' AND age = 22 AND position ='manager'
上面执行的SQL为什么说是覆盖索引?
上面的SQL语句所需select查询返回的所有字段,正好是二级索引(name,age,position联合索引)对应的所有字段,在这个二级索引对应的B+树的叶子节点中存储了name,age,position这三个字段的值,所以这个过程我们无需进行回表操作,极大的节省了性能,这个二级索引我们又可以称之为是覆盖索引,因为它全覆盖了我们想要select查询的所有的字段!
先看一个数据库表中保存十万条记录数据的employees表
EXPLAIN SELECT * FROM employees WHERE name in ('LiLei','HanMeimei','Lucy') AND age = 22 AND position ='manager';
EXPLAIN SELECT * FROM employees WHERE (name = 'LiLei' or name = 'HanMeimei') AND age = 22 AND position ='manager';
总结:
前提:以上由于表的数据量是很大的,达到十万的数量级别。并且SQL语句select查询的是所有的字段,二级索引的B+树的叶子节点中不包含全部,所以如果走二级索引时需要回表操作到聚簇索引的叶子节点去获取二级索引中不包含的字段的数据值。
假设说我们利用走二级索引的方式最终过滤到rows可能执行的行数仅为2行,意味着二级索引回表操作只需要执行两次就好。
假设说直接走聚簇索引,进行ALL需要进行扫描十万条记录,性能消耗是相对十分巨大的。
所以走二级索引过滤到最终可能只有两条记录,走两次回表操作,这样就显得十分优化啦!
变式:
对于表原本数据库表中记录数只有很少的情况下,直接走ALL全表扫描的聚簇索引的B+树叶子节点中存储的所有字段数据的方式会更加合适。举一个例子如下:
做一个小实验,将employees 表复制一张employees_copy的表,里面保留两三条记录
EXPLAIN SELECT * FROM employees_copy WHERE name in ('LiLei','HanMeimei','Lucy') AND age = 22 AND position ='manager';
EXPLAIN SELECT * FROM employees_copy WHERE (name = 'LiLei' or name = 'HanMeimei') AND age = 22 AND position ='manager';
EXPLAIN SELECT * FROM employees WHERE name like 'LiLei%' AND age = 22 AND position ='manager';
EXPLAIN SELECT * FROM employees_copy WHERE name like 'LiLei%' AND age = 22 AND position ='manager';
这里给大家补充一个概念,索引下推(Index Condition Pushdown,ICP), like KK%其实就是用到了索引下推优化
对于辅助的联合索引(name,age,position),正常情况按照最左前缀原则,SELECT * FROM employees WHERE name like 'LiLei%' AND age = 22 AND position ='manager' 这种情况只会走name字段索引,因为根据name字段过滤完,得到的索引行里的age和position是无序的,无法很好的利用索引。
在MySQL5.6之前的版本,这个查询只能在联合索引里匹配到名字是 'LiLei' 开头的索引,然后拿这些索引对应的主键逐个回表,到主键索引上找出相应的记录,再比对age和position这两个字段的值是否符合。
MySQL 5.6引入了索引下推优化,可以在索引遍历过程中,对索引中包含的所有字段先做判断,过滤掉不符合条件的记录之后再回表,可以有效的减少回表次数。使用了索引下推优化后,上面那个查询在联合索引里匹配到名字是 'LiLei' 开头的索引之后,同时还会在索引里过滤age和position这两个字段,拿着过滤完剩下的索引对应的主键id再回表查整行数据。
索引下推会减少回表次数,对于innodb引擎的表索引下推只能用于二级索引,innodb的主键索引(聚簇索引)树叶子节点上保存的是全行数据,所以这个时候索引下推并不会起到减少查询全行数据的效果。
计应该是Mysql认为范围查找过滤的结果集过大,like KK% 在绝大多数情况来看,过滤后的结果集比较小,所以这里Mysql选择给 like KK% 用了索引下推优化,当然这也不是绝对的,有时like KK% 也不一定就会走索引下推。
1.不走索引,走全局扫描(走聚簇索引扫描)
mysql> EXPLAIN select * from employees where name > 'a';
如果用name索引需要遍历name字段联合索引树,然后还需要根据遍历出来的主键值去主键索引树里再去查出最终数据,成本比全表扫描还高,可以用覆盖索引优化,这样只需要遍历name字段的联合索引树就能拿到所有结果,如下:
2.走name age position的联合二级索引
mysql> EXPLAIN select name,age,position from employees where name > 'a' ;
3.走name age position的联合二级索引
mysql> EXPLAIN select * from employees where name > 'zzz' ;
总结:至于是走聚簇索引全局扫描还是走二级索引回表操作,是MySQL底层进行性能比对分析后进行选择。是全局扫描所有记录数据消耗的大还是说走二级索引时过滤后的记录走回表操作消耗的大?MySQL底层会进行比对。
对于上面这两种 name>'a' 和 name>'zzz' 的执行结果,mysql最终是否选择走索引或者一张表涉及多个索引,mysql最终如何选择索引,我们可以用trace工具来一查究竟,开启trace工具会影响mysql性能,所以只能临时分析sql使用,用完之后立即关闭
mysql> set session optimizer_trace="enabled=on",end_markers_in_json=on; --开启trace
mysql> select * from employees where name > 'a' order by position;
mysql> SELECT * FROM information_schema.OPTIMIZER_TRACE;
查看trace字段:
{
"steps": [
{
"join_preparation": { --第一阶段:SQL准备阶段,格式化sql
"select#": 1,
"steps": [
{
"expanded_query": "/* select#1 */ select `employees`.`id` AS `id`,`employees`.`name` AS `name`,`employees`.`age` AS `age`,`employees`.`position` AS `position`,`employees`.`hire_time` AS `hire_time` from `employees` where (`employees`.`name` > 'a') order by `employees`.`position`"
}
] /* steps */
} /* join_preparation */
},
{
"join_optimization": { --第二阶段:SQL优化阶段
"select#": 1,
"steps": [
{
"condition_processing": { --条件处理
"condition": "WHERE",
"original_condition": "(`employees`.`name` > 'a')",
"steps": [
{
"transformation": "equality_propagation",
"resulting_condition": "(`employees`.`name` > 'a')"
},
{
"transformation": "constant_propagation",
"resulting_condition": "(`employees`.`name` > 'a')"
},
{
"transformation": "trivial_condition_removal",
"resulting_condition": "(`employees`.`name` > 'a')"
}
] /* steps */
} /* condition_processing */
},
{
"substitute_generated_columns": {
} /* substitute_generated_columns */
},
{
"table_dependencies": [ --表依赖详情
{
"table": "`employees`",
"row_may_be_null": false,
"map_bit": 0,
"depends_on_map_bits": [
] /* depends_on_map_bits */
}
] /* table_dependencies */
},
{
"ref_optimizer_key_uses": [
] /* ref_optimizer_key_uses */
},
{
"rows_estimation": [ --预估表的访问成本
{
"table": "`employees`",
"range_analysis": {
"table_scan": { --全表扫描情况
"rows": 10123, --扫描行数
"cost": 2054.7 --查询成本
} /* table_scan */,
"potential_range_indexes": [ --查询可能使用的索引
{
"index": "PRIMARY", --主键索引
"usable": false,
"cause": "not_applicable"
},
{
"index": "idx_name_age_position", --辅助索引
"usable": true,
"key_parts": [
"name",
"age",
"position",
"id"
] /* key_parts */
}
] /* potential_range_indexes */,
"setup_range_conditions": [
] /* setup_range_conditions */,
"group_index_range": {
"chosen": false,
"cause": "not_group_by_or_distinct"
} /* group_index_range */,
"analyzing_range_alternatives": { --分析各个索引使用成本
"range_scan_alternatives": [
{
"index": "idx_name_age_position",
"ranges": [
"a < name" --索引使用范围
] /* ranges */,
"index_dives_for_eq_ranges": true,
"rowid_ordered": false, --使用该索引获取的记录是否按照主键排序
"using_mrr": false,
"index_only": false, --是否使用覆盖索引
"rows": 5061, --索引扫描行数
"cost": 6074.2, --索引使用成本
"chosen": false, --是否选择该索引
"cause": "cost"
}
] /* range_scan_alternatives */,
"analyzing_roworder_intersect": {
"usable": false,
"cause": "too_few_roworder_scans"
} /* analyzing_roworder_intersect */
} /* analyzing_range_alternatives */
} /* range_analysis */
}
] /* rows_estimation */
},
{
"considered_execution_plans": [
{
"plan_prefix": [
] /* plan_prefix */,
"table": "`employees`",
"best_access_path": { --最优访问路径
"considered_access_paths": [ --最终选择的访问路径
{
"rows_to_scan": 10123,
"access_type": "scan", --访问类型:为scan,全表扫描
"resulting_rows": 10123,
"cost": 2052.6,
"chosen": true, --确定选择
"use_tmp_table": true
}
] /* considered_access_paths */
} /* best_access_path */,
"condition_filtering_pct": 100,
"rows_for_plan": 10123,
"cost_for_plan": 2052.6,
"sort_cost": 10123,
"new_cost_for_plan": 12176,
"chosen": true
}
] /* considered_execution_plans */
},
{
"attaching_conditions_to_tables": {
"original_condition": "(`employees`.`name` > 'a')",
"attached_conditions_computation": [
] /* attached_conditions_computation */,
"attached_conditions_summary": [
{
"table": "`employees`",
"attached": "(`employees`.`name` > 'a')"
}
] /* attached_conditions_summary */
} /* attaching_conditions_to_tables */
},
{
"clause_processing": {
"clause": "ORDER BY",
"original_clause": "`employees`.`position`",
"items": [
{
"item": "`employees`.`position`"
}
] /* items */,
"resulting_clause_is_simple": true,
"resulting_clause": "`employees`.`position`"
} /* clause_processing */
},
{
"reconsidering_access_paths_for_index_ordering": {
"clause": "ORDER BY",
"steps": [
] /* steps */,
"index_order_summary": {
"table": "`employees`",
"index_provides_order": false,
"order_direction": "undefined",
"index": "unknown",
"plan_changed": false
} /* index_order_summary */
} /* reconsidering_access_paths_for_index_ordering */
},
{
"refine_plan": [
{
"table": "`employees`"
}
] /* refine_plan */
}
] /* steps */
} /* join_optimization */
},
{
"join_execution": { --第三阶段:SQL执行阶段
"select#": 1,
"steps": [
] /* steps */
} /* join_execution */
}
] /* steps */
}
结论:全表扫描的成本低于索引扫描,所以mysql最终选择全表扫描
mysql> select * from employees where name > 'zzz' order by position;
mysql> SELECT * FROM information_schema.OPTIMIZER_TRACE;
查看trace字段可知索引扫描的成本低于全表扫描,所以mysql最终选择索引扫描
mysql> set session optimizer_trace="enabled=off"; --关闭trace
Case1:
分析:
利用最左前缀法则:中间字段不能断,因此查询用到了name索引,从key_len=74也能看出,age索引列用在排序过程中,因为Extra字段里没有using filesort
Case 2:
分析:
从explain的执行结果来看:key_len=74,查询使用了name索引,由于用了position进行排序,跳过了age,出现了Using filesort。
Case 3:
分析:
查找只用到索引name,age和position用于排序,无Using filesort。
Case 4:
分析:
和Case 3中explain的执行结果一样,但是出现了Using filesort,因为索引的创建顺序为name,age,position,但是排序的时候age和position颠倒位置了。
Case 5:
分析:
与Case 4对比,在Extra中并未出现Using filesort,因为age为常量,在排序中被优化,所以索引未颠倒,不会出现Using filesort。
Case 6:
分析:
虽然排序的字段列与索引顺序一样,且order by默认升序,这里position desc变成了降序,导致与索引的排序方式不同,从而产生Using filesort。Mysql8以上版本有降序索引可以支持该种查询方式。
Case 7:
分析:
对于排序来说,多个相等条件也是范围查询
Case 8:
可以用覆盖索引优化
1.MySQL支持两种方式的排序filesort和index,Using index是指MySQL扫描二级索引本身完成排序,Using filesort是扫描聚簇索引(即是全局扫描)完成排序的,InnoDB引擎底层数据库表对应磁盘的ibd文件中既包含二级索引也包含聚簇索引。但是index效率高,filesort效率低。
2.order by满足两种情况会使用Using index。
1) order by语句使用索引最左前列。
2) 使用where子句与order by子句条件列组合满足索引最左前列。
3、尽量在索引列上完成排序,遵循索引建立(索引创建的顺序)时的最左前缀法则。
4、如果order by的条件不在索引列上,就会产生Using filesort。
5、能用覆盖索引尽量用覆盖索引
6、group by与order by很类似,其实质是先排序后分组,遵照索引创建顺序的最左前缀法则。对于group by的优化如果不需要排序的可以加上order by null禁止排序。注意,where高于having,能写在where中的限定条件就不要去having限定了。
MySQL 通过比较系统变量 max_length_for_sort_data(默认1024字节) 的大小和需要查询的字段总大小来判断使用哪种排序模式。
示例验证下各种排序方式:
查看下这条sql对应trace结果如下(只展示排序部分):
mysql> set session optimizer_trace="enabled=on",end_markers_in_json=on; --开启trace
mysql> select * from employees where name = 'zhuge' order by position;
mysql> select * from information_schema.OPTIMIZER_TRACE;
trace排序部分结果:
"join_execution": { --Sql执行阶段
"select#": 1,
"steps": [
{
"filesort_information": [
{
"direction": "asc",
"table": "`employees`",
"field": "position"
}
] /* filesort_information */,
"filesort_priority_queue_optimization": {
"usable": false,
"cause": "not applicable (no LIMIT)"
} /* filesort_priority_queue_optimization */,
"filesort_execution": [
] /* filesort_execution */,
"filesort_summary": { --文件排序信息
"rows": 10000, --预计扫描行数
"examined_rows": 10000, --参与排序的行
"number_of_tmp_files": 3, --使用临时文件的个数,这个值如果为0代表全部使用的sort_buffer内存排序,否则使用的磁盘文件排序
"sort_buffer_size": 262056, --排序缓存的大小,单位Byte
"sort_mode": "" --排序方式,这里用的单路排序
} /* filesort_summary */
}
] /* steps */
} /* join_execution */
mysql> set max_length_for_sort_data = 10; --employees表所有字段长度总和肯定大于10字节
mysql> select * from employees where name = 'zhuge' order by position;
mysql> select * from information_schema.OPTIMIZER_TRACE;
trace排序部分结果:
"join_execution": {
"select#": 1,
"steps": [
{
"filesort_information": [
{
"direction": "asc",
"table": "`employees`",
"field": "position"
}
] /* filesort_information */,
"filesort_priority_queue_optimization": {
"usable": false,
"cause": "not applicable (no LIMIT)"
} /* filesort_priority_queue_optimization */,
"filesort_execution": [
] /* filesort_execution */,
"filesort_summary": {
"rows": 10000,
"examined_rows": 10000,
"number_of_tmp_files": 2,
"sort_buffer_size": 262136,
"sort_mode": "" --排序方式,这里用的双路排序
} /* filesort_summary */
}
] /* steps */
} /* join_execution */
mysql> set session optimizer_trace="enabled=off"; --关闭trace
SQL语句为: select * from employees where name = 'zhuge' order by position;
我们先看单路排序的详细过程:(其实就是直接使用聚簇索引的详细过程)
1.从索引name找到第一个满足name="zhuge"条件的主键id
2.根据主键id取出整行,取出所有字段的值,存入到sort_buffer中
3.从索引name找到下一个满足name="zhuge"条件的主键id
4.重复步骤2和3直到不满足name="zhuge"为止
5.对sort_buffer中的数据按照字段position进行排序
6.返回结果给客户端
我们再看下双路排序的详细过程:(其实就是走二级索引然后根据主键字段回表到聚簇索引找到所有需要的字段的数据值)
1.从索引 name 找到第一个满足 name = ‘zhuge’ 的主键id
2.根据主键 id 取出整行,把排序字段 position 和主键 id 这两个字段放到 sort buffer 中
3.从索引 name 取下一个满足 name = ‘zhuge’ 记录的主键 id
4.重复 3、4 直到不满足 name = ‘zhuge’
5.对 sort_buffer 中的字段 position 和主键 id 按照字段 position 进行排序
6.遍历排序好的 id 和字段 position,按照 id 的值回到原表中取出 所有字段的值返回给客户端
总结:
其实对比两个排序模式,单路排序会把所有需要查询的字段都放到 sort buffer 中,而双路排序只会把主键和需要排序的字段放到 sort buffer 中进行排序,然后再通过主键回到原表查询需要的字段。
其实说白了就是:单路排序就是走聚簇索引全表进行扫描。双路排序就是走二级索引但是二级索引对应的B+树存储结构中没有select *想要的所有字段,那么就会需要根据对应的主键字段进行回表操作到聚簇索引中进行获取其它的所有字段的数据值。
如果 MySQL 排序内存 sort_buffer 配置的比较小并且没有条件继续增加了,可以适当把 max_length_for_sort_data 配置小点,让优化器选择使用双路排序算法,可以在sort_buffer 中一次排序更多的行,只是需要再根据主键回到原表取数据。
如果 MySQL 排序内存有条件可以配置比较大,可以适当增大 max_length_for_sort_data 的值,让优化器优先选择全字段排序(单路排序),把需要的字段放到 sort_buffer 中,这样排序后就会直接从内存里返回查询结果了。
所以,MySQL通过 max_length_for_sort_data 这个参数来控制排序,在不同场景使用不同的排序模式,从而提升排序效率。
注意,如果全部使用sort_buffer内存排序一般情况下效率会高于磁盘文件排序,但不能因为这个就随便增大sort_buffer(默认1M),mysql很多参数设置都是做过优化的,不要轻易调整。
不知大家一般是怎么给数据表建立索引的,是建完表马上就建立索引吗?
这其实是不对的,一般应该等到主体业务功能开发完毕,把涉及到该表相关sql都要拿出来分析之后再建立索引。
比如可以设计一个或者两三个联合索引(尽量少建立单值索引),让每一个联合索引都尽量的去包含sql语句里面的where , order by,group by的字段,还要确保这些联合索引的字段顺序尽量满足sql查询的最左前缀原则。
索引基数是指这个字段在表里总共有多少个不同的值,比如一张表总共100万行记录,其中有个性别字段,其值不是男就是女,那么该字段的基数就是2。
如果对这种小基数字段建立索引的话,还不如全表扫描了,因为你的索引树里就包含男和女两种值,根本没法进行快速的二分查找,那用索引就没有太大的意义了。
一般建立索引,尽量使用那些基数比较大的字段,就是值比较多的字段,那么才能发挥出B+树快速二分查找的优势来。
尽量对字段类型较小的列设计索引,比如说什么tinyint 之类的,因为字段类型较小的话,占用磁盘空间也会比较小,此时你在搜索的时候使用到索引时性能消耗也比较小,会好很多。
当然,这个所谓的字段类型小一点的列,也不是绝对的,很多时候你就是要针对varchar(255)这种字段建立索引,哪怕多占用一些磁盘空间也是有必要的。
对于这种varchar(255)的大字段可能会比较占用磁盘空间,可以稍微优化下,比如针对这个字段的前20个字符建立索引,就是说,对这个字段里的每个值的前20个字符放在索引树里,类似于 KEY index(name(20),age,position)。
此时你在where条件里搜索的时候,如果是根据name字段来搜索,那么此时就会先到索引树里根据name字段的前20个字符去搜索,定位到之后前20个字符的前缀匹配的部分数据之后,再回到聚簇索引提取出来完整的name字段值进行比对。
根据MySQL官方给出的结论,我们仅仅使用name字段的前20个字符进行范围查询时,可以正确完整查询到name全部字符查询时90%以上的结果。这个比例是相当的高的,所以说可以这样进行优化操作。
但是假如你要是order by name,那么此时你的name因为在索引树里仅仅包含了前20个字符,所以这个排序是没法用上索引的, group by也是同理。所以这里大家要对前缀索引有一个了解。
在where和order by出现索引设计冲突时,到底是针对where去设计索引,还是针对order by去设计索引?到底是让where使用上索引,还是让order by使用上索引?
一般这种时候往往都是让where条件去使用索引来快速筛选出来一部分指定的数据,接着再进行排序。
因为大多数情况基于索引进行where筛选往往可以最快速度筛选出你要的少部分数据,然后做排序的成本可能会小很多。
可以根据监控后台的一些慢sql,针对这些慢sql查询做特定的索引优化。
所谓慢查询就是在MySQL设置一个参数,这个参数即是慢查询的标准参数,假设说超过10秒就被视为是一个慢查询,默认就是10秒。把收集到的慢查询SQL记录到后台,然后由我们逐一进行优化即可。
关于慢sql查询不清楚的可以参考这篇文章:mysql慢查询_八点半的Bruce丶D的博客-CSDN博客
以社交场景APP来举例,我们一般会去搜索一些好友,这里面就涉及到对用户信息的筛选,这里肯定就是对用户user表搜索了,这个表一般来说数据量会比较大,我们先不考虑分库分表的情况,比如,我们一般会筛选地区(省市),性别,年龄,身高,爱好之类的,有的APP可能用户还有评分,比如用户的受欢迎程度评分,我们可能还会根据评分来排序等等。
对于后台程序来说除了过滤用户的各种条件,还需要分页之类的处理,可能会生成类似sql语句执行:
select xx from user where xx=xx and xx=xx order by xx limit xx,xx
对于这种情况如何合理设计索引了,比如用户可能经常会根据省市优先筛选同城的用户,还有根据性别去筛选,那我们是否应该设计一个联合索引 (province,city,sex) 了?这些字段好像基数都不大,其实是应该的,因为这些字段查询太频繁了。
假设又有用户根据年龄范围去筛选了,比如 where province=xx and city=xx and age>=xx and age=xx and age
对于爱好之类的字段也可以类似sex字段处理,所以可以把爱好字段也加入索引 (province,city,sex,hobby,age)
假设可能还有一个筛选条件,比如要筛选最近一周登录过的用户,一般大家肯定希望跟活跃用户交友了,这样能尽快收到反馈,对应后台sql可能是这样:
where province=xx and city=xx and sex in ('female','male') and age>=xx and age= xx
那我们是否能把 latest_login_time 字段也加入索引了?比如 (province,city,sex,hobby,age,latest_login_time) ,显然是不行的,那怎么来优化这种情况了?其实我们可以试着再设计一个字段is_login_in_latest_7_days,用户如果一周内有登录值就为1,否则为0,那么我们就可以把索引设计成 (province,city,sex,hobby,is_login_in_latest_7_days,age) 来满足上面那种场景了!
一般来说,通过这么一个多字段的索引是能够过滤掉绝大部分数据的,就保留小部分数据下来基于磁盘文件进行order by语句的排序,最后基于limit进行分页,那么一般性能还是比较高的。
不过有时可能用户会这么来查询,就查下受欢迎度较高的女性,比如sql:where sex = 'female' order by score limit xx,xx,那么上面那个索引是很难用上的,不能把太多的字段以及太多的值都用 in 语句拼接到sql里的,那怎么办了?其实我们可以再设计一个辅助的联合索引,比如 (sex,score),这样就能满足查询要求了。
以上就是给大家讲的一些索引设计的思路了,核心思想就是,尽量利用一两个复杂的多字段联合索引,抗下你80%以上的查询,然后用一两个辅助索引尽量抗下剩余的一些非典型查询,保证这种大数据量表的查询尽可能多的都能充分利用索引,这样就能保证你的查询速度和性能了!
链接:社交场景APP用户筛选流程架构图| ProcessOn免费在线作图,在线流程图,在线思维导图
从之前的学习可知,索引最好设置为联合索引,因为联合索引涉及面广。并且一个索引对应一颗索引树,维护也是需要成本的。
但是对于索引设置的数量需要结合具体场景来说:
我们知道,SQL写操作的时候,我们需要在所有索引底层存储结构的B+树的叶子节点进行维护数据,保持一致性,如果索引建立过多,那么需要维护的索引树也就越多,所以得出后面的结论:写的情况多时,建立索引就少建立一些!
读多写少时,互联网大多数都是读多写少的情况,这种情况可以多建几个索引,可以建立三四个索引
读多写也多时,索引尽量少建一些,建立一个或两个索引即可