- 作者简介:大家好,我是爱吃芝士的土豆倪,24届校招生Java选手,很高兴认识大家
- 系列专栏:Spring源码、JUC源码
- 如果感觉博主的文章还不错的话,请三连支持一下博主哦
- 博主正在努力完成2023计划中:源码溯源,一探究竟
- 联系方式:nhs19990716,加我进群,大家一起学习,一起进步,一起对抗互联网寒冬
提到接口优化,相信最直接的就是会想到添加索引。没错,添加索引就是成本最小的优化,而且一般优化效果都很不错。
索引优化这块的话,一般从这几个维度去思考:
我们开发的时候,容易疏忽而忘记给SQL添加索引。所以我们在写完SQL
的时候,就顺手查看一下 explain
执行计划。
explain select * from user_info where userId like '%123';
你也可以通过命令show create table
,整张表的索引情况。
show create table user_info;
如果某个表忘记添加某个索引,可以通过alter table add index
命令添加索引
alter table user_info add index idx_name (name);
一般就是:SQL
的where
条件的字段,或者是order by 、group by
后面的字段需需要添加索引。
在sql前面加上explain
关键字,就能够看到它的执行计划,通过执行计划,我们可以清楚的看到表和索引执行的情况,索引有没有执行、索引执行顺序和索引的类型等。
用一条简单的sql看看使用explain关键字的效果:
explain select * from test1;
该列的值是select查询中的序号,比如:1、2、3、4等,它决定了表的执行顺序。
某条sql的执行计划中一般会出现三种情况:
id相同:
执行sql如下:
explain select * from test1 t1 inner join test1 t2 on t1.id=t2.id
结果:
图中我们看到执行结果中的两条数据id都是1,是相同的。
这种情况表的执行顺序是怎么样的呢?
答案:从上到下执行,先执行表t1,再执行表t2。
id不同:
执行sql如下:
explain select * from test1 t1 where t1.id = (select id from test1 t2 where t2.id=2);
结果:
我们看到执行结果中两条数据的id不同,第一条数据是1,第二条数据是2。
这种情况表的执行顺序是怎么样的呢?
答案:序号大的先执行,这里会从下到上执行,先执行表t2,再执行表t1。
id相同和不同都有:
执行sql如下:
explain
select t1.* from test1 t1
inner join (select max(id) mid from test1 group by id) t2
on t1.id=t2.mid
结果:
我们看到执行结果中三条数据,前面两条数据的的id相同,第三条数据的id跟前面的不同。
这种情况表的执行顺序又是怎么样的呢?
答案:先执行序号大的,先从下而上执行。遇到序号相同时,再从上而下执行。所以这个列子中表的顺序顺序是:test1、t1
常用的其实就是下面几个:
下面看看这些SELECT类型具体是怎么出现的:
SIMPLE
执行sql如下:
explain select * from test1;
结果:
它只在简单SELECT查询中出现,不包含子查询和UNION,这种类型比较直观就不多说了。
PRIMARY 和 SUBQUERY
explain select * from test1 t1 where t1.id = (select id from test1 t2 where t2.id=2);
结果:
我们看到这条嵌套查询的sql中,最外层的t1表是PRIMARY类型,而最里面的子查询t2表是SUBQUERY类型。
DERIVED
执行sql如下:
explain
select t1.* from test1 t1
inner join (select max(id) mid from test1 group by id) t2
on t1.id=t2.mid
结果:
最后一条记录就是衍生表,它一般是FROM列表中包含的子查询,这里是sql中的分组子查询。
UNION 和 UNION RESULT
执行sql如下:
explain
select * from test1
union
select* from test2
结果:
test2表是UNION关键字之后的查询,所以被标记为UNION,test1是最主要的表,被标记为PRIMARY。而
UNION 和 UNION RESULT一般会成对出现。
此外,回答上面的问题:id列的值允许为空吗?
如果仔细看上面那张图,会发现id列是可以允许为空的,并且是在SELECT类型为: UNION RESULT的时候。
该列的值表示输出行所引用的表的名称,比如前面的:test1、test2等。
但也可以是以下值之一:
该列的值表示查询将从中匹配记录的分区
该列的值表示连接类型,是查看索引执行情况的一个重要指标。
执行结果从最好到最坏的的顺序是从上到下。
我们需要重点掌握的是下面几种类型:
system > const > eq_ref > ref > range > index > ALL
在演示之前,先说明一下test2表中只有一条数据:
并且code字段上面建了一个普通索引:
下面逐一看看常见的几个连接类型是怎么出现的:
system
这种类型要求数据库表中只有一条数据,是const类型的一个特例,一般情况下是不会出现的。
const
通过一次索引就能找到数据,一般用于主键或唯一索引作为条件的查询sql中,执行sql如下:
explain select * from test2 where id=1;
结果:
eq_ref
常用于主键或唯一索引扫描。执行sql如下:
explain select * from test2 t1 inner join test2 t2 on t1.id=t2.id;
结果:
此时,有人可能感到不解,const和eq_ref都是对主键或唯一索引的扫描,有什么区别?
答:const只索引一次,而eq_ref主键和主键匹配,由于表中有多条数据,一般情况下要索引多次,才能全部匹配上。
ref
常用于非主键和唯一索引扫描。执行sql如下:
explain select * from test2 where code = '001';
结果:
range
常用于范围查询,比如:between … and 或 In 等操作,执行sql如下:
explain select * from test2 where id between 1 and 2;
结果:
index
全索引扫描。执行sql如下:
explain select code from test2;
结果:
ALL
全表扫描。执行sql如下:
explain select * from test2;
结果:
explain select * from test1 t1 where t1.id = (select id from test1 t2 where t2.id=2);
该列表示可能的索引选择。
该列表示实际用到的索引。
可能会出现possible_keys列为NULL,但是key不为NULL的情况。
演示之前,先看看test1表结构:
test1表中数据:
使用的索引:
code和name字段使用了联合索引。
explain select code from test1;
结果:
这条sql预计没有使用索引,但是实际上使用了全索引扫描方式的索引。
该列表示使用索引的长度。上面的key列可以看出有没有使用索引,key_len列则可以更进一步看出索引使用是否充分。不出意外的话,它是最重要的列。
有个关键的问题浮出水面:key_len是如何计算的?
决定key_len值的三个因素:
常用的字符编码占用字节数量如下:
目前我的数据库字符编码格式用的:UTF8占3个字节。
mysql常用字段占用字节数:
此外,如果字段类型允许为空则加1个字节。
上图中的 184是怎么算的?
184 = 30 * 3 + 2 + 30 * 3 + 2
再把test1表的code字段类型改成char,并且改成允许为空:
执行sql如下:
explain select code from test1;
结果:
怎么算的? 183 = 30 * 3 + 1 + 30 * 3 + 2
还有一个问题:为什么这列表示索引使用是否充分呢,还有使用不充分的情况?
执行sql如下:
explain select code from test1 where code='001';
结果:
上图中使用了联合索引:idx_code_name,如果索引全匹配key_len应该是183,但实际上却是92,这就说明没有使用所有的索引,索引使用不充分。
当"EXPLAIN"语句中的"key_len"显示使用索引不充分时,意味着查询在执行时没有充分利用表的索引,可能会导致以下后果:
该列表示索引命中的列或者常量。
执行sql如下:
explain select * from test1 t1 inner join test1 t2 on t1.id=t2.id where t1.code='001';
结果:
我们看到表t1命中的索引是const(常量),而t2命中的索引是列sue库的t1表的id字段。
该列表示MySQL认为执行查询必须检查的行数。
对于InnoDB表,此数字是估计值,可能并不总是准确的。
该字段包含有关MySQL如何解析查询的其他信息,这列还是挺重要的,但是里面包含的值太多,就不一一介绍了,只列举几个常见的。
Impossible WHERE
表示WHERE后面的条件一直都是false
explain select code from test1 where 'a' = 'b';
Using filesort
表示按文件排序,一般是在指定的排序和索引排序不一致的情况才会出现。
explain select code from test1 order by name desc;
这里建立的是code和name的联合索引,顺序是code在前,name在后,这里直接按name降序,跟之前联合索引的顺序不一样。
Using index
表示是否用了覆盖索引,说白了它表示是否所有获取的列都走了索引。
Using temporary
表示是否使用了临时表,一般多见于order by 和 group by语句。
explain select name from test1 group by name;
Using where
表示使用了where条件过滤。
先用慢查询日志定位具体需要优化的sql
使用explain执行计划查看索引使用情况
重点关注:
一般情况下根据这4列就能找到索引问题。
以一个慢sql工单举例,大概是这样的 “select xxx from tabel where type = 1”。
咦,type字段明明有索引啊,为啥是慢sql呢?
通过执行explain,发现实际上数据库执行了全表扫描,从而被系统判定为慢sql。所以这就要分析有索引的情况,索引为什么失效了。
假如表中有个组合索引,idx_start_org_code_start_province_id_trans_type,它的索引顺序如下:
start_org_code,
start_province_id,
trans_type
当我们从第二个索引字段开始查询时就不会走索引:
因为不满足索引的 最左匹配原则,该原则只适用于 1 12 123 这种查询情况。
当我们用主键做条件时,走索引了:
而当id列上面有计算,比如:
可以看到走了全表扫描
有时候我们在某条sql语句的查询条件中,需要使用函数,比如:截取某个字段的长度:
有没有发现,在使用该函数之后,该sql语句竟然走了全表扫描,索引失效了
在sql语句中因为字段类型不同,而导致索引失效的问题,很容易遇到,可能是我们日常工作中最容易忽略的问题。
到底怎么回事呢?
我们看下表里的start_org_code字段,它是varchar字符类型的
在sql语句查询数据时,查询条件我们可以写成这样:
从上图中看到,该字段走了索引
但如果在写sql时,不小心把引号丢了:
咦,该sql语句居然变成全表扫描了,为什么索引失效了?
答:因为这个索引列是varchar类型,而传参的类型是int,mysql在比较两种不同类型的字段时会尝试把这两个转化为同一种类型,再进行比较。这样就可以理解为在字段上加了函数,根据上面分析,索引列加了函数会索引失效。
比较有意思的是,如果int类型的id字段,在查询时加了引号条件,却还可以走索引:
从图中看出该sql语句确实走了索引。int类型的参数,不管在查询时加没加引号,都能走索引。
答:MySQL发现如果是int类型字段作为查询条件时,它会自动将该字段的传参进行隐式转换,把字符串转换成int类型。
MySQL会把上面列子中的字符串12348,转换成数字12348,所以仍然能走索引。
事实上,索引列上对字段做任何操作都会导致索引失效,因为mysq认为任何计算或者函数都会改变索引的实际效果,如果继续使用索引可能会造成结果不准确。
答:其实很好理解,索引就像字典中的目录。一般目录是按字母或者拼音从小到大,从左到右排序,是有顺序的。
我们在查目录时,通常会先从左边第一个字母进行匹对,如果相同,再匹对左边第二个字母,如果再相同匹对其他的字母,以此类推。
通过这种方式我们能快速锁定一个具体的目录,或者缩小目录的范围。
但如果你硬要跟目录的设计反着来,先从字典目录右边匹配第一个字母,这画面你可以自行脑补一下,你眼中可能只剩下绝望了,哈哈
假如我们现在有这样一个需求:过滤出表中某两列值相同的记录。例如:
索引失效了吧?惊不惊喜?
答:表里create_time和update_time都建了索引,单独查询某一字段时都会走索引。但如果把两个单独建了索引的列,用来做列对比时索引会失效。这其实和在索引列上加函数一个原理,MySQL认为索引无法满足需求。
该部分主要参考来自 京东云开发者团队
这几个有异曲同工之处,就放一起说了。这里就不像上面几种情况100%不走索引了,而是有时候会走索引,有时候不走索引。到底走不走?成本计算说了算。
查询优化器是 MySQL 的核心子系统之一,成本计算又是查询优化器的核心逻辑。
全表扫描成本作为参照物,用于和表的其它访问方式的成本做对比。任何一种访问方式,只要成本超过了全表扫描成本,就不会被使用。
基于全表扫描成本的重要地位,要讲清楚 MySQL 的成本计算逻辑,从全表扫描成本计算开始是个不错的选择。
我们先来看一下Mysql源码里成本计算的定义:
class Cost_estimate {
private:
// cost of I/O operations
double io_cost;
// cost of CPU operations
double cpu_cost;
// cost of remote operations
double import_cost;
// memory used (bytes)
double mem_cost;
......
}
从上面代码可以看到,MySQL 成本计算模型定义了四种成本:
全表扫描的成本就只剩 IO 成本、CPU 成本这两项了
计算成本
我们先从整体计算公式开始,然后逐步拆解。
全表扫描成本 =io_cost+ 1.1 +cpu_cost+ 1
io_cost 后面的1.1是硬编码直接加到 IO 成本上的;cpu_cost 后面的1也是硬编码的,直接加到 CPU 成本上。代码里长这样:
int test_quick_select(...) {
......
double scan_time =
cost_model->row_evaluate_cost(static_cast<double>(records))
+ 1 /* cpu_cost 后面的 + 1 */;
Cost_estimate cost_est = table->file->table_scan_cost();
// io_cost 后面的 + 1.1
cost_est.add_io(1.1);
......
}
关于这两个硬编码的值,代码里没有注释为什么要加,不过它们是个固定值,不影响我们理解成本计算逻辑,先忽略它们。
io_cost =cluster_page_count*avg_single_page_cost。
cluster_page_count 是主键索引数据页数量,从表的统计信息中得到
avg_single_page_cost 是读取一个数据页的平均成本,通过计算得到,公式如下:
avg_single_page_cost =pages_in_memory_percent * 0.25 +pages_on_disk_percent * 1.0
pages_in_memory_percent 是主键索引已经加载到 Buffer Pool中的叶结点占所有叶结点的比例,用小数表示(取值范围 0.0 ~ 1.0),例如:80% 表示为 0.8。
pages_on_disk_percent 是主键索引在磁盘文件中的叶结点占所有叶结点的比例,通过1 - pages_in_memory_percent计算得到。
0.25是成本常数 memory_block_read_cost的默认值,表示从 Buffer Pool 中的一个数据页读取数据的成本。
1.0是成本常数io_block_read_cost的默认值,表示把磁盘文件中的一个数据页加载到 Buffer Pool 的成本,加上从 Buffer Pool 中的该数据页读取数据的成本。
cpu_cost = n_rows * 0.1。
n_rows 是表中记录的数量,从表的统计信息中得到,在统计信息小节会介绍。
0.1是成本常数row_evaluate_cost的默认值,表示访问一条记录的 CPU 成本。
有了上面这些公式,我们通过一个具体例子走一遍全表扫描成本计算的过程。
假设一个表有 15228 条记录,主键索引数据页的数量为 739,主键索引数据页已经全部加载到 Buffer Pool(pages_in_memory_percent = 1.0),下面我们开始计算过程:
这样,其实在涉及到有索引的查询,索引失效,很有可能是因为成本超过了全表扫描成本,就不会被使用。
我们的索引不是越多越好,需要合理设计。比如:
删除冗余和重复索引。
索引一般不能超过5
个
索引不适合建在有大量重复数据的字段上、如性别字段
适当使用覆盖索引
如果需要使用force index
强制走某个索引,那就需要思考你的索引设计是否真的合理了
查询和更新SQL必须命中索引。查询SQL如果没命中索引,在访问量较大时,会出现大量慢查询,严重时会导致整个MySQL集群雪崩,影响到其他表、其他数据库。所以一定要严格审查SQL是否命中索引。可以使用explain命令查看索引使用情况。
在SQL更新场景,MySQL会在索引上加锁,如果没有命中索引会对全表加锁,全表的更新操作都会被阻塞住。所以更新SQL更要确保命中索引。
解释: 在SQL更新场景中,MySQL会在索引上加锁,这是为了保证数据的一致性和并发控制。当执行更新操作时,MySQL会先检查是否存在适用的索引来定位需要更新的数据行。如果存在适用的索引,MySQL会在该索引上加锁,只锁定需要更新的数据行,其他数据行不会被阻塞。这样可以提高并发性能,减少锁冲突。
然而,如果更新操作没有命中索引,即没有适用的索引可以定位需要更新的数据行,MySQL会执行全表扫描来查找需要更新的数据行。在这种情况下,MySQL会对整个表加锁,这会导致全表的更新操作被阻塞住,其他查询和更新操作也会受到影响。
因此,为了避免这种情况的发生,需要严格审查SQL是否命中索引。可以使用"explain"命令来查看SQL的执行计划,从而判断是否有使用索引。这样可以及早发现潜在的问题,并及时采取措施进行优化和调整。
除此之外,最好索引字段能够完全覆盖查询需要的字段。MySQL索引分主键索引和普通索引。普通索引命中后,往往需要再查询主键索引获取记录的全部字段。如果索引字段完全包含查询的字段,即索引覆盖查询,就无需再回查主键索引,可以有效提高查询性能。
SQL优化是一个大的章节,本质上是因为抛开索引外,就sql语句本身 就有很多优化的点。
一般来说,不建议使用子查询,可以把子查询改成join
来优化。
是因为子查询导致无法评估子查询的成本,导致选择了不够高效的执行计划,这可能导致查询性能下降,特别是当子查询返回的结果集较大或者较复杂时。其次,在某些情况下,数据库优化器可能无法正确地利用索引来优化子查询的执行计划。这可能会导致查询性能下降,特别是当子查询涉及到复杂的条件或者无法直接使用索引的情况下。
当你需要从两个相关的表中检索数据时,可以使用 JOIN 或者子查询。以下是一个示例,分别展示了使用 JOIN 和子查询来实现相同的功能:
假设我们有两个表:orders
(订单信息)和 customers
(顾客信息),它们之间通过 customer_id
进行关联。
使用 JOIN 的示例:
sqlCopy CodeSELECT orders.order_id, customers.customer_name
FROM orders
JOIN customers ON orders.customer_id = customers.customer_id;
使用子查询的示例:
sqlCopy CodeSELECT order_id,
(SELECT customer_name FROM customers WHERE customer_id = orders.customer_id) AS customer_name
FROM orders;
在这个示例中,两种方法都可以用来获取订单信息以及对应的顾客名称。然而,通常情况下,使用 JOIN 会更有效率,因为数据库通常能够更好地优化和处理 JOIN 操作,而且语句也更易读和维护。
当然,并不是所有情况都适合使用 JOIN,有时候子查询是更合适的选择,特别是在需要处理复杂逻辑或者特定场景下。但总体来说,尽量优先考虑使用 JOIN 来进行表关联操作。
数据库有个规范约定就是:尽量不要有超过3个以上的表连接。为什么要这么建议呢? 我们来聊聊,join
哪些方面可能导致慢查询吧。
MySQL中,join的执行算法,分别是:Index Nested-Loop Join
和Block Nested-Loop Join
。
Index Nested-Loop Join
:这个join算法,跟我们写程序时的嵌套查询类似,并且可以用上被驱动表的索引。Block Nested-Loop Join
:这种join算法,被驱动表上没有可用的索引,它会先把驱动表的数据读入线程内存join_buffer
中,再扫描被驱动表,把被驱动表的每一行取出来,跟join_buffer
中的数据做对比,满足join条件的,作为结果集的一部分返回。join
过多的问题:
一方面,过多的表连接,会大大增加SQL复杂度。另外一方面,如果可以使用被驱动表的索引那还好,并且使用小表来做驱动表,查询效率更佳。
如果被驱动表没有可用的索引,join是在join_buffer
内存做的,如果匹配的数据量比较小或者join_buffer
设置的比较大,速度也不会太慢。但是,如果join
的数据量比较大时,mysql会采用在硬盘上创建临时表的方式进行多张表的关联匹配,这种显然效率就极低,本来磁盘的 IO 就不快,还要关联。
一般情况下,如果业务需要的话,关联2~3
个表是可以接受的,但是关联的字段需要加索引哈。如果需要关联更多的表,建议从代码层面进行拆分,在业务层先查询一张表的数据,然后以关联字段作为条件查询关联表形成map
,然后在业务层进行数据的拼装。
如果使用了in
,即使后面的条件加了索引,还是要注意in
后面的元素不要过多哈。in
元素一般建议不要超过500
个,如果超过了,建议分组,每次500
一组进行。
反例:
select user_id,name from user where user_id in (1,2,3...1000000);
如果我们对in的条件
不做任何限制的话,该查询语句一次性可能会查询出非常多的数据,很容易导致接口超时。
主要会造成以下三个问题:
尤其有时候,我们是用的子查询,in后面的子查询,你都不知道数量有多少那种,更容易采坑(所以我把in元素过多抽出来作为一个小节)
select * from user where user_id in (select author_id from artilce where type = 1);
正例是,分批进行,每批500个:
select user_id,name from user where user_id in (1,2,3...500);
如果传参的ids太多,还可以做个参数校验什么的
if (userIds.size() > 500) {
throw new Exception("单次查询的用户Id不能超过200");
}
order by
就一定会导致慢查询吗?不是这样的哈,因为order by
平时用得多,并且数据量一上来,还是走文件排序的话,很容易有慢SQL的。
我们平时经常需要用到order by
,主要就是用来给某些字段排序的。比如以下SQL:
select name,age,city from staff where city = '深圳' order by age limit 10;
它表示的意思就是:查询前10个,来自深圳员工的姓名、年龄、城市,并且按照年龄小到大排序。
查看explain
执行计划的时候,可以看到Extra
这一列,有一个Using filesort
,它表示用到文件排序。
order by
用到文件排序时,为什么查询效率会相对低呢?
order by
排序,分为全字段排序和rowid排序。它是拿max_length_for_sort_data
(系统参数)和结果行数据长度对比,如果结果行数据长度超过max_length_for_sort_data
(系统参数)这个值,就会走rowid排序,相反,则走全字段排序。
max_length_for_sort_data参数的值只在运行时确定,并且不允许手动更改。它的主要作用是限制排序操作所需的临时存储空间大小,以避免对系统资源的过度占用。在进行大规模排序操作时,如果超出了max_length_for_sort_data的限制,可能会导致排序失败或者性能下降。
rowid排序
rowid排序,一般需要回表去找满足条件的数据,所以效率会慢一点。以下这个SQL,使用rowid
排序,执行过程是这样:
select name,age,city from staff where city = '深圳' order by age limit 10;
sort_buffer
,放入需要排序的age
字段,以及主键id
;idx_city
, 找到第一个满足 city='深圳’
条件的主键id
,也就是图中的id=9
;主键id索引树
拿到id=9
的这一行数据, 取age和主键id
的值,存到sort_buffer
;idx_city
拿到下一个记录的主键id
,即图中的id=13
;city
的值不等于深圳为止;city
为深圳的数据,在sort_buffer
中,将所有数据根据age进行排序;id
的值回到原表中,取出city、name 和 age
三个字段返回给客户端。全字段排序
同样的SQL,如果是走全字段排序是这样的:
select name,age,city from staff where city = '深圳' order by age limit 10;
sort_buffer
,放入需要查询的name、age、city
字段;idx_city
, 找到第一个满足 city='深圳’
条件的主键 id,也就是图中的id=9
;id索引树
拿到id=9
的这一行数据, 取name、age、city
三个字段的值,存到sort_buffer
;idx_city
拿到下一个记录的主键id
,即图中的id=13
;city
的值不等于深圳为止;city
为深圳的数据,在sort_buffer
中,将所有数据根据age
进行排序;sort_buffer
的大小是由一个参数控制的:sort_buffer_size
。
sort_buffer_size
,排序在sort_buffer
内存中完成sort_buffer_size
,则借助磁盘文件来进行排序。借助磁盘文件排序的话,效率就更慢一点。因为先把数据放入sort_buffer
,当快要满时。会排一下序,然后把sort_buffer
中的数据,放到临时磁盘文件,等到所有满足条件数据都查完排完,再用归并算法把磁盘的临时排好序的小文件,合并成一个有序的大文件。
order by
使用文件排序,效率会低一点。我们怎么优化呢?
order by
语句。max_length_for_sort_data
、sort_buffer_size
等参数优化;有时候,我们查询一条很简单的SQL,但是却等待很长的时间,不见结果返回。一般这种时候就是表被锁住了,或者要查询的某一行或者几行被锁住了。我们只能慢慢等待锁被释放。
举一个生活的例子哈,你和别人合租了一间房子,这个房子只有一个卫生间的话。假设某一时刻,你们都想去卫生间,但是对方比你早了一点点。那么此时你只能等对方出来后才能进去。
一个生产慢SQL问题,当delete
遇到in
子查询时,即使有索引,也是不走索引的。而对应的select + in
子查询,却可以走索引。
delete from account where name in (select name from old_account);
查看执行计划,发现不走索引:
但是如果把delete
换成select
,就会走索引。如下:
为什么select + in
子查询会走索引,delete + in
子查询却不会走索引呢?
我们执行以下SQL看看:
explain select * from account where name in (select name from old_account);
show WARNINGS; //可以查看优化后,最终执行的sql
结果如下:
select `test2`.`account`.`id` AS `id`,`test2`.`account`.`name` AS `name`,`test2`.`account`.`balance` AS `balance`,`test2`.`account`.`create_time` AS `create_time`,`test2`.`account`.`update_time` AS `update_time` from `test2`.`account`
semi join (`test2`.`old_account`)
where (`test2`.`account`.`name` = `test2`.`old_account`.`name`)
可以发现,实际执行的时候,MySQL对select in
子查询做了优化,把子查询改成join
的方式,所以可以走索引。但是很遗憾,对于delete in
子查询,MySQL却没有对它做这个优化。
group by
一般用于分组统计,它表达的逻辑就是根据一定的规则,进行分组。日常开发中,我们使用得比较频繁。如果不注意,很容易产生慢SQL。
explain select city ,count(*) as num from staff group by city;
Using temporary
表示在执行分组的时候使用了临时表Using filesort
表示使用了文件排序group by
是怎么使用到临时表和排序了呢?我们来看下这个SQL的执行流程
select city ,count(*) as num from staff group by city;
创建内存临时表,表里有两个字段city和num
;
全表扫描staff
的记录,依次取出city = 'X'
的记录。
city='X'
的行,没有就插入一个记录 (X,1)
;city='X'
的行,就将X这一行的num值加 1;遍历完成后,再根据字段city
做排序,得到结果集返回给客户端。这个流程的执行图如下:
临时表的排序是怎样的呢?
就是把需要排序的字段,放到sort buffer,排完就返回。在这里注意一点哈,排序分全字段排序和rowid排序
group by
使用不当,很容易就会产生慢SQL 问题。因为它既用到临时表,又默认用到排序。有时候还可能用到磁盘临时表。
内存临时表
大小到达了上限(控制这个上限的参数就是tmp_table_size),会把内存临时表转成磁盘临时表。从哪些方向去优化呢?
group by
性能的X因素,我们是不是可以不用临时表?可以有这些优化方案:
group by 后面的字段加索引
如何保证group by后面的字段数值一开始就是有序的呢?当然就是加索引啦。
order by null 不用排序
select city ,count(*) as num from staff group by city order by null
尽量只使用内存临时表
如果group by需要统计的数据不多,我们可以尽量只使用内存临时表;因为如果group by 的过程因为数据放不下,导致用到磁盘临时表的话,是比较耗时的。因此可以适当调大tmp_table_size参数,来避免用到磁盘临时表。
使用SQL_BIG_RESULT优化
如果数据量实在太大怎么办呢?总不能无限调大tmp_table_size吧?但也不能眼睁睁看着数据先放到内存临时表,随着数据插入发现到达上限,再转成磁盘临时表吧?这样就有点不智能啦。
因此,如果预估数据量比较大,我们使用SQL_BIG_RESULT 这个提示直接用磁盘临时表。MySQl优化器发现,磁盘临时表是B+树存储,存储效率不如数组来得高。因此会直接用数组来存
select SQL_BIG_RESULT city ,count(*) as num from staff group by city;
执行计划的Extra字段可以看到,执行没有再使用临时表,而是只有排序
查询SQL尽量不要使用select *,而是select具体字段。只取需要的字段,节省资源,减少网络开销
select * 进行查询时,很可能就不会使用到覆盖索引了,就会造成回表查询
假设现在需要查询userid为1或者年龄为18岁的用户,很容易有以下SQL
select * from user where userid = 1 or age = 18
主要是因为使用or可能会使索引失效,从而全表扫描
对于or+没有索引的age这种情况,假设它走了userId的索引,但是走到age查询条件时,它还得全表扫描,也就是需要三步过程:全表扫描+索引扫描+合并
如果它一开始就走全表扫描,直接一遍扫描就完事。mysql是有优化器的,处于效率与成本考虑,遇到or条件,索引可能失效,看起来也合情合理。
Inner join 、left join、right join,优先使用Inner join,如果是left join,左边表结果尽量小
在SQL查询中,Inner join、Left join和Right join是三种主要的连接方式。它们的优先级并没有固定的规定,但在很多情况下,我们首选Inner join。原因如下:
根据实际需求和数据特点,Left join和Right join在某些场景下可能更合适。例如,当需要查询一个表中的所有记录,以及对另一个表进行关联查询时,可以使用Left join;而在需要查询一个表中的特定记录,以及对另一个表进行关联查询时,可以使用Right join。总之,要根据具体需求和数据特点来选择合适的连接方式。
都满足SQL需求的前提下,推荐优先使用Inner join(内连接),如果要使用left join,左边表数据结果尽量小,如果有条件的尽量放到左边处理。
反例:
select * from tab1 t1 left join tab2 t2 on t1.size = t2.size where t1.id > 2;
正例:
select * from (select * from tab1 where id > 2) t1 left join tab2 t2 on t1.size = t2.size;
覆盖索引能够使得你的SQL语句不需要回表,仅仅访问索引就能够得到所有需要的数据,大大提高了查询效率。
distinct 关键字一般用来过滤重复记录,以返回不重复的记录。在查询一个字段或者很少字段的情况下使用时,给查询带来优化效果。但是在字段很多的时候使用,却会大大降低查询效率。
反例:
SELECT DISTINCT * from user;
正例:
select DISTINCT name from user;
理由:
反例:
KEY `idx_userId`(`userId`)
KEY `idx_userId_age`(`userId`,`age`)
正例:
//删除userId索引,因为组合索引(A,B)相当于创建了(A)和(A,B)索引
KEY `idx_userId_age`(`userId`,`age`)
理由:
select * from user where age is not null
正例:
//设置0为默认值
select * from user where age>0;
理由:
如果mysql优化器发现,走索引比不走索引成本还要高,肯定会放弃索引,这些条件 !=,>isnull,isnotnull
经常被认为让索引失效,其实是因为一般情况下,查询的成本高,优化器自动放弃索引的。
如果把null值,换成默认值,很多时候让走索引成为可能,同时,表达意思会相对清晰一点。
假设表A表示某企业的员工表,表B表示部门表,查询所有部门的所有员工,很容易有以下SQL:
select * from A where deptId in (select deptId from B);
这样写等价于:
先查询部门表B
select deptId from B
再由部门deptId,查询A的员工
select * from A where A.deptId = B.deptId
可以抽象成这样的一个循环:
List<> resultSet;
for(int i = 0; i < B.length ; i++){
for(int j = 0; j < A.length ; j++){
if(A[i].id == B[j].id){
resultSet.add(A[i]);
break;
}
}
}
显然,除了使用in,我们也可以用exists实现一样的查询功能,如下:
select * from A where exists (select 1 from B where A.deptId = B.deptId);
因为exists查询的理解就是,先执行主查询,获得数据后,再放到子查询中做条件验证,根据验证结果(true或者false),来决定主查询的数据结果是否得意保留。
那么,这样写就等价于:
select * from A,先从A表做循环
select * from B where A.deptId = B.deptId,再从B表做循环.
同理,可以抽象成这样一个循环:
List<> resultSet;
for(int i = 0; i < A.length ; i++){
for(int j = 0; j < B.length ; j++){
if(A[i].id == B[j].id){
resultSet.add(A[i]);
break;
}
}
}
数据库最费劲的就是跟程序链接释放。假设链接了两次,每次做上百万次的数据集查询,查完就走,这样就只做了两次;相反建立了上百万次链接,申请链接释放反复重复,这样系统就受不了了。即mysql优化原则,就是小表驱动大表,小的数据集驱动大的数据集,从而让性能更优。
因此,我们要选择最外层循环小的,也就是,如果B的数据量小于A,适合使用in,如果B的数据量大于A,即适合选择exist。
因为SQL优化器是根据表中数据量来进行查询优化的,如果索引列有大量重复数据,Mysql查询优化器推算发现不走索引的成本更低,很可能就放弃索引了。
limit深分页问题,会导致慢查询。
limit深分页为什么会导致SQL变慢呢?假设我们有表结构如下:
CREATE TABLE account (
id int(11) NOT NULL AUTO_INCREMENT COMMENT '主键Id',
name varchar(255) DEFAULT NULL COMMENT '账户名',
balance int(11) DEFAULT NULL COMMENT '余额',
create_time datetime NOT NULL COMMENT '创建时间',
update_time datetime NOT NULL ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
PRIMARY KEY (id),
KEY idx_name (name),
KEY idx_create_time (create_time) //索引
) ENGINE=InnoDB AUTO_INCREMENT=1570068 DEFAULT CHARSET=utf8 ROW_FORMAT=REDUNDANT COMMENT='账户表';
你知道以下SQL
,执行过程是怎样的嘛?
select id,name,balance from account where create_time> '2020-09-19' limit 100000,10;
这个SQL的执行流程:
idx_create_time
,过滤create_time
条件,找到满足条件的主键id
。主键id
,回到id主键索引树
,找到满足记录的行,然后取出需要展示的列(回表过程)100010
行,然后扔掉前100000
行,返回。limit
深分页,导致SQL
变慢原因有两个:
limit
语句会先扫描offset+n
行,然后再丢弃掉前offset
行,返回后n
行数据。也就是说limit 100000,10
,就会扫描100010
行,而limit 0,10
,只扫描10
行。limit 100000,10
扫描更多的行数,也意味着回表更多的次数。我们可以通过减少回表次数来优化。一般有标签记录法和延迟关联法。
标签记录法
就是标记一下上次查询到哪一条了,下次再来查的时候,从该条开始往下扫描。就好像看书一样,上次看到哪里了,你就折叠一下或者夹个书签,下次来看的时候,直接就翻到啦。
假设上一次记录到100000
,则SQL可以修改为:
select id,name,balance FROM account where id > 100000 limit 10;
这样的话,后面无论翻多少页,性能都会不错的,因为命中了id索引
。但是这种方式有局限性:需要一种类似连续自增的字段。
延迟关联法
延迟关联法,就是把条件转移到主键索引树,然后减少回表。如下:
select acct1.id,acct1.name,acct1.balance FROM account acct1 INNER JOIN (SELECT a.id FROM account a WHERE a.create_time > '2020-09-19' limit 100000, 10) AS acct2 on acct1.id= acct2.id;
优化思路就是,先通过idx_create_time
二级索引树查询到满足条件的主键ID
,再与原表通过主键ID
内连接,这样后面直接走了主键索引了,同时也减少了回表。
为了保证数据库数据的一致性,在涉及到多个数据库修改操作时,我们经常需要用到事务。而使用spring
声明式事务,又非常简单,只需要用一个注解就行@Transactional
,如下面的例子:
@Transactional
public int createUser(User user){
//保存用户信息
userDao.save(user);
passCertDao.updateFlag(user.getPassId());
return user.getUserId();
}
这块代码主要逻辑就是创建个用户,然后更新一个通行证pass
的标记。如果现在新增一个需求,创建完用户,调用远程接口发送一个email
消息通知,很多小伙伴会这么写:
@Transactional
public int createUser(User user){
//保存用户信息
userDao.save(user);
passCertDao.updateFlag(user.getPassId());
sendEmailRpc(user.getEmail());
return user.getUserId();
}
这样实现可能会有坑,事务中嵌套RPC
远程调用,即事务嵌套了一些非DB
操作。如果这些非DB
操作耗时比较大的话,可能会出现大事务问题。
所谓大事务问题就是,就是运行时间长的事务。由于事务一致不提交,就会导致数据库连接被占用,即并发场景下,数据库连接池被占满,影响到别的请求访问数据库,影响别的接口性能。
大事务引发的问题主要有:接口超时、死锁、主从延迟等等。因此,为了优化接口,我们要规避大事务问题。我们可以通过这些方案来规避大事务:
在后台管理页面中,通常需要对列表页进行多条件检索。MySQL 无法满足多条件检索的需求,原因有两点。第一点是,拼接条件检索的查询SQL非常复杂且需要进行定制化,难以进行维护和管理。第二点是,条件检索的查询场景非常灵活,很难设计合适的索引来提高查询性能,并且难以保证查询能够命中索引。
相比之下,ElasticSearch是一种天然适合于条件检索场景的解决方案。无论数据量的大小,对于列表页查询和检索等场景,推荐首选ElasticSearch。
可以将多个表的数据异构到ElasticSearch中建立宽表,并在数据更新时同步更新索引。在进行检索时,可以直接从ElasticSearch中获取数据,无需再查询数据库,提高了检索性能。
MySQL并不适合大数据量存储,若不对数据进行归档,数据库会一直膨胀,从而降低查询和写入的性能。针对大数据量的读写需求,可以考虑以下方法来存储订单数据。
首先,将最近1年的订单数据存储在MySQL数据库中。这样可以保证较高的数据库查询性能,因为MySQL对于相对较小的数据集来说是非常高效的。
其次,将1年以上的历史订单数据进行归档,并将这些数据异构(转储)到HBase中。HBase是一种分布式的NoSQL数据库,可以存储海量数据,并提供快速的读取能力。
在订单查询接口上,可以区分近期数据和历史数据,使得上游系统能够根据自身的需求调用适当的订单接口来查询订单详情。
在将历史订单数据存储到HBase时,可以设置合理的RowKey。RowKey是HBase中数据的唯一标识,在查询过程中可以通过RowKey来快速找到目标数据。通过合理地设置RowKey,可以进一步提高HBase的查询性能。
通过将订单数据分别存储在MySQL和HBase中,并根据需求进行区分查询,可以满足大数据量场景的读写需求。MySQL用于存储近期数据,以保证查询性能;而HBase用于存储归档的历史数据,并通过合理设置的RowKey来提高查询性能。
通过冗余更多的数据,我们可以提高查询性能,这是常见的优化方案。除了引入新的表外,还可以在表中冗余其他表的字段,以减少关联查询的次数。
MySQL并不适合存储大数据量,如果不对数据进行归档,数据库会持续膨胀,从而降低查询和写入的性能。为了满足大数据量的读写需求,需要定期对数据库进行归档。
在进行数据库设计时,需要事先考虑到对数据归档的需求,为了提高归档效率,可以使用ctime(创建时间)进行归档,例如归档一年前的数据。
在将数据库数据归档之前,如果有必要,一定要将数据同步到Hive中,这样以后如果需要进行统计查询,可以使用Hive中的数据。如果归档的数据还需要在线查询,可以将过期数据同步到HBase中,这样数据库可以提供近期数据的查询,而HBase
可以提供历史数据的查询。可参考上述MySQL转HBase
的内容。
一个表的数据量达到好几千万或者上亿时,加索引的效果没那么明显啦。性能之所以会变差,是因为维护索引的B+
树结构层级变得更高了,查询一条数据时,需要经历的磁盘IO变多,因此查询性能变慢。
大家是否还记得,一个B+树大概可以存放多少数据量呢?
InnoDB存储引擎最小储存单元是页,一页大小就是16k
。
B+树叶子存的是数据,内部节点存的是键值+指针。索引组织表通过非叶子节点的二分查找法以及指针确定数据在哪个页中,进而再去数据页中找到需要的数据;
假设B+树的高度为2
的话,即有一个根结点和若干个叶子结点。这棵B+树的存放总记录数为=根结点指针数*单个叶子节点记录行数。
因此,一棵高度为2的B+树,能存放1170 * 16=18720
条这样的数据记录。同理一棵高度为3的B+树,能存放1170 *1170 *16 =21902400
,也就是说,可以存放两千万左右的记录。B+树高度一般为1-3层,已经满足千万级别的数据存储。
如果B+树想存储更多的数据,那树结构层级就会更高,查询一条数据时,需要经历的磁盘IO变多,因此查询性能变慢。
一般超过千万级别,我们可以考虑分库分表了。
分库分表可能导致的问题:
之前在库中只存在一张表,所以非常轻松的就能进行联表查询获取数据,但是此时做了水平分表后,同一张业务的表存在多张小表,这时再去连表查询时具体该连接哪张呢?
第一条好理解,第二条是啥意思呢?好比现在是按月份来分表,那在连表查询前,就先确定要连接哪几张月份的表,才能得到自己所需的数据,确定了之后再去查询对应表即可
之前因为只有一张表,所以进行sum()、count()....、order by、gorup by....
等各类聚合操作时,可以直接基于单表完成,但此刻似乎行不通了呀?对于这类聚合操作的解决方案如下:
ES
。Redis
缓存中,后续从Redis
中获取。Java
中作聚合操作。前面两种操作比较好理解,第三种方案是什么意思呢?比如count()
函数,就是对所有表进行统计查询,最后在Java
中求和,好比分组、排序等工作,先从所有表查询出符合条件的数据,然后在Java
中通过Stream
流进行处理。
上述这三种方案都是比较合理且常规的方案,最好是选择第一种,这也是一些大企业选用的方案。
因为将不同业务的表拆分到了不同的库中,而往往有些情况下可能会需要其他业务的表数据,在单库时直接join
连表查询相应字段数据即可,但此时已经将不同的业务表放到不同库了,这时咋办?
Java
系统中组装数据,通过调用对方服务接口的形式获取数据,然后在程序中组装后返回。往往垂直分库的场景中,第二种方案是最常用的,因为分库分表的项目中,Java
业务系统那边也绝对采用了分布式架构,因此通过调用对端API
接口来获取数据,是分布式系统最为常见的一种现象。
分布式事务应该是分布式系统中最核心的一个问题,这个问题绝对不能出现,一般都要求零容忍,也就是所有分布式系统都必须要解决分布式事务问题,否则就有可能造成数据不一致性。
在之前单机的MySQL
中,数据库自身提供了完善的事务管理机制,通过begin、commit/rollback
的命令可以灵活的控制事务的提交和回滚,在Spring
要对一组SQL
操作使用事务时,也只需在对应的业务方法上加一个@Transactional
注解即可,但这种情况在分布式系统中就不行了。
为什么说MySQL
的事务机制会在分布式系统下失效呢?因为InnoDB
的事务机制是建立在Undo-log
日志的基础上完成的,以前只有一个Undo-log
日志,所以一个事务的所有变更前的数据,都可以记录在同一个Undo-log
日志中,当需要回滚时就直接用Undo-log
中的旧数据覆盖变更过的新数据即可。
但垂直分库之后,会存在多个MySQL
节点,这自然也就会存在多个Undo-log
日志,不同库的变更操作会记录在各自的Undo-log
日志中,当某个操作执行失败需要回滚时,仅能够回滚自身库变更过的数据,对于其他库的事务回滚权,当前节点是不具备该能力的,所以此时就必须要出现一个事务管理者来介入,从而解决分布式事务问题。
其中常用的可能有 Seata 和 最终一致性事务模式 的方案。
Seata
是一款开源的分布式事务解决方案,致力于在微服务架构下提供高性能和简单易用的分布式事务服务。
整体的事务逻辑是两阶段提交的模型,主要由三个重要的组件组成:
TC:Transaction Coordinator 事务协调器,管理全局的分支事务的状态,用于全局性事务的提交和回滚。
TM:Transaction Manager 事务管理器,用于开启、提交或者回滚【全局事务】。
RM:Resource Manager 资源管理器,用于分支(即每一个微服务,它是嵌在服务中的)事务上的资源管理,向TC注册分支事务,上报分支事务的状态,接受TC的命令来提交或者回滚分支事务
TC 为单独部署的 Server 服务端,TM 和 RM 为嵌入到应用中的 Client 客户端
AT模式
该模式适合的场景:
ACID
事务的关系型数据库。JDBC
访问数据库。生命周期描述:
TM
向 TC
申请一个全局事务,全局事务创建成功并生成一个全局唯一的 XID
。RM
向TC
注册分支事务XID
在微服务调用链路的上下文中传播。RM
向TC
注册分支事务,并将其纳入XID
对应的全局事务的管辖。RM
也向TC
注册分支事务,并将其XID
纳入全局事务管理中,这样TC
会把A、B、C服务串联起来,保证在一个事务里管理。TM
根据有无异常向 TC 发起针对 XID 的全局提交(Commit)
或回滚(Rollback)
决议。TC
调度 XID
下管辖的全部分支事务完成提交(Commit)
或回滚(Rollback)
请求。但是分布式事务还是存在一个问题就是,微服务场景下,配置了统一全局异常处理,导致seata
在AT
模式下无法正常回滚问题。
原因:服务A调用服务B, 服务B发生异常,由于全局异常处理的存在@ControllerAdvice
, seata
无法拦截到B服务的异常,从而导致分布式事务未生效。
解决思路:配置了全局异常处理,所以rpc
一定会有返回值, 所以在每个全局事务方法最后, 需要判断rpc
是否发生异常发生异常则抛出 RuntimeException
。
场景实例
简单的用户下单场景,4个子工程分别是**Bussiness**
(事务发起者)、 **Order**
(创建订单) 、**Product**
(扣减库存) 和 **Account**
(扣减账户余额)。
下图中黄色区域理解为各自独立的微服务被TC
纳入了全局事务管理中,整个流程变成了一个原子操作。
用户进行下单,需要进行三个业务调用,Bussiness
表示的是业务的发起方,也是我们的一个服务,发起了一个全局事务TM
,接着调用商品服务开始扣减库存,Bussiness
在调用订单服务,订单服务又会调用账户服务。此时假设商品服务扣减库存成功,订单服务创建订单成功,但是账户服务扣减账户余额失败,出现了异常,此时账户服务的RM
即分支事务资源管理器向TC
事务报告状态产生异常,此时TC
会通知其余的RM
回滚事务。当所有的RM
均正常则提交事务。
描述: 可靠消息模式采用一个可靠的消息中间件作为中介,事务的发起方在完成本地事务后向可靠的消息中间件发起消息,事务消费方在收到消息后处理消息,该方式强调的是双方最终的数据一致性。
流程: 订单服务将消息发送给订单的消息队列,库存服务去监听订阅订单服务的消息队列,并从中消费消息。这种方式需要考虑消息的生产者发送到消息队列,再由消费者去消费消息,中间都有可能因为网络原因导致数据的不一致性。
本地事务提交后可以使用主动触发方式对本地消息表进行保存与推送。
库存服务在接收到消息并且处理完业务逻辑后,通过消息确认机制,回复ACK保证消息的消费成功。如果库存服务没有回复ACK,则消息中间件在没收到ACK是将进行重复投递。
当消息被成功消费,库存服务可以回调一个订单服务的确认API,订单服务从本地消息表中删除或者更新其状态
在订单服务中,如果重复性把本地消息发到库存服务,则需要消息的消费者(库存服务)提供消息的幂等性支持。
关于一致性:
一致性就是数据保持一致性,在分布式系统中,可以理解为多个节点中的数据的值是一致的,而一致性分为强一致性和弱一致性/最终一致性(本身也是弱一致性的特殊表现形式)。
场景对比:
模拟一个简单个新用户注册送福利,即营销拉新活动。用户服务与营销服务作为两个独立的服务,假设选择以seata作为分布式事务的解决方案,此时发生的场景:在用户注册环节或者营销服务发放福利环节任意一个环节出异常,那么都会导致用户的注册失败,这就是很不友好了,我们期望的是尽管营销服务出现问题那么应该不会影响用户的注册,福利可以通过后期补发,所以这种场景,消息事务方案更具有优势。
以MySQL
数据库为例,如果是在之前的单库环境中,可以直接通过limit index,n
的方式来做分页,而水平分库后由于存在多个数据源,因此分页又成为了一个难题,比如10
条数据为1
页,那如果想要拿到某张表的第一页数据,就必须通过如下手段获取:
这种方式可以是可以,但略微有些繁杂,同时也会让拓展性受限,比如原本有两个水平分库的节点,因此只需要从两个节点中拿到第一页数据,然后再做一次过滤即可,但如果水平库从两节点扩容到四节点,这时又要从四个库中各自拿10
条数据,然后做过滤操作,读取前十条数据显示,这显然会导致每次扩容需要改动业务代码,对代码的侵入性有些强,所以合理的解决方案如下:
ES
或中间表,运行期间跑按时更新其中的分页数据。Service
层再做过滤处理。上述第一种方案是较为常用的方案,但这种方案对数据实时性会有一定的影响,使用该方案必须要能接受一定延时。第二种方案是最佳的方案,但需要搭建完善的大数据系统作为基础,成本最高。第三种方案成本最低,但对拓展性和代码侵入性的破坏比较严重。
在之前的单库环境时,对于一张表的主键通常会选用整数型字段,然后通过数据库的自增机制来保证唯一性,但在水平分库多节点的情况时,假设还是以数据库自增机制来维护主键唯一性,这就绝对会出现一定的问题,可能会导致多个库中出现ID
相同、数据不同的情况,如下:
上述两个库需要存储不同的数据,当插入数据的请求被分发到对应节点时,如果再依据自增机制来确保ID
唯一性,因为这里有两个数据库节点,两个数据库各自都维护着一个自增序列,因此两者ID
值都是从1
开始往上递增的,这就会导致前面说到的ID
相同、数据不同的情况出现,那此时又该如何解决呢?如下:
这时可以根据水平库节点的数量来设置自增步长,假设此时有两个库,那自增步长为2
,两个库的ID
起始值为:{DB1:1}、{DB2:2}
,最终达到上图中的效果,无论在插入数据的操作落入哪个节点,都能够确保ID
的唯一性。当然,保障分布式系统下ID
唯一性的解决方案很多,如下:
ID
交叉增长,保证唯一性。ID
,比如雪花算法、Snowflake
算法等。ID
,如使用Redis
的incr
命令、或创建独立的库专门做自增ID
工作。上述这几种方案都是较为主流的分布式ID
生成的方案,同时也能够保证ID
的有序性,能够最大程度上维护索引的性能,相对来说第一种方案成本最低,但是会限制节点的拓展性,也就是当后续扩容时,数据要做迁移,同时要重新修改起始值和自增步长。
一般企业中都会使用第二种方案,也就是通过分布式ID
生成的算法,在业务系统中生成有序的分布式ID
增加MySQL数据库的从节点来实现负载均衡,减轻主节点的查询压力,让主节点专注于处理写请求,保证读写操作的高性能。
CPU
占用很高或者IO利用率
很高,这种情况下所有语句的执行都有可能变慢的哈。