我的主机内存只有 100G ,现在要对一个 200G 的大表做全表扫
描,会不会把数据库主机的内存用光了?
这个问题确实值得担心,被系统 OOM ( out of memory )可不是闹着玩的。但是,反过来想想,
逻辑备份的时候,可不就是做整库扫描吗?如果这样就会把内存吃光,逻辑备份不是早就挂了?
所以说,对大表做全表扫描,看来应该是没问题的。但是,这个流程到底是怎么样的呢?
假设,我们现在要对一个 200G 的 InnoDB 表 db1. t ,执行一个全表扫描。当然,你要把扫描结果
保存在客户端,会使用类似这样的命令:
mysql -h$host -P$port -u$user -p$pwd -e "select * from db1.t" > $target_file
你已经知道了, InnoDB 的数据是保存在主键索引上的,所以全表扫描实际上是直接扫描表 t 的主
键索引。这条查询语句由于没有其他的判断条件,所以查到的每一行都可以直接放到结果集里
面,然后返回给客户端。
那么,这个 “ 结果集 ” 存在哪里呢?
mysql -h h o s t − P host -P host−Pport -u u s e r − p user -p user−ppwd -e “select * from db1.t” > $target_file
实际上,服务端并不需要保存一个完整的结果集。取数据和发数据的流程是这样的:
这个过程对应的流程图如下所示。
图 1 查询结果发送流程
从这个流程中,你可以看到:
也就是说, MySQL 是 “ “ 边读边发的 ” ” ,这个概念很重要。这就意味着,如果客户端接收得慢,会导致 MySQL 服务端由于结果发不出去,这个事务的执行时间变长。
比如下面这个状态,就是我故意让客户端不去读 socket receive buffer 中的内容,然后在服务端show processlist 看到的结果。
图 2 服务端发送阻塞
如果你看到 State 的值一直处于 “Sending to client” ,就表示服务器端的网络栈写满了。
我在上一篇文章中曾提到,如果客户端使用 –quick 参数,会使用 mysql_use_result 方法。这个方
法是读一行处理一行。你可以想象一下,假设有一个业务的逻辑比较复杂,每读一行数据以后要
处理的逻辑如果很慢,就会导致客户端要过很久才会去取下一行数据,可能就会出现如图 2 所示
的这种情况。
因此, 对于正常的线上业务来说,如果一个查询的返回结果不会很多的话,我都建议你使
用 mysql_store_result 这个接口,直接把查询结果保存到本地内存。
当然前提是查询返回结果不多。在第 30 篇文章评论区,有同学说到自己因为执行了一个大查询
导致客户端占用内存近 20G ,这种情况下就需要改用 mysql_use_result 接口了。
另一方面,如果你在自己负责维护的 MySQL 里看到很多个线程都处于 “Sending to client” 这个状
态,就意味着你要让业务开发同学优化查询结果,并评估这么多的返回结果是否合理。
而如果要快速减少处于这个状态的线程的话,将 net_buffer_length 参数设置为一个更大的值是一
个可选方案。
与 “Sending to client” 长相很类似的一个状态是 “Sending data” ,这是一个经常被误会的问题。
有同学问我说,在自己维护的实例上看到很多查询语句的状态是 “Sending data” ,但查看网络也
没什么问题啊,为什么 Sending data 要这么久?
实际上,一个查询语句的状态变化是这样的(注意:这里,我略去了其他无关的状态):
也就是说, “Sending data” 并不一定是指 “ 正在发送数据 ” ,而可能是处于执行器过程中的任意阶段。比如,你可以构造一个锁等待的场景,就能看到 Sending data 状态。
图 3 读全表被锁
图 4 Sending data 状态
可以看到, session B 明显是在等锁,状态显示为 Sending data 。
也就是说,仅当一个线程处于 “ 等待客户端接收结果 ” 的状态,才会显示 “Sending to client” ;而如果显示成 “Sending data” ,它的意思只是 “ 正在执行 ” 。
现在你知道了,查询的结果是分段发给客户端的,因此扫描全表,查询返回大量的数据,并不会把内存打爆。
在 server 层的处理逻辑我们都清楚了,在 InnoDB 引擎里面又是怎么处理的呢? 扫描全表会不会对引擎系统造成影响呢?
在第 2 和第 15 篇文章中,我介绍 WAL 机制的时候,和你分析了 InnoDB 内存的一个作用,是保存
更新的结果,再配合 redo log ,就避免了随机写盘。
内存的数据页是在 Buffer Pool (BP) 中管理的,在 WAL 里 Buffer Pool 起到了加速更新的作用。而
实际上, Buffer Pool 还有一个更重要的作用,就是加速查询。
在第 2 篇文章的评论区有同学问道,由于有 WAL 机制,当事务提交的时候,磁盘上的数据页是旧
的,那如果这时候马上有一个查询要来读这个数据页,是不是要马上把 redo log 应用到数据页
呢?
答案是不需要。因为这时候内存数据页的结果是最新的,直接读内存页就可以了。你看,这时候
查询根本不需要读磁盘,直接从内存拿结果,速度是很快的。所以说, Buffer Pool 还有加速查询
的作用。
而 Buffer Pool 对查询的加速效果,依赖于一个重要的指标,即: 内存命中率。
你可以在 show engine innodb status 结果中,查看一个系统当前的 BP 命中率。一般情况下,一
个稳定服务的线上系统,要保证响应时间符合要求的话,内存命中率要在 99% 以上。
执行 show engine innodb status ,可以看到 “Buffer pool hit rate” 字样,显示的就是当前的命中
率。比如图 5 这个命中率,就是 99.0% 。
图 5 show engine innodb status 显示内存命中率
如果所有查询需要的数据页都能够直接从内存得到,那是最好的,对应的命中率就是 100% 。
但,这在实际生产上是很难做到的。
InnoDB Buffer Pool 的大小是由参数 innodb_buffer_pool_size 确定的,一般建议设置成可用物理
内存的 60%~80% 。
在大约十年前,单机的数据量是上百个 G ,而物理内存是几个 G ;现在虽然很多服务器都能有
128G 甚至更高的内存,但是单机的数据量却达到了 T 级别。
所以, innodb_buffer_pool_size 小于磁盘的数据量是很常见的。如果一个 Buffer Pool 满了,而
又要从磁盘读入一个数据页,那肯定是要淘汰一个旧数据页的。
InnoDB 内存管理用的是最近最少使用 (Least Recently Used, LRU) 算法,这个算法的核心就是
淘汰最久未使用的数据。
下图是一个 LRU 算法的基本模型。
图 6 基本 LRU 算法
InnoDB 管理 Buffer Pool 的 LRU 算法,是用链表来实现的。
这个算法乍一看上去没什么问题,但是如果考虑到要做一个全表扫描,会不会有问题呢?
假设按照这个算法,我们要扫描一个 200G 的表,而这个表是一个历史数据表,平时没有业务访问它。
那么,按照这个算法扫描的话,就会把当前的 Buffer Pool 里的数据全部淘汰掉,存入扫描过程中访问到的数据页的内容。也就是说 Buffer Pool 里面主要放的是这个历史数据表的数据。
对于一个正在做业务服务的库,这可不妙。你会看到, Buffer Pool 的内存命中率急剧下降,磁盘压力增加, SQL 语句响应变慢。
所以, InnoDB 不能直接使用这个 LRU 算法。实际上, InnoDB 对 LRU 算法做了改进。
图 7 改进的 LRU 算法
在 InnoDB 实现上,按照 5:3 的比例把整个 LRU 链表分成了 young 区域和 old 区域。图中 LRU_old 指向的就是 old 区域的第一个位置,是整个链表的 5/8 处。也就是说,靠近链表头部的 5/8 是 young 区域,靠近链表尾部的 3/8 是 old 区域。
改进后的 LRU 算法执行流程变成了下面这样。
这个策略,就是为了处理类似全表扫描的操作量身定制的。还是以刚刚的扫描 200G 的历史数据表为例,我们看看改进后的 LRU 算法的操作逻辑:
可以看到,这个策略最大的收益,就是在扫描这个大表的过程中,虽然也用到了 Buffer Pool ,但是对 young 区域完全没有影响,从而保证了 Buffer Pool 响应正常业务的查询命中率。
今天,我用 “ 大查询会不会把内存用光 ” 这个问题,和你介绍了 MySQL 的查询结果,发送给客户端的过程。
由于 MySQL 采用的是边算边发的逻辑,因此对于数据量很大的查询结果来说,不会在 server 端保存完整的结果集。所以,如果客户端读结果不及时,会堵住 MySQL 的查询过程,但是不会把内存打爆。
而对于 InnoDB 引擎内部,由于有淘汰策略,大查询也不会导致内存暴涨。并且,由于 InnoDB 对LRU 算法做了改进,冷数据的全表扫描,对 Buffer Pool 的影响也能做到可控。
当然,我们前面文章有说过,全表扫描还是比较耗费 IO 资源的,所以业务高峰期还是不能直接在线上主库执行全表扫描的。
最后,我给你留一个思考题吧。
我在文章中说到,如果由于客户端压力太大,迟迟不能接收结果,会导致 MySQL 无法发送结果而影响语句执行。但,这还不是最糟糕的情况。
你可以设想出由于客户端的性能问题,对数据库影响更严重的例子吗?或者你是否经历过这样的场景?你又是怎么优化的?
上期的问题是,如果一个事务被 kill 之后,持续处于回滚状态,从恢复速度的角度看,你是应该重启等它执行结束,还是应该强行重启整个 MySQL 进程。
因为重启之后该做的回滚动作还是不能少的,所以从恢复速度的角度来说,应该让它自己结束。
当然,如果这个语句可能会占用别的锁,或者由于占用 IO 资源过多,从而影响到了别的语句执行的话,就需要先做主备切换,切到新主库提供服务。
切换之后别的线程都断开了连接,自动停止执行。接下来还是等它自己执行完成。这个操作属于我们在文章中说到的,减少系统压力,加速终止逻辑。