距离上次博文已经有快半年了。原本打算在过年期间写一篇2019年的回顾和总结。但也被这突如其来的疫情打乱。放假期间一直关注相关新闻导致信息过载,一度非常沮丧。
2月复工以后,停止了疫情信息的摄取,反倒心理上轻松不少。人都是健忘的,可不是吗?
言归正传,上篇博文说遇到一个服务假死的问题,具体现象就是服务不再接收任何请求,客户端会抛出Broken Pipe。正好最近又重现了,并且找到了root cause。
检查状态
系统状态
依然从全局入手,执行top查看发现负载很低,cpu都在10%以下,说明不是计算密集的问题,基本可以感觉是io或者是jvm垃圾回收有异常。另外查询系统情况推荐dstat这个工具,蜜汁好用。
dstat -lcdngy
JVM状态
因为开启了gc log,所以先检查一下是不是有频繁的full gc,当然上手就jstat
不犹豫也是没问题的。
2020-02-19T17:32:59.041+0800: 5618.660: Application time: 0.9945668 seconds
{Heap before GC invocations=339 (full 70):
par new generation total 1415616K, used 1415615K [0x00000006f0800000, 0x0000000750800000, 0x0000000750800000)
eden space 1258368K, 100% used [0x00000006f0800000, 0x000000073d4e0000, 0x000000073d4e0000)
from space 157248K, 99% used [0x000000073d4e0000, 0x0000000746e6ffd0, 0x0000000746e70000)
to space 157248K, 0% used [0x0000000746e70000, 0x0000000746e70000, 0x0000000750800000)
concurrent mark-sweep generation total 2621440K, used 2621440K [0x0000000750800000, 0x00000007f0800000, 0x00000007f0800000)
Metaspace used 124199K, capacity 131576K, committed 135808K, reserved 1169408K
class space used 14564K, capacity 15735K, committed 16256K, reserved 1048576K
2020-02-19T17:32:59.042+0800: 5618.661: [Full GC (Allocation Failure) 2020-02-19T17:32:59.043+0800: 5618.661: [CMS2020-02-19T17:33:00.282+0800: 5619.901: [CMS-concurrent-mark: 2.232/2.235 secs] [Times: user=3.23 sys=0.00, real=2.24 secs]
(concurrent mode failure): 2621440K->2611778K(2621440K), 7.6795988 secs] 4037055K->2611778K(4037056K), [Metaspace: 124199K->124199K(1169408K)], 7.6798738 secs] [Times: user=7.68 sys=0.00, real=7.68 secs]
Heap after GC invocations=340 (full 71):
par new generation total 1415616K, used 0K [0x00000006f0800000, 0x0000000750800000, 0x0000000750800000)
eden space 1258368K, 0% used [0x00000006f0800000, 0x00000006f0800000, 0x000000073d4e0000)
from space 157248K, 0% used [0x000000073d4e0000, 0x000000073d4e0000, 0x0000000746e70000)
to space 157248K, 0% used [0x0000000746e70000, 0x0000000746e70000, 0x0000000750800000)
concurrent mark-sweep generation total 2621440K, used 2611778K [0x0000000750800000, 0x00000007f0800000, 0x00000007f0800000)
Metaspace used 124199K, capacity 131576K, committed 135808K, reserved 1169408K
class space used 14564K, capacity 15735K, committed 16256K, reserved 1048576K
}
大概有十几个Full GC,原因都是 Allocation Failure。特别值得注意的是,GC前eden的占用是100%,s0的占用是99%,此时还有Allocation Failure说明old区也满了。eden和s0的对象都无法通过Young GC回收,年轻代对象继续向old区晋升,但是old区也满了,导致 Allocation Failure 触发Full GC,而且耗时7.68 secs,这可是STW啊,整个系统都暂停响应了。再看GC后的情况,年轻代都清零了,说明并不是有内存泄露导致无法回收。而是短时间有大量新对象被创建,Young GC来不及回收,直到新对象不断晋升到老年代导致的STW。
那么接下来就开始追查什么原因会创建这么多新对象,手头缺一个最好的证据,就是Full GC时的heap dump。开启jstat
不停的刷,等到old区快满的时候,抓dump。
时机正好,通过jmap
导出dump文件
jmap -dump:format=b,file=/tmp/heap.hprof 1
一看文件足足有6g,说明真的是待回收的对象太多了。
分析Dump
使用mat打开这个dump文件都花了半小时,风扇呼呼的在抗议。一个小tip,记得把mat的Xmx调大,不然会崩掉。另外由于这次并不是内存泄露造成不可回收,所以需要打开mat的Keep unreachable objects
去分析不可触达的对象。
打开lead suspects可以看到最大的是java.lang.Object[]
,这也印证了大量对象被创建并被加入数组的猜测。
Root cause
那么究竟是什么操作引发的呢?在mat的报告中最终发现这个object是一个entity类,说明这是一个数据库操作,查询出了大量结果导致的。
这种查询量级一定会被记录为了慢查询,打开阿里云的RDS慢日志查询
218w的记录被查询到,没有直接OOM算是走运了。
但是查询的sql很奇怪,出现了is null
的条件语句,由于这个字段是索引字段应该精确匹配的,业务逻辑中不可能出现查询空记录的需求。repository的查询接口是使用spring-data-jpa标准描述的。
Person findByAAndBAndC(String A, String B, String C);
理论上应该转化为
select * from person where A=A and B=B and C=C;
结果却变成了
select * from person where A is null and B=B and C=C;
这样以来,就跳开了索引并查询到相当可观的记录。经过试验发现如果未经过判空校验,当A=null时,spring-data-jpa会自动转化为is null
的SQL语句。
最终我们对所有类似调用都加上了Assert.notnull
的处理。重新上线后问题解决,再也没有FGC发生了。
总结
对于程序员来讲,这种“智能”的框架真的是非常可怕,当你面对一个黑盒的时候,灾难往往就在不远处。
本文由博客一文多发平台 OpenWrite 发布!