问题分类:
CPU问题
内存问题(GC问题、内存泄漏、 OOM,Coredump 等)
I/O问题
问题排查工具箱:
系统级别的工具:
top:查看系统/
p
gperftools:一个性能分析工具,可以用于内存泄漏、cpu性能检测等。
g
iostat:用来动态监视系统的磁盘操作活动。
iotop:界面类似于top, 但是监视Linux的磁盘I / O的使用细节。
vmstat:可实时动态监视
netstat: 各种网络相关信息,如网络连接,路由表,接口状态 。
dstat: 可以取代vmstat,iostat,netstat和ifstat这些命令的多功能
Java层面的命令:
Jps:查看Java进程。
Jstat: JVM
Jinfo:查看运行中的Java程序的运行环境
Jstack:查看 JVM中当前所有
J
Jmap:查看JVM进程的的堆内内存占用情况,是堆内内存定位
VJmap:唯品会开发的工具,分代版的jmap,但仅仅适用于CMS GC。
Btrace:可以在不重启服务时,动态追踪程序
Arthas:功能非常强大的Java诊断工具;可以做到动态跟踪
MAT(Memory Analyzer):JVM内存、线程分析工具,能够对给出内存分析报告。
GCLogViewer:GC log趋势分析工具,能够检测内存泄露及日志比较。
JProfiler:Java性能瓶颈分析工具,分析 CPU,Thread,Memory功能尤其强大,是做
常见问题分析步骤:
CPU问题:
排查思路:一般情况下可以直接使用top命令,查看
例子: CPU上下文切换导致服务雪崩 。
内存问题:
排查思路:一般情况下,进程coredump的时候都会留下coredump文件,coredump文件的存储位置
例子: 如何定位Java程序coredump的位置
OOM(out of memory):
oom就是内存不足,jvm中内存不足有以下三种:
Exception in thread "main"
解决办法:很多资料说可以通过调整Xss参数可解决问题,事实上系统采用的延迟分配,所有系统并不会给每个线程都分配Xss的真实内存,是按需分配的。
出现这种情况至少95%情况是因为使用max_threads、 max_user_processes过小。
Exception in thread "main" java.lang.OutOfMemoryError: Java heap space—堆的内存占用已经达到-Xmx设置的最大值。
解决办法:调整-Xmx的值,或者存在内存泄漏,按照内存泄漏的思路查找。
Caused by: java.lang.OutOfMemoryError: PermGen space—方法区的内存占用已经达到-XX:MaxPermSize设置的最大值。
解决办法:调整-XX:MaxPermSize的值。
StackOverflow:
Exception in thread "main" java.lang.StackOverflowError — 线程栈需要的内存大于Xss值。
解决办法:调整 Xss 的值。
堆内内存泄漏:
查看gc情况是否正常,堆内内存泄漏总是和gc异常相伴随的。
jmap -dump:live,file=mem.map pid把内存dump下来。
通过mat(memory analyzer)分析内存对象及调用链,发现无法回收的对象。
堆外内存泄漏:
思路:堆外内存一般分为使用unsafe或者ByteBuffer申请的和使用native方式申请的。比如对于 unsafe典型应用场景就是JavaCPP申请堆外内存(底层就是native方式)。对于堆外内存泄漏一般gperftools+btrace这组组合工具基本上都能搞定,如果不行的话,可能就需要系统底层工具了,比如 strace等。
另外,虽然堆外内存不属于堆内,但是其引用在堆内;有时候在直接查看堆外不方便或者没有结论时,可以查看堆内是否有异常对象。
例子:
GC问题排查:
young gc单次
排查思路:根据gc log(G1),查看耗时是在Root Scanning、Object Copy、Ref Proc等哪 个阶段。如果Ref Proc耗时久,则需要关注引用相关的对象;如果Root Scanning耗时久,则需要关注线程数、跨代引用等。Object Copy则需要关注对象
例子:线上把两个服务合并成一个服务之后,发现上游服务超时变多,服务整体可用性降低。通过查看监控发现young gc时间变高很多,young gc日志如下:
和其他项目对比,发现Root Scanning的时间较高,查看项目监控发现线程数太多,高达4000多个。于是通过
young gc频率太高
排查思路:查看-Xmn、-XX:SurvivorRatio等参数设置是否合理,能否通过调整jvm参数到达目的;如果参数正常,但是young gc频率还是太高,需要使用Jmap/MAT等工具参看业务代码是否生成的对象是否合理。
例子:有一次在项目接入部分用户全链路日志的时候,发现young gc频率飙升了很多。使用Jmap发现JSON对象,发现相关的代码如下:
从代码中我们可以看出,不管是否需要输入全链路日志都会生成JSON对象,很明显不符合预期。
full gc单次时间太长
排查思路: 查看old的区域配置是否过大,过大可以适当调小一些。如果是cms,可以查看是在Inital mark阶段时间太久Re mark阶段,如果是 Re mark阶段 可以添加-XX:+CMSScavengeBeforeRemark参数。如果服务太在意full gc时间,可以采用主动full gc的方式,具体的实现原理可以参考: 谈谈项目中主动full gc的一些问题 。
full gc频率太高
排查思路:这种情况应该是java最常遇到,也是情况最为复杂的。其实主要思路还是首先要看出发full/major gc的原因,比如对于cms gc,一般情况下发生的条件,就是perm或者old到达阈值。如果是old区域主要还是要看为什么对象会那么快晋升到老年代。如果配置的是cms,发生的确实full gc,就需要查看满足哪种条件的full gc,找出具体的原因。
例子: Redis
排查思路:直接使用 iotop能够直接查看哪些线程在做IO,然后在用
问题排查的方法论
一般Java服务发生问题可能伴随着多种现象,比如:cpu飙升、gc飙升等问题,这时候我们必须要遵循 “ 现象-问题-原因-方案 ”这个步骤去解决问题。
列举所有异常现象。比如:服务响应时间飙升、cpu飙升、full gc飙升;
列举所有的问题。步骤一 中所有的异常现象不一定都有问题,比如现象A导致了现象B,那么我们应该现象A是问题,现象B是结果,不是我们问题查找的主力方向。
查找原因。步骤二中的问题,有难易程度,比如cpu飙升就比full gc飙升问题容易排查。所以这步中我们先按照从易到难的程度排查。
原因确定之后,就可以给出具体解决方案,然后验证它。
例子: 服务响应时间飙升问题排查记