线上常见问题排查之CPU过高

目前应用程序基本是Java,所以需要登录docker容器内部执行jstack命令打印堆栈信息再分析。

确认目标进程

  • 执行top命令查看CPU占用情况,找出CPU占用高的进程ID。
PS:输入大写P即可按照CPU占比排序进程(即 Shift + p)
# top

线上常见问题排查之CPU过高_第1张图片

  • 找出对应进程信息
# ps -ef|grep 进程号

登录容器

  • 查看容器ID
# sudo docker ps -a
线上常见问题排查之CPU过高_第2张图片
  • 进入容器
# sudo docker exec -it 容器ID bash

打印堆栈信息

  • top命令查看容器内进程ID
线上常见问题排查之CPU过高_第3张图片
  • 打印线程堆栈
    • 必须切换至admin用户(进程是admin启动的)
    • jstack需要绝对路径(容器admin用户的PATH没有包含JAVA路径)
    • 输出的日志文件需要放在 /home/admin/${应用名}/logs 目录下,方便后面拷贝
# sudo -u admin /opt/taobao/java/bin/jstack -l 37 > /home/admin/busuac/logs/busuac.jstack.log

拷贝文件

退出容器,在宿主机ECS上执行mv命令将文件拷贝至个人家目录,再sftp从家目录下载文件即可
  • 源文件就是上一步生成的
  • 目标路径是个人的家目录(即命令中的~)
# cp /home/admin/busuac/logs/busuac.jstack.log ~

如何分析jstack

jstack文件就是一堆线程信息,如何确定哪个线程占比高?
  • 在容器里使用top命令看进程对应的线程堆栈
# top -H p 进程ID
线上常见问题排查之CPU过高_第4张图片
  • 在jstack文件里找占比高的线程
    • 将第一步的PID换算成16进程,如 461 换算出16进制是 0x1cd(小写)
    • 在生成的jstack文件里查找 0x1cd对应的线程再分析原因
    线上常见问题排查之CPU过高_第5张图片
    如图所示,基本确认进程是在解压缩文件消耗大量CPU

你可能感兴趣的:(java)