1、当系统资源告警时,我们第一考虑到事情是否硬件资源已不足,于是执行uptime命令,了解资源负载情况。例如输入uptime,会得到以下该结果:
root@harbor ~]# uptime
12:18:21 up 11 days, 1:05, 3 users, load average: 0.00, 0.06, 0.09
2、但是,对于上述输出的内容分别代表什么含义呢?
12:18:21 //当前时间
up 11 days, 1:05 //运行时间
3 users //登录用户数
load average: 0.00, 0.06, 0.09 //平均负载 1分钟 5分钟 15分钟
3、load average:
平均负载是指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,也就是平均活跃进程数,它和 CPU 使用率并没有直接关系。
4、可运行状态:
是指正在使用 CPU 或者正在等待 CPU 的进程,也就是我们常用 ps 命令看到的,处于 R 状态(Running 或 Runnable)的进程。
5、不可中断:
进程则是正处于内核态关键流程中的进程,并且这些流程是不可打断的,比如最常见的是等待硬件设备的 I/O 响应,也就是我们在 ps 命令中看到的 D 状态(Uninterruptible Sleep,也称为 Disk Sleep)的进程。不可中断也是系统对进程和硬件设备的一种保护机制。
6、平均负载为多少时合理:
当平均负载高于 CPU 数量 70% 的时候,你就应该分析排查负载高的问题了。一旦负载过高,就可能导致进程响应变慢,进而影响服务的正常功能。
7、如何判定负载情况呢:
Ⅰ load average:1分钟,5分钟,15分钟,三个值基本相同或者相差不大,那就说明负载系统很平稳
Ⅱ 如果1分钟的值远小于15分钟的值,说明系统最近1分中的负载在减少,而过去的15分钟内却有很大的负载
Ⅲ 如果1分钟的值远大于15分钟的值,就说明最近1分钟的负载在增加,这种增加有可能只是临时性的,也有可能还会持续增加下去,需要持续的关注。
Example:假设1个单 CPU 系统上看到平均负载为 1.73,0.60,7.98,那么说明在过去 1 分钟内,系统有 73% 的超载,而在 15 分钟内,有 698% 的超载,从整体趋势来看,系统的负载在降低。
8、平均负载与CPU使用率的区别:
Ⅰ 平均负载是指:指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在使用 CPU 的进程,还包括等待 CPU 和等待 I/O 的进程。
Ⅱ CPU使用率是指:是单位时间内 CPU 使用情况的统计。
CPU 密集型进程,使用大量 CPU 会导致平均负载升高,此时这两者是一致的
I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高
大量等待 CPU 的进程调度也会导致平均负载升高,此时的 CPU 使用率也会比较高
9、案例展现所需工具:
Ⅰ 工具:stress、sysstat、iostat、mpstat、pidstat
Ⅱ 工具介绍: stress是一个 Linux 系统压力测试工具,这里我们用作异常进程模拟平均负载升高的场景。sysstat 是用来监控和分析系统的性能,包含(mpstat和pidstat)。
mpstat 是一个常用的多核 CPU 性能分析工具,用来实时查看每个 CPU 的性能指标,以及所有 CPU 的平均指标。
pidstat 是一个常用的进程性能分析工具,用来实时查看进程的 CPU、内存、I/O 以及上下文切换等性能指标
iostat是一个常用的磁盘性能分析工具,用来查看磁盘读写情况。
Ⅲ、案例展现已root用户进行操作,所以普通用户需要使用sudo su root切换至root用户。
10、案例一:CPU密集型进程
Ⅰ、在第一个终端使用stress命令,模拟出2个CPU使用率100%的场景。
[root@harbor ~]# stress --cpu 2 --timeout 60
Ⅱ、在第二个终端使用uptime命令,查看平均负载情况
1 # -d 参数表示高亮显示变化的区域
2 $ watch -d uptime
3 14:35:43 up 11 days, 3:22, 3 users, load average: 1.98, 0.68, 0.36
Ⅲ、在第三个终端运行mpstat查看CPU使用率的变化情况
查看所有CPU的状态,后面数字5表示间隔5秒输出一组数据
root@harbor ~]# mpstat -P ALL 5 1
02:34:35 PM CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
02:34:40 PM all 99.70 0.00 0.30 0.00 0.00 0.00 0.00 0.00 0.00 0.00
02:34:40 PM 0 99.60 0.00 0.40 0.00 0.00 0.00 0.00 0.00 0.00 0.00
02:34:40 PM 1 99.80 0.00 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00
从终端二中可以看到,1 分钟的平均负载会慢慢增加到 1.00,而从终端三中还可以看到,正好有2个 CPU 的平均使用率为 99.7%,但它的 iowait 只有 0。这说明,平均负载的升高正是由于 CPU 使用率为 100% 。
Ⅳ、查询是哪个进程导致CPU使用率为100%呢,可以使用pidstat来查询:
# 间隔5秒后输出一组数据
$ pidstat -u 5 1
verage: UID PID %usr %system %guest %wait %CPU CPU Command
Average: 0 819 0.00 0.20 0.00 1.39 0.20 - kworker/0:1
Average: 0 7405 0.00 0.20 0.00 0.20 0.20 - watch
Average: 988 9476 0.00 0.20 0.00 0.60 0.20 - zabbix_agentd
Average: 988 9484 0.00 0.20 0.00 0.40 0.20 - zabbix_agentd
Average: 988 9491 0.00 0.40 0.00 0.40 0.40 - zabbix_agentd
Average: 27 9827 0.00 0.20 0.00 0.00 0.20 - mysqld
Average: 0 10011 98.61 0.00 0.00 1.39 98.61 - stress
Average: 0 10012 98.41 0.00 0.00 1.59 98.41 - stress
Average: 0 10091 0.00 0.40 0.00 0.40 0.40 - pidstat
Average: 988 12641 0.00 0.20 0.00 0.60 0.20 - zabbix_server
从上述内容可以看出,stress 使用率高达98%。
11、案例二:I/O 密集型进程
Ⅰ 第一个终端运行stress命令,模拟I/O压力,既不停执行sync
[root@harbor ~]# stress --io 2 --timeout 60
Ⅱ 第二个终端运行uptime 查看平均负载的变化情况
1 # -d 参数表示高亮显示变化的区域
2 $ watch -d uptime
3 14:37:43 up 11 days, 3:22, 3 users, load average: 1.3, 0.68, 0.36
Ⅲ 第三个终端运行mpstat查看CPU使用率的变化情况
查看所有CPU的状态,后面数字5表示间隔5秒输出一组数据
root@harbor ~]# mpstat -P ALL 5 1
02:53:57 PM CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
02:54:02 PM all 1.36 0.00 38.99 66.52 0.00 0.12 0.00 0.00 0.00 59.53
02:54:02 PM 0 1.47 0.00 44.23 67.03 0.00 0.00 0.00 0.00 0.00 54.30
02:54:02 PM 1 1.25 0.00 33.67 65.92 0.00 0.25 0.00 0.00 0.00 64.84
从这里可以看到,1 分钟的平均负载会慢慢增加到 1.3,其中一个 CPU 的系统 CPU 使用率升高到了 44.23,而 iowait 高达 67.03%。这说明,平均负载的升高是由于 iowait 的升高。
Ⅳ、查询是哪个进程导致CPU使用率为100%呢,可以使用pidstat来查询:
# 间隔5秒后输出一组数据
$ pidstat -u 5 1
verage: UID PID %usr %system %guest %wait %CPU CPU Command
Average: 0 819 0.00 0.20 0.00 1.39 0.20 - kworker/0:1
Average: 0 7405 0.00 0.20 0.00 0.20 0.20 - watch
Average: 988 9476 0.00 0.20 0.00 0.60 0.20 - zabbix_agentd
Average: 988 9484 0.00 0.20 0.00 0.40 0.20 - zabbix_agentd
Average: 988 9491 0.00 0.40 0.00 0.40 0.40 - zabbix_agentd
Average: 27 9827 0.00 0.20 0.00 0.00 0.20 - mysqld
Average: 0 10011 65.61 0.00 0.00 1.39 98.61 - stress
Average: 0 10012 67.41 0.00 0.00 1.59 98.41 - stress
Average: 0 10091 0.00 0.40 0.00 0.40 0.40 - pidstat
Average: 988 12641 0.00 0.20 0.00 0.60 0.20 - zabbix_server
根据上述内容,是由于stress导致。
12、案例三:大量进程的场景
当系统超负荷运行时,就会出现CPU的进程。
Ⅰ 第一个终端使用stress,模拟4个进程:
$ stress -c 4 --timeout 600
Ⅱ 由于系统只有 2 个 CPU,明显比 4个进程要少,因而,系统的 CPU 处于严重过载状态,平均负载高达 3.99
1 # -d 参数表示高亮显示变化的区域
2 $ watch -d uptime
3 15:00 up 11 days, 3:00, 3 users, load average: 3.99, 0.68, 0.36
Ⅲ 在运行mdstat查看cpu负载情况
[root@harbor ~]# mpstat -P ALL 5
03:31:07 PM CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
03:31:12 PM all 98.60 0.00 1.40 0.00 0.00 0.00 0.00 0.00 0.00 0.00
03:31:12 PM 0 98.80 0.00 1.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00
03:31:12 PM 1 98.40 0.00 1.60 0.00 0.00 0.00 0.00 0.00 0.00 0.00
从这里可以看到,1 分钟的平均负载会慢慢增加到 3.99,其中一个 CPU 的系统 CPU 使用率升高到了 98.8%,这说明,平均负载的升高是由于 CPU过载而导致的升高。
Ⅳ、运行pidstat查看进程情况
[root@harbor ~]# pidstat -u 5
03:35:08 PM UID PID %usr %system %guest %wait %CPU CPU Command
03:35:13 PM 0 7405 0.00 0.20 0.00 0.40 0.20 1 watch
03:35:13 PM 999 9030 0.20 0.60 0.00 1.40 0.80 1 polkitd
03:35:13 PM 988 9482 0.20 0.40 0.00 0.20 0.60 0 zabbix_agentd
03:35:13 PM 27 9827 0.00 0.20 0.00 0.00 0.20 0 mysqld
03:35:13 PM 987 11897 0.00 0.20 0.00 0.00 0.20 0 grafana-server
03:35:13 PM 988 12615 0.00 0.20 0.00 1.80 0.20 1 zabbix_server
03:35:13 PM 988 12636 0.00 0.20 0.00 2.00 0.20 0 zabbix_server
03:35:13 PM 988 12641 0.20 0.00 0.00 0.60 0.20 1 zabbix_server
03:35:13 PM 42 15393 0.20 0.00 0.00 0.80 0.20 1 gsd-color
03:35:13 PM 0 22842 48.60 0.00 0.00 52.00 48.60 1 stress
03:35:13 PM 0 22843 48.80 0.00 0.00 51.40 48.80 0 stress
03:35:13 PM 0 22844 49.00 0.00 0.00 51.40 49.00 0 stress
03:35:13 PM 0 22845 48.40 0.00 0.00 51.80 48.40 1 stress
03:35:13 PM 0 22906 0.00 0.20 0.00 0.40 0.20 0 pidstat
可以看出,17个进程在争抢 2 个 CPU,每个进程等待 CPU 的时间(也就是代码块中的 %wait 列)高达 52%。这些超出 CPU 计算能力的进程,最终导致 CPU 过载。
总结归纳:
1、平均负载高有可能是 CPU 密集型进程导致的
2、平均负载高并不一定代表 CPU 使用率高,还有可能是 I/O 使用率过高导致。
3、当发现负载高的时候,你可以使用 mpstat、pidstat 等工具,辅助分析负载的来源。
本文整理自极客时间 倪朋飞:《Linux性能优化实战》