每当发现系统变慢时,可以执行top或者uptime命令,来了解系统的负载情况。
$ uptime
02:34:03 up 2 days, 20:14, 1 user, load average: 0.63, 0.83, 0.88
复制代码
前几列分别是当前时间,系统运行时间,以及正在登录用户数。
02:34:03 // 当前时间
up 2 days, 20:14 // 系统运行时间
1 user // 正在登录用户数
而最后三个数字依次则是过去1分钟,5分钟,15分钟的平均负载(load average) 平均负载简单来说,是指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,也就是平均活跃进程数,它和cpu使用率并没有直接关系。 所谓可运行状态的进程,是指正在使用CPU或者正在等待CPU的进程,也就是我们常用ps命令看到的,处于R状态(Running或Runnable)的进程。 不可中断状态的进程则是正处于内核态关键流程中的进程,并且这些流程是不可打断的,比如最常见的是等待硬件设备的i/o响应,也就是我们ps看到的D状态(Uninterruptible sleep,也称为disk sleep)的进程
比如,当一个进程向磁盘读写数据时,为了保证数据的一致性,在得到磁盘回复前,它是不能被其他进程或者中断打断的,这个时候的进程就处于不可中断状态。如果此时的进程被打断了,就容易出现磁盘数据与进程数据不一致的问题 所以,不可中断状态实际上是系统对进程和硬件设备的一种保护机制。 可以简单理解为,平均负载其实就是平均活跃进程数。平均活跃进程数,直观上的理解就是单位时间内的活跃进程数,但它实际上是活跃进程数的指数衰减平均值。这个“指数衰减平均”的详细含义不用计较,这只是系统的一种更快速的计算方式,你把它直接当成活跃进程数的平均值也没问题。
既然平均的是活跃进程数,那么最理想的,就是每个CPU上都刚好运行着一个进程,这样每个CPU都得到了充分利用。比如当平均负载为2 时,意味着:
。在只有2个CPU的系统上,意味着所有的CPU都刚好被完全占用。
。在4个CPU的系统上,意味着CPU有50%的空闲。
。而在只有1个CPU的系统上,则意味着有一半的进程竞争不到CPU
平均负载多少为合理? 平均负载最理想的情况是等于CPU个数。所以在评判平均负载时,首先要知道系统有几个CPU,这可以通过top命令或者从文件/proc/cpuinfo中读取,例如:
$ grep 'model name' /proc/cpuinfo | wc -l
2
复制代码
有了CPU个数,我们就可以判断出,当平均负载比CPU个数还大的时候,系统已经出现了过载。 不过平均负载有三个数值,应该参考哪一个? 实际上,都要看。三个不同时间间隔的平均值其实给我们提供了分析系统负载趋势的数据来源,让我们能更全面,更立体地理解目前的负载状况。
。如果1分钟,5分钟,15分钟的三个值基本相同,或者相差不大,那就说明系统负载很平稳。
。但如果1分钟的值远小于15的值,就说明系统最近1分钟的负载在减少,而过去15分钟内却有很大的负载。
。反过来,如果1分钟的值远大于15分钟的值,就说明最近1分钟的负载在增加,这种增加有可能只是临时性的,也有可能还会持续增加下去,所以就需要持续观察。一旦1分钟的平均负载接近或超过了CPU的个数,就意味着系统正在发生过载的问题,这是就得分析调查是哪里导致的问题,并要想办法优化了。
举例说,假设我们在一个单CPU系统上看到平均负载为1.7, 0.60, 7.89 那么说明在过去1分钟内,系统有73%的超载,而在15分钟内,有689%的超载,从整体趋势来看,系统的负载在降低。
在实际生产环境中,当平均负载高于CPU数量70%的时候,就应分析排查负载高的问题了。一旦负载过高,就可能导致进程响应慢,进而影响服务的正常功能。 但70%这个数字并不是绝对的,最推荐的方法还是把系统的平均负载监控起来,然后根据更多的历史数据,判断负载的变化趋势。当发现负载有明显升高趋势时,比如说负载翻倍了,再去做分析和调查。
#平均负载与CPU使用率
现实工作中,我们经常容易把平均负载和CPU使用率混淆。
平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包扣了正在使用CPU的进程,还包扣等待CPU和等待i/o的进程。 而CPU使用率,是单位时间内CPU繁忙情况的统计,跟平均负载并不一定完全对应。比如:
。CPU密集型进程,使用大量CPU会导致平均负载升高,此时这两者是一致的
。i/o密集型进程,等待i/o也会导致平均负载升高,但CPU使用率不一定很高。
。大量等待CPU的进程调度也会导致平均负载升高,此时的CPU使用率也会比较高。
平均负载案例分析 以三个示例分别来看这三种情况,并用iostat ,mpstat ,pidstat等工具,找出平均负载升高的根源
下面的案例都是基于Ubuntu 18.04
预先安装stress 和sysstat包 ,如apt install stress sysstat
Stress是一个Linux系统压力测试工具,而sysstat包含了常用的Linux性能工具,用来监控和分析系统的性能。
。mpstat是一个常用的多核cpu性能分析工具,用来实时查看每个CPU的性能指标,以及所有CPU的平均指标
。pidstat是一个常用的进程性能分析工具,用来实时查看进程的CPU,内存,i/o以及上下文切换等性能指标
上面提及的所有命令默认以root用户运行。
先用uptime命令看一下测试前的平均负载情况:
$ uptime
..., load average: 0.11, 0.15, 0.09
复制代码
场景一:CPU密集型进程
首先,在第一个终端运行stress命令,模拟一个cpu使用率100%的场景:
$ stress --cpu 1 --timeout 600
复制代码
接着在第二个终端运行uptime查看平均负载的变化情况:
-d 参数表示高亮显示变化的区域
$ watch -d uptime
..., load average: 1.00, 0.75, 0.39
复制代码
最后在第三个终端运行mpstat查看CPU使用率的变化情况:
-P ALL 表示监控所有 CPU,后面数字 5 表示间隔 5 秒后输出一组数据
$ mpstat -P ALL 5
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:30:06 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
13:30:11 all 50.05 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 49.95
13:30:11 0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.00
13:30:11 1 100.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
复制代码
从终端二中可以看到,1分钟的平均负载会慢慢增加 到1.00,而从终端三中还可以看到,正好有一个cpu的使用率为100%,但它的iowait只有0.这说明,平均负载的升高正是由于CPU使用率为100%
可以使用pidstat来查询是那个进程导致了CPU使用率为100%:
# 间隔 5 秒后输出一组数据
$ pidstat -u 5 1
13:37:07 UID PID %usr %system %guest %wait %CPU CPU Command
13:37:12 0 2962 100.00 0.00 0.00 0.00 100.00 1 stress
复制代码
从这里可以看出,stress进程的CPU使用率为100%
场景二:i/o密集型进程 首先还是运行stress命令,但这次模拟i/o压力,即不停地执行sync:
$ stress -i 1 --timeout 600
复制代码
还是在第二个终端运行uptime查看平均负载的变化情况:
$ watch -d uptime
..., load average: 1.06, 0.58, 0.37
复制代码
然后,第三个终端运行mpstat查看CPU使用率的变化情况;
# 显示所有 CPU 的指标,并在间隔 5 秒输出一组数据
$ mpstat -P ALL 5 1
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:41:28 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
13:41:33 all 0.21 0.00 12.07 32.67 0.00 0.21 0.00 0.00 0.00 54.84
13:41:33 0 0.43 0.00 23.87 67.53 0.00 0.43 0.00 0.00 0.00 7.74
13:41:33 1 0.00 0.00 0.81 0.20 0.00 0.00 0.00 0.00 0.00 98.99
复制代码
从这里可以看到,1分钟的平均负载会慢慢增加到1.06,其中一个cpu的系统CPU使用率升高到了23.87,而iowait高达67.53%,这说明,平均负载的升高是由于iowait的升高。 我们可以用pidstat来查询是哪个进程导致的:
# 间隔 5 秒后输出一组数据,-u 表示 CPU 指标
$ pidstat -u 5 1
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:42:08 UID PID %usr %system %guest %wait %CPU CPU Command
13:42:13 0 104 0.00 3.39 0.00 0.00 3.39 1 kworker/1:1H
13:42:13 0 109 0.00 0.40 0.00 0.00 0.40 0 kworker/0:1H
13:42:13 0 2997 2.00 35.53 0.00 3.99 37.52 1 stress
13:42:13 0 3057 0.00 0.40 0.00 0.00 0.40 0 pidstat
复制代码
可以看到还是stress进程导致的。
场景三:大量进程的场景 当系统中运行进程超出CPU运行能力时,就会出现等待CPU的进程。 比如,我们还是使用stress,但这次模拟的是8个进程:
$ stress -c 8 --timeout 600
复制代码
由于系统只有2个CPU,明显比8个进程少得多,因而,系统的CPU处于严重过载状态,平均负载高达7.97:
$ uptime
..., load average: 7.97, 5.93, 3.02
复制代码
接着再运行pidstat来看一下进程的情况:
# 间隔 5 秒后输出一组数据
$ pidstat -u 5 1
14:23:25 UID PID %usr %system %guest %wait %CPU CPU Command
14:23:30 0 3190 25.00 0.00 0.00 74.80 25.00 0 stress
14:23:30 0 3191 25.00 0.00 0.00 75.20 25.00 0 stress
14:23:30 0 3192 25.00 0.00 0.00 74.80 25.00 1 stress
14:23:30 0 3193 25.00 0.00 0.00 75.00 25.00 1 stress
14:23:30 0 3194 24.80 0.00 0.00 74.60 24.80 0 stress
14:23:30 0 3195 24.80 0.00 0.00 75.00 24.80 0 stress
14:23:30 0 3196 24.80 0.00 0.00 74.60 24.80 1 stress
14:23:30 0 3197 24.80 0.00 0.00 74.80 24.80 1 stress
14:23:30 0 3200 0.00 0.20 0.00 0.20 0.20 0 pidstat
复制代码
可以看出,8个进程在争抢2个CPU,每个进程等待CPU的时间(也就是代码块中的%wait列)高达75% 这些超出CPU计算能力的进程,最终导致CPU过载。
总结:
平均负载提供了一个快速查看系统整体性能的手段,反映了整体的负载情况。但只看平均负载本身,我们并不能直接发现,到底是哪里出了问题。所以,在理解平均负载时,也要注意:
。平均负载有可能是CPU密集型进程导致的
。平均负载高并不一定代表CPU使用率高,还有可能是i/o更繁忙了
。当发现负载高的时候,可以使用mpstat,pidstat等工具,辅助分析负载的来源。
注意:
1.iowait无法升高的问题,是因为案例中stress使用的是sync()系统调用,它的作用是刷新缓冲区内存到磁盘中。对于新安装的虚拟机,缓冲区可能比较小,无法产生大的io压力,这样大部分就都是系统调用的消耗了。所以,会看到只有系统cpu使用率升高。解决方法是使用stress的下一代stress-ng,它支持更丰富的选项,比如stress-ng -i 1 --hdd 1 –timeout 600 (--hdd表示读写临时文件)
2.pidstat输出中没有%wait的问题,是因为centos默认的sysstat稍微有点老,源码或者RPM升级到11.5.5版本以后就可以看到了。而Ubuntu的包一般都比较新,没有这个问题。
3.mpstat无法观测的问题,案例中是等待5秒后输出1次结果就停止了,更好的做法是持续监控一段时间,比如持续观测20次: mpstat –P ALL 5 20