Day21进程管理2
glances
screen
-S
-r
ctrl +a+d 从后台到前台
不能用ctrl +d exit
管理进程状态
进程运行后,停止进程命令 kill killall pkill
[root@oldboy ~]# ps aux | grep wget
root 55018 8.0 0.2 151828 4856 pts/1 R+ 15:03 0:04 wget https://mirrors.aliyun.com/centos/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.iso
[root@oldboy ~]# kill 55018
kill -1 PID 平滑重载配置文件
kill -9 PID 强制杀死进程(于数据库类慎用)
pkill Name 批量干掉程序
killall Name 批量干掉程序
管理后台进程
通常进程都会在终端前台运行,一旦关闭终端,进程也会随着结束,此时若将进程放置后台,则不会影响前台正常作业,也不会影响后太的运行
screen
#1.安装
[root@oldboy ~]# yum install screen -y
#2.开启一个screen窗口,并制定窗口名称
[root@oldboy ~]# screen -S wget
#3.在screen窗口中执行任务即可
#4.平滑的退出screen,但不会终止screen中的任务。 注意: 如果使用exit 才算真的关闭screen窗口
ctrl+a+d
#5.查看当前正在运行的screen有哪些
[root@oldboy ~]# screen -list
[root@oldboy ~]# screen -r
#6.进入正在运行的screens
[root@oldboy ~]# screen -r wget
[root@oldboy ~]# screen -r 22058
#7.关闭screen窗口
在screen窗口 ctrl+d
或者输入 exit
进程的优先级
优先级指的是优先享受资源
nice 值越高: 表示优先级越低,例如+19,该进程容易将CPU 使用量让给其他进程。
nice 值越低: 表示优先级越高,例如-20,该进程更不倾向于让出CPU。
#1.查看进程的优先级
[root@oldboy ~]# ps axo command,nice | grep sshd
/usr/sbin/sshd -D 0
sshd: root@pts/0 0
sshd: root@pts/1 0
grep --color=auto sshd 0
NI=0 PR=20
NI=-20 PR=0
NI=10 PR=30
nice指定程序的优先级。
语法格式
nice -n 优先级数字 进程名称
#1.开启vim并且指定程序优先级为-5
[root@oldboy ~]# nice -n -5 vim &
[1] 55142
#2.查看该进程的优先级情况
[root@oldboy ~]# ps axo pid,command,nice | grep 98417
55144 grep --color=auto 98417 0
[1]+ Stopped nice -n -5 vim
renice命令修改一个正在运行的进程优先级。
语法格式
renice -n 优先级数字 进程pid
#1.查看sshd进程当前的优先级状态
[root@oldboy ~]# ps axo pid,command,nice |grep sshd
70840 sshd: root@pts/2 0
98002 /usr/sbin/sshd -D 0
#2.调整sshd主进程的优先级
[root@oldboy ~]# renice -n -20 98002
98002 (process ID) old priority 0, new priority -20
#3.调整之后记得退出终端
[root@oldboy ~]# ps axo pid,command,nice |grep sshd
70840 sshd: root@pts/2 0
98002 /usr/sbin/sshd -D -20
[root@oldboy ~]# exit
#4.当再次登陆sshd服务,会由主进程fork子进程(那么子进程会继承主进程的优先级)
[root@oldboy ~]# ps axo pid,command,nice |grep sshd
98002 /usr/sbin/sshd -D -20
98122 sshd: root@pts/0 -20
系统假死
先连接上系统,提高ssh优先级,在排查
系统平均负载
系统变慢时,可以用w uptime 或者 top 查看系统负载情况
1.平均负载
平均负载是指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,也就是平均活跃进程数
2.可运行状态和不可中断状态是什么
1.可运行状态进程,是指正在使用 CPU 或者正在等待 CPU 的进程,也就是我们ps 命令看到处于 R 状态的进程。2.不可中断进程,(你做什么事情的时候是不能打断的?) 系统中最常见的是等待硬件设备的 I/O 响应,也就是我们 ps 命令中看到的 D 状态(也称为 Disk Sleep)的进程。例如: 当一个进程向磁盘读写数据时,为了保证数据的一致性,在得到磁盘回复前,它是不能被其他进程或者中断打断的,这个时候的进程就处于不可中断状态。如果此时的进程被打断了,就容易出现磁盘数据与进程数据不一致的问题。所以,不可中断状态实际上是系统对进程和硬件设备的一种保护机制。
划重点,因此你可以简单理解为,平均负载其实就是单位时间内的活跃进程数。
3.那么在实际生产环境中,平均负载多高时,需要我们重点关注呢?
当平均负载高于 CPU 数量 70% 的时候,你就应该分析排查负载高的问题了。一旦负载过高,就可能导致进程响应变慢,进而影响服务的正常功能。但 70% 这个数字并不是绝对的,最推荐的方法,还是把系统的平均负载监控起来,然后根据更多的历史数据,判断负载的变化趋势。当发现负载有明显升高趋势时,比如说负载翻倍了,你再去做分析和调查。
4.平均负载与 CPU 使用率关系
平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在使用 CPU 的进程,还包括等待 CPU 和等待 I/O 的进程。
5.平均负载案例分析实战
下面,我们以三个示例分别来看这三种情况,并用 stress、mpstat、pidstat 等工具,找出平均负载升高的根源。stress 是 Linux 系统压力测试工具,这里我们用作异常进程模拟平均负载升高的场景。
mpstat 是多核 CPU 性能分析工具,用来实时查看每个 CPU 的性能指标,以及所有 CPU 的平均指标。pidstat 是一个常用的进程性能分析工具,用来实时查看进程的 CPU、内存、I/O 以及上下文切换等性能指标。
场景一:CPU 密集型进程
1.首先,我们在第一个终端运行 stress 命令,模拟一个 CPU 使用率 100% 的场景:
[root@oldboy ~]# stress --cpu 1 --timeout 600
2.接着,在第二个终端运行 uptime 查看平均负载的变化情况
[root@oldboy ~]# uptime
16:43:39 up 2 days, 5:53, 2 users, load average: 0.66, 0.21, 0.11
3.最后,在第三个终端运行 mpstat 查看 CPU 使用率的变化情况
# -P ALL 表示监控所有 CPU,后面数字 5 表示间隔 5 秒后输出一组数据
[root@oldboy ~]# mpstat -P ALL 5
Linux 3.10.0-957.1.3.el7.x86_64 (m01) 2019年04月29日 _x86_64_ (1 CPU)
17时32分03秒 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
17时32分08秒 all 99.80 0.00 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00
17时32分08秒 0 99.80 0.00 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00
#单核CPU所以只有一个all和0
4.从终端二中可以看到,1 分钟的平均负载会慢慢增加到 1.00,而从终端三中还可以看到,正好有一个 CPU 的使用率为 100%,但它的 iowait 只有 0。这说明,平均负载的升高正是由于 CPU 使用率为 100% 。那么,到底是哪个进程导致了 CPU 使用率为 100% 呢?可以使用 pidstat 来查询
# 间隔 5 秒后输出一组数据
[root@oldboy ~]# pidstat -u 5 1
Linux 3.10.0-957.1.3.el7.x86_64 (m01) 2019年04月29日 _x86_64_(1 CPU)
17时33分21秒 UID PID %usr %system %guest %CPU CPU Command
17时33分26秒 0 110019 98.80 0.00 0.00 98.80 0 stress
场景二:I/O 密集型进程
1.首先还是运行 stress 命令,但这次模拟 I/O 压力,即不停地执行 sync
[root@oldboy ~]# stress --io 1 --timeout 600s
2.然后在第二个终端运行 uptime 查看平均负载的变化情况:
[root@oldboy ~]# uptime
17:08:46 up 2 days, 6:18, 3 users, load average: 0.53, 0.17, 0.25
3.最后第三个终端运行 mpstat 查看 CPU 使用率的变化情况:
[root@oldboy ~]# mpstat -P ALL 5
Linux 3.10.0-957.el7.x86_64 (oldboy) 08/22/2019 _x86_64_ (1 CPU)
05:10:06 PM CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
05:10:11 PM all 1.40 0.00 98.60 0.00 0.00 0.00 0.00 0.00 0.00 0.00
05:10:11 PM 0 1.40 0.00 98.60 0.00 0.00 0.00 0.00 0.00 0.00 0.00
4.那么到底是哪个进程,导致 iowait 这么高呢?我们还是用 pidstat 来查询
[root@oldboy ~]# pidstat -u 5 1
Linux 3.10.0-957.el7.x86_64 (oldboy) 08/22/2019 _x86_64_ (1 CPU)
05:15:54 PM UID PID %usr %system %guest %CPU CPU Command
05:15:59 PM 0 5840 0.20 0.00 0.00 0.20 0 vmtoolsd
05:15:59 PM 0 26806 0.20 0.00 0.00 0.20 0 tuned
05:15:59 PM 0 55258 0.00 0.20 0.00 0.20 0 kworker/0:1
05:15:59 PM 0 55284 1.19 74.75 0.00 75.94 0 stress
05:15:59 PM 0 55294 0.00 9.74 0.00 9.74 0 kworker/u256:0
05:15:59 PM 0 55302 0.00 13.52 0.00 13.52 0 kworker/u256:1
05:15:59 PM 0 55303 0.00 0.20 0.00 0.20 0 pidstat
场景三:大量进程的场景
当系统中运行进程超出 CPU 运行能力时,就会出现等待 CPU 的进程。
1.首先,我们还是使用 stress,但这次模拟的是 4 个进程
[root@oldboy ~]# stress -c 4 --timeout 600
stress: info: [55333] dispatching hogs: 4 cpu, 0 io, 0 vm, 0 hdd
2.由于系统只有 1 个 CPU,明显比 4 个进程要少得多,因而,系统的 CPU 处于严重过载状态
[root@oldboy ~]# uptime
17:20:54 up 2 days, 6:30, 4 users, load average: 2.83, 1.48, 0.90
3.然后,再运行 pidstat 来看一下进程的情况:
[root@oldboy ~]# pidstat -u 5 1
Linux 3.10.0-957.el7.x86_64 (oldboy) 08/22/2019 _x86_64_ (1 CPU)
05:21:24 PM UID PID %usr %system %guest %CPU CPU Command
05:21:29 PM 0 2977 0.00 0.20 0.00 0.20 0 xfsaild/sda3
05:21:29 PM 0 5840 0.20 0.00 0.00 0.20 0 vmtoolsd
05:21:29 PM 0 55334 25.15 0.00 0.00 25.15 0 stress
05:21:29 PM 0 55335 25.15 0.00 0.00 25.15 0 stress
05:21:29 PM 0 55336 24.95 0.00 0.00 24.95 0 stress
05:21:29 PM 0 55337 25.15 0.00 0.00 25.15 0 stress
05:21:29 PM 0 55345 0.00 0.20 0.00 0.20 0 pidstat
可以看出,4 个进程在争抢 1 个 CPU,每个进程等待 CPU 的时间(也就是代码块中的 %wait 列)高达 75%。这些超出 CPU 计算能力的进程,最终导致 CPU 过载。
分析完这三个案例,我再来归纳一下平均负载与CPU
平均负载提供了一个快速查看系统整体性能的手段,反映了整体的负载情况。但只看平均负载本身,我们并不能直接发现,到底是哪里出现了瓶颈。所以,在理解平均负载时,也要注意:平均负载高有可能是 CPU 密集型进程导致的;平均负载高并不一定代表 CPU 使用率高,还有可能是 I/O 更繁忙了;当发现负载高的时候,你可以使用 mpstat、pidstat 等工具,辅助分析负载的来源