Day21进程管理2

Day21进程管理2

glances

screen

-S

-r

ctrl +a+d 从后台到前台

不能用ctrl +d exit

管理进程状态

进程运行后,停止进程命令 kill killall pkill

[root@oldboy ~]# ps aux | grep wget
root      55018  8.0  0.2 151828  4856 pts/1    R+   15:03   0:04 wget https://mirrors.aliyun.com/centos/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.iso
[root@oldboy ~]# kill 55018

kill -1 PID 平滑重载配置文件
kill -9 PID 强制杀死进程(于数据库类慎用)
pkill Name 批量干掉程序 
killall Name 批量干掉程序 

管理后台进程

通常进程都会在终端前台运行,一旦关闭终端,进程也会随着结束,此时若将进程放置后台,则不会影响前台正常作业,也不会影响后太的运行

screen

#1.安装
[root@oldboy ~]# yum install screen -y

#2.开启一个screen窗口,并制定窗口名称
[root@oldboy ~]# screen -S wget

#3.在screen窗口中执行任务即可

#4.平滑的退出screen,但不会终止screen中的任务。   注意: 如果使用exit 才算真的关闭screen窗口
ctrl+a+d

#5.查看当前正在运行的screen有哪些
[root@oldboy ~]# screen -list
[root@oldboy ~]# screen -r

#6.进入正在运行的screens
[root@oldboy ~]# screen -r wget
[root@oldboy ~]# screen -r 22058

#7.关闭screen窗口
在screen窗口 ctrl+d
或者输入 exit

进程的优先级

优先级指的是优先享受资源

nice 值越高: 表示优先级越低,例如+19,该进程容易将CPU 使用量让给其他进程。

nice 值越低: 表示优先级越高,例如-20,该进程更不倾向于让出CPU。

#1.查看进程的优先级
[root@oldboy ~]# ps axo command,nice | grep sshd
/usr/sbin/sshd -D             0
sshd: root@pts/0              0
sshd: root@pts/1              0
grep --color=auto sshd        0

NI=0 PR=20

NI=-20 PR=0

NI=10 PR=30

nice指定程序的优先级。

语法格式

nice -n 优先级数字 进程名称

#1.开启vim并且指定程序优先级为-5
[root@oldboy ~]# nice -n -5 vim &
[1] 55142

#2.查看该进程的优先级情况
[root@oldboy ~]# ps axo pid,command,nice | grep 98417
 55144 grep --color=auto 98417       0

[1]+  Stopped                 nice -n -5 vim

renice命令修改一个正在运行的进程优先级。

语法格式

renice -n 优先级数字 进程pid

#1.查看sshd进程当前的优先级状态
[root@oldboy ~]# ps axo pid,command,nice |grep sshd
 70840 sshd: root@pts/2              0
 98002 /usr/sbin/sshd -D             0
 
#2.调整sshd主进程的优先级
[root@oldboy ~]# renice -n -20 98002
98002 (process ID) old priority 0, new priority -20

#3.调整之后记得退出终端
[root@oldboy ~]# ps axo pid,command,nice |grep sshd
 70840 sshd: root@pts/2              0
 98002 /usr/sbin/sshd -D           -20
[root@oldboy ~]# exit

#4.当再次登陆sshd服务,会由主进程fork子进程(那么子进程会继承主进程的优先级)
[root@oldboy ~]# ps axo pid,command,nice |grep sshd
 98002 /usr/sbin/sshd -D           -20
 98122 sshd: root@pts/0            -20

系统假死

先连接上系统,提高ssh优先级,在排查

系统平均负载

系统变慢时,可以用w uptime 或者 top 查看系统负载情况

1.平均负载

平均负载是指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,也就是平均活跃进程数

2.可运行状态和不可中断状态是什么
1.可运行状态进程,是指正在使用 CPU 或者正在等待 CPU 的进程,也就是我们ps 命令看到处于 R 状态的进程。2.不可中断进程,(你做什么事情的时候是不能打断的?) 系统中最常见的是等待硬件设备的 I/O 响应,也就是我们 ps 命令中看到的 D 状态(也称为 Disk Sleep)的进程。例如: 当一个进程向磁盘读写数据时,为了保证数据的一致性,在得到磁盘回复前,它是不能被其他进程或者中断打断的,这个时候的进程就处于不可中断状态。如果此时的进程被打断了,就容易出现磁盘数据与进程数据不一致的问题。所以,不可中断状态实际上是系统对进程和硬件设备的一种保护机制。

划重点,因此你可以简单理解为,平均负载其实就是单位时间内的活跃进程数。

3.那么在实际生产环境中,平均负载多高时,需要我们重点关注呢?
当平均负载高于 CPU 数量 70% 的时候,你就应该分析排查负载高的问题了。一旦负载过高,就可能导致进程响应变慢,进而影响服务的正常功能。但 70% 这个数字并不是绝对的,最推荐的方法,还是把系统的平均负载监控起来,然后根据更多的历史数据,判断负载的变化趋势。当发现负载有明显升高趋势时,比如说负载翻倍了,你再去做分析和调查。

4.平均负载与 CPU 使用率关系

平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在使用 CPU 的进程,还包括等待 CPU 和等待 I/O 的进程。

5.平均负载案例分析实战
下面,我们以三个示例分别来看这三种情况,并用 stress、mpstat、pidstat 等工具,找出平均负载升高的根源。stress 是 Linux 系统压力测试工具,这里我们用作异常进程模拟平均负载升高的场景。

mpstat 是多核 CPU 性能分析工具,用来实时查看每个 CPU 的性能指标,以及所有 CPU 的平均指标。pidstat 是一个常用的进程性能分析工具,用来实时查看进程的 CPU、内存、I/O 以及上下文切换等性能指标。

场景一:CPU 密集型进程

1.首先,我们在第一个终端运行 stress 命令,模拟一个 CPU 使用率 100% 的场景:

[root@oldboy ~]# stress --cpu 1 --timeout 600

2.接着,在第二个终端运行 uptime 查看平均负载的变化情况

[root@oldboy ~]# uptime
 16:43:39 up 2 days,  5:53,  2 users,  load average: 0.66, 0.21, 0.11

3.最后,在第三个终端运行 mpstat 查看 CPU 使用率的变化情况

# -P ALL 表示监控所有 CPU,后面数字 5 表示间隔 5 秒后输出一组数据
[root@oldboy ~]# mpstat -P ALL 5
Linux 3.10.0-957.1.3.el7.x86_64 (m01)   2019年04月29日     _x86_64_    (1 CPU)

17时32分03秒  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
17时32分08秒  all   99.80    0.00    0.20    0.00    0.00    0.00    0.00    0.00    0.00    0.00
17时32分08秒    0   99.80    0.00    0.20    0.00    0.00    0.00    0.00    0.00    0.00    0.00

#单核CPU所以只有一个all和0

4.从终端二中可以看到,1 分钟的平均负载会慢慢增加到 1.00,而从终端三中还可以看到,正好有一个 CPU 的使用率为 100%,但它的 iowait 只有 0。这说明,平均负载的升高正是由于 CPU 使用率为 100% 。那么,到底是哪个进程导致了 CPU 使用率为 100% 呢?可以使用 pidstat 来查询

# 间隔 5 秒后输出一组数据
[root@oldboy ~]# pidstat -u 5 1
Linux 3.10.0-957.1.3.el7.x86_64 (m01)   2019年04月29日     _x86_64_(1 CPU)

17时33分21秒   UID       PID    %usr %system  %guest    %CPU   CPU  Command
17时33分26秒     0    110019   98.80    0.00    0.00   98.80     0  stress

场景二:I/O 密集型进程

1.首先还是运行 stress 命令,但这次模拟 I/O 压力,即不停地执行 sync

[root@oldboy ~]# stress --io 1 --timeout 600s

2.然后在第二个终端运行 uptime 查看平均负载的变化情况:

[root@oldboy ~]# uptime
 17:08:46 up 2 days,  6:18,  3 users,  load average: 0.53, 0.17, 0.25

3.最后第三个终端运行 mpstat 查看 CPU 使用率的变化情况:

[root@oldboy ~]# mpstat -P ALL 5
Linux 3.10.0-957.el7.x86_64 (oldboy)    08/22/2019  _x86_64_    (1 CPU)

05:10:06 PM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
05:10:11 PM  all    1.40    0.00   98.60    0.00    0.00    0.00    0.00    0.00    0.00    0.00
05:10:11 PM    0    1.40    0.00   98.60    0.00    0.00    0.00    0.00    0.00    0.00    0.00

4.那么到底是哪个进程,导致 iowait 这么高呢?我们还是用 pidstat 来查询

[root@oldboy ~]#  pidstat -u 5 1
Linux 3.10.0-957.el7.x86_64 (oldboy)    08/22/2019  _x86_64_    (1 CPU)

05:15:54 PM   UID       PID    %usr %system  %guest    %CPU   CPU  Command
05:15:59 PM     0      5840    0.20    0.00    0.00    0.20     0  vmtoolsd
05:15:59 PM     0     26806    0.20    0.00    0.00    0.20     0  tuned
05:15:59 PM     0     55258    0.00    0.20    0.00    0.20     0  kworker/0:1
05:15:59 PM     0     55284    1.19   74.75    0.00   75.94     0  stress
05:15:59 PM     0     55294    0.00    9.74    0.00    9.74     0  kworker/u256:0
05:15:59 PM     0     55302    0.00   13.52    0.00   13.52     0  kworker/u256:1
05:15:59 PM     0     55303    0.00    0.20    0.00    0.20     0  pidstat

场景三:大量进程的场景
当系统中运行进程超出 CPU 运行能力时,就会出现等待 CPU 的进程。

1.首先,我们还是使用 stress,但这次模拟的是 4 个进程

[root@oldboy ~]# stress -c 4 --timeout 600
stress: info: [55333] dispatching hogs: 4 cpu, 0 io, 0 vm, 0 hdd

2.由于系统只有 1 个 CPU,明显比 4 个进程要少得多,因而,系统的 CPU 处于严重过载状态

[root@oldboy ~]# uptime
 17:20:54 up 2 days,  6:30,  4 users,  load average: 2.83, 1.48, 0.90

3.然后,再运行 pidstat 来看一下进程的情况:

[root@oldboy ~]#  pidstat -u 5 1
Linux 3.10.0-957.el7.x86_64 (oldboy)    08/22/2019  _x86_64_    (1 CPU)

05:21:24 PM   UID       PID    %usr %system  %guest    %CPU   CPU  Command
05:21:29 PM     0      2977    0.00    0.20    0.00    0.20     0  xfsaild/sda3
05:21:29 PM     0      5840    0.20    0.00    0.00    0.20     0  vmtoolsd
05:21:29 PM     0     55334   25.15    0.00    0.00   25.15     0  stress
05:21:29 PM     0     55335   25.15    0.00    0.00   25.15     0  stress
05:21:29 PM     0     55336   24.95    0.00    0.00   24.95     0  stress
05:21:29 PM     0     55337   25.15    0.00    0.00   25.15     0  stress
05:21:29 PM     0     55345    0.00    0.20    0.00    0.20     0  pidstat

可以看出,4 个进程在争抢 1 个 CPU,每个进程等待 CPU 的时间(也就是代码块中的 %wait 列)高达 75%。这些超出 CPU 计算能力的进程,最终导致 CPU 过载。

分析完这三个案例,我再来归纳一下平均负载与CPU
平均负载提供了一个快速查看系统整体性能的手段,反映了整体的负载情况。但只看平均负载本身,我们并不能直接发现,到底是哪里出现了瓶颈。所以,在理解平均负载时,也要注意:平均负载高有可能是 CPU 密集型进程导致的;平均负载高并不一定代表 CPU 使用率高,还有可能是 I/O 更繁忙了;当发现负载高的时候,你可以使用 mpstat、pidstat 等工具,辅助分析负载的来源

你可能感兴趣的:(Day21进程管理2)