cgroups(Control Groups) 是 linux 内核提供的一种机制, 这种机制可以根据需求把一 系列系统任务及其子任务整合(或分隔)到按资源划分等级的不同组内,从而为系统资源管理提供一个统一的框架。 简单说, cgroups 可以限制、记录任务组所使用的物理资源。本质上来说, cgroups 是内核附加在程序上的一系列钩子(hook),通过程序运行时对资源的调度触发相应的钩子以达到资源追踪和限制的目的。
其可以做到对 cpu,内存等资源实现精细化的控制,目前越来越火的轻量级容器 Docker 及 k8s 中的 pod 就使用了 cgroups 提供的资源限制能力来完成 cpu,内存等部分的资源控制。
比如在一个既部署了前端 web 服务,也部署了后端计算模块的八核服务器上,可以使用 cgroups 限制 web server 仅可以使用其中的六个核,把剩下的两个核留给后端计算模块。
Resource limitation: 限制资源使用,例:内存使用上限/cpu 的使用限制
Prioritization: 优先级控制,例: CPU 利用/磁盘 IO 吞吐
Accounting: 一些审计或一些统计
Control: 挂起进程/恢复执行进程
bikio | 对块设备的IO进行限制 |
---|---|
cpu | 限制CPU时间片的分配 |
cpuacct | 生成cgroup 中的任务占用资源的报告,与cpu挂载在同一目录 |
cpuset | 给cgroup 中的任务分配独立的CPU和内存节点 |
devices | 限制设备文件的创建和对设备文件的读写 |
freezer | 暂停/恢复 cgroup 中的任务 |
memory | 对cgroup 中的任务的可用内存进行限制,并自动生成资源占用报告 |
perf_event | 允许 perf 观测 cgroup 中的task |
net_cls | cgroup 中的任务创建的数据报文的类型标识符,这让 Linux 流量控制器(tc指令)可以识别来自特定cgroup任务的数据包,并进行网络限制 |
hugetlb | 限制使用的内存页数量 |
pids | 限制任务的数量 |
rdma | 限制 RDMA 资源(cgroup2版本才有这个功能) |
作用:用于监控全部或指定进程的 CPU、内存、线程、设备IO 等系统资源的占用情况。 pidstat 第一次采样显示自系统启动开始的各项统计信息,后续采样将显示自上次运行命令后的统计信息。用户可以通过指定统计的次数和时间来获得所需的统计信息。
语法:
pidstat [ 选项 ] [ <时间间隔> ] [ <次数> ]
参数:
-u:默认参数,显示各进程的 CPU 使用统计
-r:显示各进程的内存使用统计
-d:显示各进程的 IO 使用情况
-p:指定进程号,ALL 表示所有进程
-C:指定命令
-l:显示命令名和所有参数
示例:
查看指定进程所占用内存的使用情况
每隔1秒监控一次mysql进程使用内存情况,总共监控1000次
作用:stress 是 Linux 的一个压力测试工具,可以对 CPU、 Memory、 IO、磁盘进行压力测试。
语法:
stress [OPTION [ARG]]
参数:
-c, --cpu N:产生 N 个进程,每个进程都循环调用 sqrt 函数产生 CPU 压力。
-i, --io N:产生 N 个进程,每个进程循环调用 sync 将内存缓冲区内容写到磁盘上,产生 IO 压力。通过系统调用 sync 刷新内存缓冲区数据到磁盘中,以确保同步。如果缓冲区内数据较少,写到磁盘中的数据也较少,不会产生 IO 压力。在 SSD 磁盘环境中尤为明显,很可能 iowait 总是 0,却因为大量调用系统调用 sync,导致系统 CPU 使用
率 sys 升高。
-m, --vm N:产生 N 个进程,每个进程循环调用 malloc/free 函数分配和释放内存。
–vm-bytes B:指定分配内存的大小
–vm-keep:一直占用内存,区别于不断的释放和重新分配(默认是不断释放并重新分配内存)
-d, --hdd N:产生 N 个不断执行 write 和 unlink 函数的进程(创建文件,写入内容,删除文件)
–hdd-bytes B:指定文件大小
-t, --timeout N:在 N 秒后结束程序
-q, --quiet:程序在运行的过程中不输出信息
示例:
创建 1一个进程,对cpu来进行压力测试
stress -c 1
下面的示例是通过以一个进程来如何找到自己的控制组
1.以当前 shell 进程为例,查看进程的 cgroup
2.比如 cpu 在 user.slice,我们可以找到这个目录,里面有对 init 进程的详细限制信息
1.创建内存的 cgroup 控制组,我们进入到 cgroup 的内存控制目录/sys/fs/cgroup/memory,我们创建目录 test_memory
[root@VM-0-11-centos memory]# mkdir test_memory
[root@VM-0-11-centos memory]# ls
cgroup.clone_children memory.kmem.slabinfo memory.memsw.limit_in_bytes memory.swappiness
cgroup.event_control memory.kmem.tcp.failcnt memory.memsw.max_usage_in_bytes memory.usage_in_bytes
cgroup.procs memory.kmem.tcp.limit_in_bytes memory.memsw.usage_in_bytes memory.use_hierarchy
cgroup.sane_behavior memory.kmem.tcp.max_usage_in_bytes memory.move_charge_at_immigrate notify_on_release
memory.failcnt memory.kmem.tcp.usage_in_bytes memory.numa_stat release_agent
memory.force_empty memory.kmem.usage_in_bytes memory.oom_control tasks
memory.kmem.failcnt memory.limit_in_bytes memory.pressure_level test_memory
memory.kmem.limit_in_bytes memory.max_usage_in_bytes memory.soft_limit_in_bytes YunJing
memory.kmem.max_usage_in_bytes memory.memsw.failcnt memory.stat
2.可以看到内存限制文件已经自动在 test_memory 中创建完成了, cgroups 文件系 统会在创建文件目录的时候自动创建相应的配置文件
[root@VM-0-11-centos memory]# cd test_memory/
[root@VM-0-11-centos test_memory]# ll
total 0
-rw-r–r-- 1 root root 0 Sep 12 14:27 cgroup.clone_children
–w–w–w- 1 root root 0 Sep 12 14:27 cgroup.event_control
-rw-r–r-- 1 root root 0 Sep 12 14:27 cgroup.procs
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.failcnt
–w------- 1 root root 0 Sep 12 14:27 memory.force_empty
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.failcnt
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.limit_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.max_usage_in_bytes
-r–r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.slabinfo
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.tcp.failcnt
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.tcp.limit_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.tcp.max_usage_in_bytes
-r–r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.tcp.usage_in_bytes
-r–r–r-- 1 root root 0 Sep 12 14:27 memory.kmem.usage_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.limit_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.max_usage_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.memsw.failcnt
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.memsw.limit_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.memsw.max_usage_in_bytes
-r–r–r-- 1 root root 0 Sep 12 14:27 memory.memsw.usage_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.move_charge_at_immigrate
-r–r–r-- 1 root root 0 Sep 12 14:27 memory.numa_stat
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.oom_control
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.soft_limit_in_bytes
-r–r–r-- 1 root root 0 Sep 12 14:27 memory.stat
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.swappiness
-r–r–r-- 1 root root 0 Sep 12 14:27 memory.usage_in_bytes
-rw-r–r-- 1 root root 0 Sep 12 14:27 memory.use_hierarchy
-rw-r–r-- 1 root root 0 Sep 12 14:27 notify_on_release
-rw-r–r-- 1 root root 0 Sep 12 14:27 tasks
3.配置 cgroup 的策略为最大使用 20M 内存
4.启动 1 个消耗内存的进程,每个进程占用 50M 内存
5.打开一个新的 shell 窗口 B 窗口,使用 pidstat 查看状态
6.将进程 id 移动到我们的 cgroup 策略
cd /sys/fs/cgroup/memory echo 20968 > tasks
1.创建内存的 cgroup 控制组,我们进入到 cgroup 的内存控制目录 /sys/fs/cgroup/cpu,创建目录 test_cpu,可以看到系统会自动为我们创建 cgroup 的 cpu 策略
[root@VM-0-11-centos cpu,cpuacct]# mkdir test_cpu
[root@VM-0-11-centos cpu,cpuacct]# cd test_cpu/
[root@VM-0-11-centos test_cpu]# ls
cgroup.clone_children cpuacct.stat cpu.cfs_period_us cpu.rt_runtime_us notify_on_release
cgroup.event_control cpuacct.usage cpu.cfs_quota_us cpu.shares tasks
cgroup.procs cpuacct.usage_percpu cpu.rt_period_us cpu.stat
2.打开新的 shell 窗口 B 窗口,使用 stress 模拟一个任务, cpu 使用率为 100
3.可以看到 cpu 的使用率为 接近100%
4.打开新的 shell 窗口 C 窗口,我们设置 cproup 的 cpu 使用率为 20%, cpu 使用率
的计算公式 cfs_quota_us/cfs_period_us
1) cfs_period_us: cfs_period_us 表示一个 cpu 带宽,单位为微秒。系统总 CPU 带 宽 ,默认值 100000。
2) cfs_quota_us: cfs_quota_us 表示 Cgroup 可以使用的 cpu 的带宽,单位为微秒。 cfs_quota_us 为-1,表示使用的 CPU 不受 cgroup 限制。 cfs_quota_us 的最小值为1ms(1000),最大值为 1s。
所以我们将 cfs_quota_us 文件里的值设置为 20000 ,从理论上讲就可以限制 test_cpu 控制的进程的 cpu 利用率最多是 20%
echo 20000 > test_cpu/cpu.cfs_quota_us
5.我们可以看到进程的 PID 为 27423,我们将该进程放到 tasks 文件进行控制
6.B 窗口中可以看到我们监控的 cpu 的使用率由 100%降低为 20%