目录
前言
一、对CPU使用率的控制
1、使用stress工具测试CPU 和内存使用情况
2、设置CPU资源占用比(设置多个容器时才有效)
3、限制 CPU 使用周期速率
4、限制 CPU 内核使用
二、对内存限额
三、对-Block IO的限制
四、bps 和iops 的限制
总结
Cgroups如何工作的?
Cgroup对cpu限制小结
Cgroup对内存的限制小结
资源限制的主要类型
资源限制的几种方式
资源限制的状态查询
Cgroup 是 Control group 的简写,是 Linux 内核提供的一种限制所使用物理资源的机制,包括 CPU、内存 和 IO 这三大方面,基本覆盖了常见的资源配额和使用量控制
docker 使用cgrqup控制资源,K8S 里面也有limit(使用上限),cgroup是一种资源控制手段,也是容器隔离的6个名称空间的一种实现手段
docker通过cgroup来控制容器使用的资源配额,包括CPU、内存、磁盘三大方面,基本覆盖了常见的资源配额和使用量控制
mkdir /opt/stress
vim /opt/stress/Dockerfile
FROM centos:7
RUN yum -y install wget
RUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo #epel源,可以使用扩展软件包(stress)
RUN yum -y install stress #可以指定产生线程,使用循环语句,测试用'
cd /opt/stress/
systemctl restart docker.service #建议重启docker,不然下面的操作可能会失败,卡在wget
docker build -t crntos:stress . #生成镜像
...
...
Successfully built 7e69cc4d1b07
Successfully tagged crntos:stress
docker images #以下可以使用该镜像为基础产生的容器进行测试:
创建两个容器为cpu512和cpu1024, 若只有这两个容器,设置容器的权重,使得cpu512和cpu1024的CPU资源占比为1/3和2/3
docker run -itd --name cpu512 --cpu-shares 512 crntos:stress stress -c 10
#-c 10表示产生10个子线程,测试用
docker run -itd --name cpu1024 --cpu-shares 1024 crntos:stress stress -c 10
#查看容器的资源使用状态(动态更新)
docker stats
资源是用cadvisor收集的
cat /sys/fs/cgroup/cpu/docker/[容器ID]/cpu.cfs_quota_us
#-1表示不做控制
#例如:容器进程需要每Ⅰ秒使用单个cPU的 0.2秒时间,可以将 --cpu-period 设置为1000000(即1秒),cpu-quota 设置为200000 0.2秒)。
#当然,在多核情况下,如果允许容器进程完全占用两个CPU,则可以将cpu-period 设置为 100000(即 0.1秒),cpu-quota 设置为200000 (0.2秒)。
docker run -itd --name test01 --cpu-period 100000 --cpu-quota 200000 crntos:stress
#也可以直接去修改文件vim /sys/fs/cgroup/cpu/docker/[容器ID]/cpu.cfs_quota_us
#法一:进入指定容器查看
docker exec -it test01 bash
cd /sys/fs/cgroup/cpu
cat cpu.cfs_period_us
cat cpu.cfs_quota_us
#法二:docker inspect 容器ID
docker inspect 6ccc4ddcb6ad
docker run -itd --name cpu1 --cpuset-cpus 0-1 crntos:stress
#执行以上命令需要宿主机为双核,表示创建的容器只能用0、1两个内核。最终生成的 cgroup的 CPU内核配置如下
cat /sys/fs/cgroup/cpuset/docker/[容器ID]/cpuset.cpus
docker exec -it cpu1 /bin/bash -c "stress -c 10"
与操作系统类似,容器可使用的内存包括两部分:物理内存和 Swap
-m 或 --memory:设置内存的使用限额
–memory-swap:设置内存+swap 的使用限额
docker run -itd -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M
#--vm 1:启动1个内存工作线程
#--vm-bytes 280M:每个线程分配280M内存
#默认情况下,容器可以使用主机上的所有空闲内存。
#与 CPU 的cgroups 配置类似,Docker会自动为容器在目录/sys/fs/cgroup/memory/docker/<容器完整的 ID>/memory.limit_in_bytes
docker run -itd -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M
#如果让工作线程分配的内存超过300M,分配的内存超过了限额,stress线程会报错,容器退出
'注意!一旦容器Cgroup使用的内存超过了限制的容量,Linux内核就会尝试收回这些内存'
'如果仍旧无法控制内存使用在这个设置的范围之内,就会杀死该进程!
在下面的例子中,容器A读写磁盘的带宽是容器B的两倍。
#容器A
docker run -it --name container_A --blkio-weight 600 centos:stress
cat /sys/fs/cgroup/blkio/blkio.weight
#容器B
docker run -it --name container_B --blkio-weight 300 centos:stress
cat /sys/fs/cgroup/blkio/blkio.weight
bps 是byte per second,每秒读写的数据量。
iops是io per second,每秒IO的次数。
可通过以下参数控制容器的bps 和iops:
#下面的示例是限制容器写/dev/sda 的速率为5MB/s
docker run -it --device-write-bps /dev/sda:5MB centos:stress
dd if=/dev/zero of=test bs=1M count=100 oflag=direct
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 20.0018 s, 5.2 MB/s
#通过dd命令测试在容器中写磁盘的速度。因为容器的文件系统是在 host /dev/sda 上的。
#在容器中写文件相当子对host /dev/sda进行写操作。另外,oflag=direct指定用direct IO 方式写文件,这样--device-write-bps才能生效。
#结果表明限速 5MB/s左右。作为对比测试,如果不限速,结果如下。
docker run -it centos:stress
dd if=/dev/zero of=test bs=1M count=100 oflag=direct
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 0.0470107 s, 2.2 GB/s
CPU —>VCPU–>以进程的方式体现在workstation环境(docker环境中) —》docker表现形式是容器,–>Vcpu以进程的方式控制容器–》容器中的应用需要的是服务进程支持–》宿主机内核中cpu可以被cgroup管理(通过分配资源手段)–》linux内核中的cgroup可以直接控制VCPU的资源分配,而VCPU在workstation中是以进程的方式管理docker容器的,所以,也可以认为Cgroups在直接/间接管理docker容器中的应用
Cgroups 控制的是内核资源 —> 间接控制vw中vcpu的资源 —> 控制着vwM中进程资源 —> docker容器的资源 —> docker容器内应用的资源
控制的主体包括:CPU、内存、I/O
主要介绍的是CPU资源的控制而CPU资源控制的方式主要有:
①cpu-shares权重指的是多个容器使用同一个CPU的情况下,被分配到CPU资源的机会占比
②cpu-period周期指的是,CPU在给于当前管理、控制的容器分配资源时,CPU的分配周期,默认是1s,此项配置,可以在运行时直接指定
③cpuset-cpus指定容器,仅能使用指定的CPU,按照CPU的下标来表示
Cgroups 对于内存的限制,主要体现在以下两个部分:
①内存使用上限(硬限制)
②内存+swap使用上限(硬限制)
类比于K8s中的资源限制手段,也是使用的cgroups的技术,体现为limit
respones:
request: #分配的初始资源
cpu:100m
memory:100m
limits:
cpu:300m
memory:200m
build构建镜像时,可以指定该镜像的资源限制
run将镜像跑为容器的时候,可以指定容器的资源限制
容器启动之后可以在宿主机对应容器的目录下,修改资源限制,然后重载
/sys/ fs/cgroup/* (cpu、b1k、 mem) /docker/容 器ID/ ——>修改对应的资源限制文件参数就可以
docker inspect 镜像ID/容器ID
直接查看宿主机对应容器ID资源限制的文件
cgroup资源docker 原理之一, namespaces 6个名称空间像时,可以指定该镜像的资源限制
run将镜像跑为容器的时候,可以指定容器的资源限制
容器启动之后可以在宿主机对应容器的目录下,修改资源限制,然后重载
/sys/ fs/cgroup/* (cpu、b1k、 mem) /docker/容 器ID/ ——>修改对应的资源限制文件参数就可以