Docker 网络

目录

Docker 网络实现原理

查看容器的输出和日志信息

Docker 的网络模式:

网络模式详解:

1.host模式

2.container模式

3.none模式

4.bridge模式

5.自定义网络

资源控制

1.CPU 资源控制

2.对内存使用的限制

3.对磁盘IO配额控制(blkio)的限制


Docker 网络实现原理

Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的 Container-IP 直接通信。

Docker网桥是宿主机虚拟出来的,并不是真实存在的网络设备,外部网络是无法寻址到的,这也意味着外部网络无法直接通过 Container-IP 访问到容器。如果容器希望外部访问能够访问到,可以通过映射容器端口到宿主主机(端口映射),即 docker run 创建容器时候通过 -p 或 -P 参数来启用,访问容器的时候就通过[宿主机IP]:[容器端口]访问容器。

docker run -d --name test1 -P nginx                    #随机映射端口(从32768开始)

docker run -d --name test2 -p 43000:80 nginx           #指定映射端口

docker ps -a


CONTAINER ID   IMAGE          COMMAND                   CREATED          STATUS                       PORTS                                     NAMES
85a8b9f0219a   nginx          "/docker-entrypoint.…"   5 seconds ago    Up 5 seconds                 0.0.0.0:32768->80/tcp, :::32768->80/tcp   test2
2408cad84080   nginx          "/docker-entrypoint.…"   18 minutes ago   Exited (0) 2 minutes ago                                               test1
316bd9904a0c   centos:7       "/bin/bash"               22 hours ago     Exited (137) 2 minutes ago                                             goofy_hellman
2b08b6377167   nginx:latest   "/docker-entrypoint.…"   23 hours ago     Exited (137) 2 minutes ago                                             hungry_chatterj

浏览器访问:http://192.168.110.100:43000    、http://192.168.110.100:49170

在另一台主机上能通过curl 192.168.110.100:32768连接上Docker 网络_第1张图片

注:连接可能会失败,要提前做路由转发和docker重启

vim /etc/sysctl.conf

net.ipv4.ip_forword = 1
systemctl daemon-reload

systemctl restart docker

查看容器的输出和日志信息

格式:docker logs 容器的ID/名称

/docker-entrypoint.sh: /docker-entrypoint.d/ is not empty, will attempt to perform configuration
/docker-entrypoint.sh: Looking for shell scripts in /docker-entrypoint.d/
/docker-entrypoint.sh: Launching /docker-entrypoint.d/10-listen-on-ipv6-by-default.sh
10-listen-on-ipv6-by-default.sh: info: Getting the checksum of /etc/nginx/conf.d/default.conf
10-listen-on-ipv6-by-default.sh: info: Enabled listen on IPv6 in /etc/nginx/conf.d/default.conf
/docker-entrypoint.sh: Sourcing /docker-entrypoint.d/15-local-resolvers.envsh
/docker-entrypoint.sh: Launching /docker-entrypoint.d/20-envsubst-on-templates.sh
/docker-entrypoint.sh: Launching /docker-entrypoint.d/30-tune-worker-processes.sh
/docker-entrypoint.sh: Configuration complete; ready for start up
2023/07/20 06:22:03 [notice] 1#1: using the "epoll" event method
2023/07/20 06:22:03 [notice] 1#1: nginx/1.25.1
2023/07/20 06:22:03 [notice] 1#1: built by gcc 12.2.0 (Debian 12.2.0-14)
2023/07/20 06:22:03 [notice] 1#1: OS: Linux 3.10.0-1160.el7.x86_64
2023/07/20 06:22:03 [notice] 1#1: getrlimit(RLIMIT_NOFILE): 1048576:1048576
2023/07/20 06:22:03 [notice] 1#1: start worker processes
2023/07/20 06:22:03 [notice] 1#1: start worker process 29
2023/07/20 06:22:03 [notice] 1#1: start worker process 30
192.168.110.90 - - [20/Jul/2023:06:22:20 +0000] "GET / HTTP/1.1" 200 615 "-" "curl/7.29.0" "-

注:一个容器最好只做一个业务,这样可以通过判断容器的状态来确定容器业务的状态

Docker 的网络模式:

●Host:容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。
●Container:创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围。
●None:该模式关闭了容器的网络功能。
●Bridge:默认为该模式,此模式会为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,通过docker0网桥以及iptables nat 表配置与宿主机通信。
●自定义网络

安装Docker时,它会自动创建三个网络,bridge(创建容器默认连接到此网络)、 none 、host

docker network ls     或  docker network list            #查看docker网络列表
NETWORK ID     NAME      DRIVER    SCOPE
69986460f1e0   bridge    bridge    local
14ed40770acd   host      host      local
c5e107f96259   none      null      local

#使用docker run创建Docker容器时,可以用 --net 或 --network 选项指定容器的网络模式
●host模式:使用 --net=host 指定。
●none模式:使用 --net=none 指定。
●container模式:使用 --net=container:NAME_or_ID 指定。
●bridge模式:使用 --net=bridge 指定,默认设置,可省略。

网络模式详解:

1.host模式

相当于Vmware中的桥接模式,与宿主机在同一个网络中,但没有独立IP地址。
Docker使用了Linux的Namespaces技术来进行资源隔离,如PID Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。
一个Network Namespace提供了一份独立的网络环境,包括网卡、路由、iptable规则等都与其他的Network Namespace隔离。 一个Docker容器一般会分配一个独立的Network Namespace。 但如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡、配置自己的IP等,而是使用宿主机的IP和端口。

docker run -itd --name test4 --net=host nginx
curl 192.168.110.100:80



Welcome to nginx!



Welcome to nginx!

If you see this page, the nginx web server is successfully installed and working. Further configuration is required.

For online documentation and support please refer to nginx.org.
Commercial support is available at nginx.com.

Thank you for using nginx.

2.container模式

在理解了host模式后,这个模式也就好理解了。这个模式指定新创建的容器和已经存在的一个容器共享一个Network Namespace,而不是和宿主机共享。 新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过lo网卡设备通信。

docker run -itd --name test1 nginx /bin/bash            #--name 选项可以给容器创建一个自定义名称

docker ps -a
CONTAINER ID   IMAGE     COMMAND                   CREATED             STATUS          PORTS                                     NAMES
3aaef58d1f12   nginx     "/docker-entrypoint.…"   20 minutes ago      Up 20 minutes                                             test4
e6b27c452390   nginx     "/docker-entrypoint.…"   22 minutes ago      Up 22 minutes   80/tcp                                    test2
c240f9d08779   nginx     "/docker-entrypoint.…"   23 minutes ago      Up 23 minutes                                             test3
da6471ec2497   nginx     "/docker-entrypoint.…"   30 minutes ago      Up 30 minutes                                             test
2408cad84080   nginx     "/docker-entrypoint.…"   About an hour ago   Up 30 minutes   0.0.0.0:32769->80/tcp, :::32769->80/tcp   test1
docker inspect -f '{{.State.Pid}}' 3aaef58d1f12       #查看容器进程号
15987

ls -l /proc/15987/ns                       #查看容器的进程、网络、文件系统等命名空间编号
总用量 0
lrwxrwxrwx. 1 root root 0 7月  20 15:08 ipc -> ipc:[4026532674]
lrwxrwxrwx. 1 root root 0 7月  20 15:08 mnt -> mnt:[4026532672]
lrwxrwxrwx. 1 root root 0 7月  20 15:08 net -> net:[4026531956]
lrwxrwxrwx. 1 root root 0 7月  20 15:08 pid -> pid:[4026532675]
lrwxrwxrwx. 1 root root 0 7月  20 15:08 user -> user:[4026531837]
lrwxrwxrwx. 1 root root 0 7月  20 15:08 uts -> uts:[4026532673]
docker run -itd --name test2 --net=container:3ed82355f811 centos:7 /bin/bash
docker ps -a
CONTAINER ID   IMAGE     COMMAND                   CREATED             STATUS          PORTS                                     NAMES
6a1fca70cdb7   nginx     "/docker-entrypoint.…"   17 seconds ago      Up 17 seconds                                             test5
3aaef58d1f12   nginx     "/docker-entrypoint.…"   22 minutes ago      Up 22 minutes                                             test4
e6b27c452390   nginx     "/docker-entrypoint.…"   24 minutes ago      Up 24 minutes   80/tcp                                    test2
c240f9d08779   nginx     "/docker-entrypoint.…"   25 minutes ago      Up 25 minutes                                             test3
da6471ec2497   nginx     "/docker-entrypoint.…"   32 minutes ago      Up 32 minutes                                             test
2408cad84080   nginx     "/docker-entrypoint.…"   About an hour ago   Up 32 minutes   0.0.0.0:32769->80/tcp, :::32769->80/tcp   test1
docker inspect -f '{{.State.Pid}}' 6a1fca70cdb7
16427

ls -l /proc/16427/ns            #查看可以发现两个容器的 net namespace 编号相同
总用量 0
lrwxrwxrwx. 1 root root 0 7月  20 15:19 ipc -> ipc:[4026532678]
lrwxrwxrwx. 1 root root 0 7月  20 15:19 mnt -> mnt:[4026532676]
lrwxrwxrwx. 1 root root 0 7月  20 15:19 net -> net:[4026531956]
lrwxrwxrwx. 1 root root 0 7月  20 15:19 pid -> pid:[4026532679]
lrwxrwxrwx. 1 root root 0 7月  20 15:19 user -> user:[4026531837]
lrwxrwxrwx. 1 root root 0 7月  20 15:19 uts -> uts:[4026532677]

3.none模式

使用none模式,Docker容器拥有自己的Network Namespace,但是,并不为Docker容器进行任何网络配置。 也就是说,这个Docker容器没有网卡、IP、路由等信息。这种网络模式下容器只有lo回环网络,没有其他网卡。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性。

4.bridge模式

bridge模式是docker的默认网络模式,不用--net参数,就是bridge模式。

相当于Vmware中的 nat 模式,容器使用独立network Namespace,并连接到docker0虚拟网卡。通过docker0网桥以及iptables nat表配置与宿主机通信,此模式会为每一个容器分配Network Namespace、设置IP等,并将一个主机上的 Docker 容器连接到一个虚拟网桥上。    

(1)当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。

(2)从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备。 veth设备总是成对出现的,它们组成了一个数据的通道,数据从一个设备进入,就会从另一个设备出来。因此,veth设备常用来连接两个网络设备。

(3)Docker将 veth pair 设备的一端放在新创建的容器中,并命名为 eth0(容器的网卡),另一端放在主机中, 以 veth* 这样类似的名字命名, 并将这个网络设备加入到 docker0 网桥中。可以通过 brctl show 命令查看。

bridge name     bridge id               STP enabled     interfaces
docker0         8000.02428d0fb217       no              veth8b3b597
                                                        vetha26b7b5
                                                        vethef20422
virbr0          8000.5254000fbd0e       yes             virbr0-nic

(4)使用 docker run -p 时,docker实际是在iptables做了DNAT规则,实现端口转发功能。可以使用iptables -t nat -vnL 查看。

for i in $(docker ps -aq); do docker inspect $i | grep -i ipaddress; done
            "SecondaryIPAddresses": null,
            "IPAddress": "172.17.0.4",
                    "IPAddress": "172.17.0.4",
            "SecondaryIPAddresses": null,
            "IPAddress": "",
            "SecondaryIPAddresses": null,
            "IPAddress": "",
                    "IPAddress": "",
            "SecondaryIPAddresses": null,
            "IPAddress": "172.17.0.3",
                    "IPAddress": "172.17.0.3",
            "SecondaryIPAddresses": null,
            "IPAddress": "",
                    "IPAddress": "",
            "SecondaryIPAddresses": null,
            "IPAddress": "",
                    "IPAddress": "",
            "SecondaryIPAddresses": null,
            "IPAddress": "172.17.0.2",
                    "IPAddress": "172.17.0.2",

5.自定义网络

#直接使用bridge模式,是无法支持指定IP运行docker的,例如执行以下命令就会报错

docker run -itd --name test3 --network bridge --ip 172.17.0.10 centos:7 /bin/bash

创建自定义网络
可以先自定义网络,再使用指定IP运行docker

docker network create --subnet=192.168.0.0/16 --opt "com.docker.network.bridge.name"="docker1"  mynetwork
9427cafc08b91fd261f5dcfc759d733c8c3afa8f6732d767b7ccfcc5f27931d9

#docker1 为执行 ifconfig -a 命令时,显示的网卡名,如果不使用 --opt 参数指定此名称,那你在使用 ifconfig -a 命令查看网络信息时,看到的是类似 br-110eb56a0b22 这样的名字,这显然不怎么好记。
#mynetwork 为执行 docker network list 命令时,显示的bridge网络模式名称。

docker run -itd --name t1 --net mynetwork --ip 192.168.0.10 centos:7 /bin/bash

资源控制

Docker 通过 Cgroup 来控制容器使用的资源配额,包括 CPU、内存、磁盘三大方面, 基本覆盖了常见的资源配额和使用量控制。
Cgroup 是 ControlGroups 的缩写,是 Linux 内核提供的一种可以限制、记录、隔离进程组所使用的物理资源(如 CPU、内存、磁盘 IO 等等) 的机制,被 LXC、docker 等很多项目用于实现进程资源控制。Cgroup 本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O 或内存的分配控制等具体的资源管理是通过该功能来实现的。

1.CPU 资源控制

(1)设置CPU使用率上限
Linux通过CFS(Completely Fair Scheduler,完全公平调度器)来调度各个进程对CPU的使用。CFS默认的调度周期是100ms。
我们可以设置每个容器进程的调度周期,以及在这个周期内各个容器最多能使用多少 CPU 时间。

使用 --cpu-period 即可设置调度周期,使用 --cpu-quota 即可设置在每个周期内容器能使用的CPU时间。两者可以配合使用。
CFS 周期的有效范围是 1ms~1s,对应的 --cpu-period 的数值范围是 1000~1000000。
而容器的 CPU 配额必须不小于 1ms,即 --cpu-quota 的值必须 >= 1000。

docker run -itd --name test5 centos:7 /bin/bash

docker ps -a
CONTAINER ID   IMAGE      COMMAND       CREATED      STATUS       PORTS     NAMES
3ed82355f811   centos:7   "/bin/bash"   5 days ago   Up 6 hours             test5
 cd /sys/fs/cgroup/cpu/docker/3d799e767a66c482307e3a3ff6340b275cc7188aa3843b8ef83142b6659cadc2/
cat cpu.cfs_quota_us 
-1
cat cpu.cfs_period_us 
100000

#cpu.cfs_period_us:cpu分配的周期(微秒,所以文件名中用 us 表示),默认为100000。
#cpu.cfs_quota_us:表示该cgroups限制占用的时间(微秒),默认为-1,表示不限制。 如果设为50000,表示占用50000/100000=50%的CPU。

进行CPU压力测试

docker exec -it  /bin/bash
vim /cpu.sh
#!/bin/bash
i=0
while true
do
let i++
done
chmod +x /cpu.sh
./cpu.sh
top                    #可以看到这个脚本占了很多的cpu资源
top - 16:08:32 up  8:29,  4 users,  load average: 0.55, 0.16, 0.09
Tasks: 232 total,   2 running, 230 sleeping,   0 stopped,   0 zombie
%Cpu(s): 27.9 us,  2.9 sy,  0.0 ni, 69.2 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  4026152 total,   176548 free,  1690252 used,  2159352 buff/cache
KiB Swap:  4063228 total,  4022268 free,    40960 used.  1915396 avail Mem

   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
 18200 root      20   0   11688   1100    916 R  99.7  0.0   0:39.29 cpu.sh
  7818 root      20   0 3023700 154492  73088 S   4.3  3.8  15:25.52 Web Conte+
     6 root      20   0       0      0      0 S   0.3  0.0   0:07.52 ksoftirqd+
  2166 root      20   0  527844   8180   6188 S   0.3  0.2   0:01.54 goa-ident+
 18259 root      20   0  162200   2368   1580 R   0.3  0.1   0:00.07 top
     1 root      20   0  194096   6704   3672 S   0.0  0.2   0:07.31 systemd
     2 root      20   0       0      0      0 S   0.0  0.0   0:00.03 kthreadd
     4 root       0 -20       0      0      0 S   0.0  0.0   0:00.00 kworker/0+
     7 root      rt   0       0      0      0 S   0.0  0.0   0:00.19 migration+
     8 root      20   0       0      0      0 S   0.0  0.0   0:00.00 rcu_bh
     9 root      20   0       0      0      0 S   0.0  0.0   0:08.11 rcu_sched
    10 root       0 -20       0      0      0 S   0.0  0.0   0:00.00 lru-add-d+
    11 root      rt   0       0      0      0 S   0.0  0.0   0:00.39 watchdog/0
    12 root      rt   0       0      0      0 S   0.0  0.0   0:00.25 watchdog/1
    13 root      rt   0       0      0      0 S   0.0  0.0   0:00.24 migration+
    14 root      20   0       0      0      0 S   0.0  0.0   0:02.48 ksoftirqd+
    16 root       0 -20       0      0      0 S   0.0  0.0   0:00.00 kworker/1+

设置50%的比例分配CPU使用时间上限

docker run -itd --name test2 --cpu-quota 50000 centos:7 /bin/bash    #可以重新创建一个容器并设置限额

或者

cd /sys/fs/cgroup/cpu/docker/3ed82355f81151c4568aaa6e7bc60ba6984201c119125360924bf7dfd6eaa42b/
echo 50000 > cpu.cfs_quota_us
docker exec -it 3ed82355f811 /bin/bash
./cpu.sh
top                    #可以看到cpu占用率接近50%,cgroups对cpu的控制起了效果
Tasks: 233 total,   2 running, 231 sleeping,   0 stopped,   0 zombie
%Cpu(s): 12.0 us,  1.6 sy,  0.0 ni, 86.4 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  4026152 total,   167928 free,  1694548 used,  2163676 buff/cache
KiB Swap:  4063228 total,  4022268 free,    40960 used.  1910928 avail Mem

   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
 18491 root      20   0   11688   1096    916 R  50.2  0.0   0:03.79 cpu.sh
  7818 root      20   0 3023700 154492  73088 S   4.3  3.8  15:46.73 Web Conte+
  2076 root      20   0 3584620 254384  91092 S   0.3  6.3   2:00.87 gnome-she+
  2324 root      20   0  609068  27484  18348 S   0.3  0.7   0:43.74 vmtoolsd
  4310 root      20   0 1256844  35008  15132 S   0.3  0.9   0:43.10 containerd
     1 root      20   0  194096   6704   3672 S   0.0  0.2   0:07.36 systemd
     2 root      20   0       0      0      0 S   0.0  0.0   0:00.03 kthreadd
     4 root       0 -20       0      0      0 S   0.0  0.0   0:00.00 kworker/0+
     6 root      20   0       0      0      0 S   0.0  0.0   0:07.52 ksoftirqd+
     7 root      rt   0       0      0      0 S   0.0  0.0   0:00.19 migration+
     8 root      20   0       0      0      0 S   0.0  0.0   0:00.00 rcu_bh
     9 root      20   0       0      0      0 S   0.0  0.0   0:08.15 rcu_sched
    10 root       0 -20       0      0      0 S   0.0  0.0   0:00.00 lru-add-d+
    11 root      rt   0       0      0      0 S   0.0  0.0   0:00.39 watchdog/0
    12 root      rt   0       0      0      0 S   0.0  0.0   0:00.26 watchdog/1
    13 root      rt   0       0      0      0 S   0.0  0.0   0:00.24 migration+
    14 root      20   0       0      0      0 S   0.0  0.0   0:02.48 ksoftirqd+

#在多核情况下,如果允许容器进程完全占用两个 CPU, 则可以将 cpu-period 设置为 100000( 即 0.1 秒), cpu-quota设置为 200000(0.2 秒)。


(2)设置CPU资源占用比(设置多个容器时才有效)
Docker 通过 --cpu-shares 指定 CPU 份额,默认值为1024,值为1024的倍数。
创建两个容器为 c1 和 c2,若只有这两个容器,设置容器的权重,使得c1和c2的CPU资源占比为1/3和2/3。

docker run -itd --name c1 --cpu-shares 512 centos:7    
docker run -itd --name c2 --cpu-shares 1024 centos:7

分别进入容器,进行压力测试

yum install -y epel-release
yum install -y stress
stress -c 4                #产生四个进程,每个进程都反复不停的计算随机数的平方根

查看容器运行状态(动态更新)
 

docker stats
CONTAINER ID   NAME      CPU %     MEM USAGE / LIMIT    MEM %     NET I/O          BLOCK I/O         PIDS
ed9509a1f020   z2        394.57%   202.5MiB / 3.84GiB   5.15%     38.4MB / 255kB   41MB / 50.6MB     7
4e3e37302644   z1        179.57%   166.7MiB / 3.84GiB   4.24%     38.4MB / 352kB   59.9MB / 51.4MB   7
24156aaa8e79   test3     0.00%     416KiB / 3.84GiB     0.01%     740B / 0B        0B / 6.14kB       1
6b18987e8368   test2     0.00%     1.207MiB / 3.84GiB   0.03%     740B / 0B        4.06MB / 50.2kB   1
3d799e767a66   test1     0.00%     248KiB / 3.84GiB     0.01%     821B / 0B        0B / 0B           1

可以看到在 CPU 进行时间片分配的时候,容器 c2 比容器 c1 多一倍的机会获得 CPU 的时间片。
但分配的结果取决于当时主机和其他容器的运行状态, 实际上也无法保证容器 c1 一定能获得 CPU 时间片。比如容器 c1 的进程一直是空闲的,那么容器 c2 是可以获取比容器 c1 更多的 CPU 时间片的。极端情况下,例如主机上只运行了一个容器,即使它的 CPU 份额只有 50,它也可以独占整个主机的 CPU 资源。

Cgroups 只在容器分配的资源紧缺top时,即在需要对容器使用的资源进行限制时,才会生效。因此,无法单纯根据某个容器的 CPU 份额来确定有多少 CPU 资源分配给它,资源分配结果取决于同时运行的其他容器的 CPU 分配和容器中进程运行情况。

(3)设置容器绑定指定的CPU
#先分配虚拟机4个CPU核数

docker run -itd --name test7 --cpuset-cpus 1,3 centos:7 /bin/bash

进入容器,进行压力测试

yum install -y epel-release
yum install stress -y
stress -c 4
top - 16:53:01 up  9:14,  5 users,  load average: 0.98, 0.92, 1.74
Tasks: 249 total,   5 running, 244 sleeping,   0 stopped,   0 zombie
%Cpu0  :  1.1 us,  0.7 sy,  0.0 ni, 97.5 id,  0.0 wa,  0.0 hi,  0.7 si,  0.0 st
%Cpu1  : 99.2 us,  0.0 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.8 si,  0.0 st
KiB Mem :  4026152 total,   181100 free,  1702964 used,  2142088 buff/cache
KiB Swap:  4063228 total,  4020980 free,    42248 used.  1900128 avail Mem

   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
 19620 root      20   0    7312     96      0 R  25.2  0.0   0:03.69 stress
 19622 root      20   0    7312     96      0 R  25.2  0.0   0:03.69 stress
 19619 root      20   0    7312     96      0 R  24.9  0.0   0:03.68 stress
 19621 root      20   0    7312     96      0 R  24.9  0.0   0:03.68 stress
  7818 root      20   0 3023700 149640  67972 S   4.3  3.7  17:06.28 Web Content
   416 root      20   0       0      0      0 S   0.3  0.0   0:22.66 xfsaild/dm-0

退出容器,执行 top 命令再按 1 查看CPU使用情况。


2.对内存使用的限制

-m(--memory=) 选项用于限制容器可以使用的最大内存

docker run -itd --name test8 -m 512m centos:7 /bin/bash
CONTAINER ID   NAME      CPU %     MEM USAGE / LIMIT    MEM %     NET I/O          BLOCK I/O         PIDS
23cf9b0a4e2e   m1        0.00%     404KiB / 512MiB      0.08%     656B / 0B        0B / 0B           1
061c3263f71c   g1        0.00%     209.1MiB / 3.84GiB   5.32%     38.4MB / 361kB   32.5MB / 50.6MB   1
ed9509a1f020   z2        0.00%     151.3MiB / 3.84GiB   3.85%     38.4MB / 255kB   41MB / 50.6MB     2
4e3e37302644   z1        0.00%     124MiB / 3.84GiB     3.15%     38.4MB / 352kB   59.9MB / 51.4MB   1
24156aaa8e79   test3     0.00%     416KiB / 3.84GiB     0.01%     782B / 0B        0B / 6.14kB       1
6b18987e8368   test2     0.00%     1.156MiB / 3.84GiB   0.03%     782B / 0B        4.06MB / 50.2kB   1
3d799e767a66   test1     0.00%     248KiB / 3.84GiB     0.01%     863B / 0B        0B / 0B           1

//限制可用的 swap 大小, --memory-swap
强调一下,--memory-swap 是必须要与 --memory 一起使用的。

正常情况下,--memory-swap 的值包含容器可用内存和可用 swap。
所以 -m 300m --memory-swap=1g 的含义为:容器可以使用 300M 的物理内存,并且可以使用 700M(1G - 300)的 swap。

如果 --memory-swap 设置为 0 或者 不设置,则容器可以使用的 swap 大小为 -m 值的两倍。
如果 --memory-swap 的值和 -m 值相同,则容器不能使用 swap。
如果 --memory-swap 值为 -1,它表示容器程序使用的内存受限,而可以使用的 swap 空间使用不受限制(宿主机有多少 swap 容器就可以使用多少)。


3.对磁盘IO配额控制(blkio)的限制

--device-read-bps:限制某个设备上的读速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:

docker run -itd --name test9 --device-read-bps /dev/sda:1M  centos:7 /bin/bash

--device-write-bps : 限制某个设备上的写速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:

docker run -itd --name test10 --device-write-bps /dev/sda:1mb centos:7 /bin/bash
--device-read-iops :限制读某个设备的iops(次数)
 
--device-write-iops :限制写入某个设备的iops(次数)

创建容器,并限制写速度

docker run -it --name test10 --device-write-bps /dev/sda:1mb centos:7 /bin/bash

通过dd来验证写速度
 

dd if=/dev/zero of=test.out bs=1M count=10 oflag=direct                #添加oflag参数以规避掉文件系统cache
10+0 records in
10+0 records out
10485760 bytes (10 MB) copied, 10.0031 s, 1.0 MB/s

清理docker占用的磁盘空间

docker system prune -a            #可以用于清理磁盘,删除关闭的容器、无用的数据卷和网络

你可能感兴趣的:(docker,容器)