先搞清楚什么是容器的数据卷
然后再通过实验一一演示,看着实验效果更容易理解原理
数据卷是一个或多个容器中专门指定的目录,它能够绕过联合文件系统。
卷被设计用作数据持久化、并且是独立于容器的生命周期的。
因此,Docker不会在删除容器时自动删除数据卷卷,也不会主动“垃圾回收”掉容器不再使用的卷。
说白了,数据卷的存在就是想让的容器的数据持久化存在,而且可以实现容器之间的数据共享
当我们在使用docker容器的时候,会产生一系列的数据文件,这些数据文件在我们关闭docker容器时是会消失的
但是其中产生的部分内容我们是希望能够把它给保存起来另作用途的
Docker将应用与运行环境打包成容器发布,我们希望在运行过程钟产生的部分数据是可以持久化的的
而且容器之间我们希望能够实现数据共享
通俗地来说,docker容器数据卷可以看成使我们生活中常用的u盘,它存在于一个或多个的容器中
由docker挂载到容器,但不属于联合文件系统,Docker不会在容器删除时删除其挂载的数据卷
有三种数据卷类型:
①宿主机数据卷:直接在宿主机的文件系统中但是容器可以访问(bind mount)
②命名的数据卷:磁盘上Docker管理的数据卷,但是这个卷有个名字。
③匿名数据卷:磁盘上Docker管理的数据卷,因为没有名字想要找到不容易,Docker来管理这些文件。
备注:数据卷其实都在(如果没有网络文件系统等情况下)宿主机文件系统里面的,
只是第一种是在宿主机内的特定目录下,而后两种则在docker管理的目录下,这个目录一般是 /var/lib/docker/volumes/。
添加数据卷的方式有两种,第一种是直接通过命令行挂载,第二种是通过dockerFile添加
docker run -it -v /宿主机绝对路径目录: /容器内目录 镜像名
这个命令会在宿主机和容器内分别建立两个目录,两个目录是对接的,里面的数据可以共享
如果我们不知道数据卷是否挂载成功时,我们可以通过以下方式来检查数据卷的挂载结果
docker ps -a查看出容器的id
docker inspect 容器id
上面的命令可以查看容器的详细情况,命令返回的是JSON格式的字符串
运行命令之后我们在返回的JSON字符串中找到Volumes属性
假如挂载成功的话,Volumes里面显示的绑定结果应该是你在挂载时输入的命令参数 (/宿主机绝对路径目录: /容器内目录 )
如果与你们之前输入的一致的话,证明挂载成功
PS: Volumes里面显示的绑定结果可能有多个,但是只要找到目标结果就可以
挂载之后,当容器停止运行的时候,宿主机上对数据卷做的内容修改是会同步到容器内的
我们再挂载的时候还可以给数据卷加上权限,假如我们要宿主机只能读取容器的数据卷内容不能修改,我们可以添加只读权限
docker run -it -v /宿主机绝对路径目录 : /容器内目录 :ro 镜像名
至于只写的话我们一般不会用到,要么就是读写,要么就是只读
而且我们可以通过docker inspect 来查看容器的volumesRW来查看容器内数据卷的读写权限
dockerFile对于docker镜像而言就如同java中某个类的.class文件对应上该类的.java文件
首先在linux服务器根目录上新建docker文件夹并建立DockerFile文件
使用volume命令
(出于可移植可分享的的考虑,用以上 -v /宿主机绝对路径目录 : /容器内目录 的这种方式不能够直接在dockerFile中直接实现,
因为宿主机目录是依赖于特定的宿主机的,并不能保证所有的宿主机都存在这样特定的目录)
编写的dockerFile文件如下
FROM 镜像名
VOLUME ["/生成的目录路径"] -- privileged=true
CMD echo "success build"
CMD /bin/bash
相当于命令行: docker run -it -v /宿主机目录路径 : /生成的目录路径
然后我们通过命令行docker build执行我们写好的dockerFile文件
(docker build和docker commit两个命令都可以建立docker镜像,docker commit 需要在容器内进行,docker build 不需要)
docker build -f /docker/DockerFile -t 命名空间/镜像名
执行后输入docker images就可以发现自己通过DockerFile所build的镜像,里面有挂载数据卷
那么问题来了宿主机所对应的目录是什么呢?
同上,我们可以通过docker inspect来查看当前容器的Volumes,里面会有宿主机的数据卷目录
说了这么多,那么到底什么是docker数据卷容器?
上面介绍了docker容器数据卷,它的作用相当于生活中的活动硬盘
那么数据卷容器就相当于把多个活动硬盘再挂载到一个活动硬盘上,实现数据的传递依赖。
官网解析:命名的容器挂载数据卷,其他的容器通过挂载这个父容器实现数据共享,挂载数据卷的容器,我们称为数据卷容器。
首先,我们建立父容器
docker run -it - -name parentContainer 镜像名(可以填上面通过dockerFile建立的镜像,里面有挂载容器卷)
然后建立两个子容器继承父容器
docker run -it - -name sonContainer1 --volumes -from parentContainer 镜像名
docker run -it - -name sonContainer2 --volumes -from parentContainer 镜像名
假设我们DockerFile里面定义的容器卷目录为dockerVolume,父容器里面有dockerVolume目录,子容器继承了父容器的dockerVolume,
在子容器中的dockerVolume目录作出的修改会同步到父容器的dockerVolume目录上,达到了继承和数据共享的目的。
官网上有一句话描述的是,容器之间配置信息的传递,数据卷的生命周期会一致持续到没有容器使用它为止,
换言之,只要有一个容器仍在使用该数据卷,该数据卷一直都可以进行数据共享,通俗地来说,如果此时我们把父容器关闭掉,
两个字容器之间依旧可以进行数据共享,而且通过继承子容器生成的新容器,一样可以与子容器进行数据共享。
这就是docker容器间的数据传递共享。
数据卷是目录或文件,不是块设备
容器可以读写volume中的数据
volume数据可以持久化保存
docker提供了两种卷:
是将主机上的目录或文件mount到容器里。
使用直观高效,易于理解。
使用 -v 选项指定路径,格式 :
bind mount 默认权限是读写rw,可以在挂载时指定只读ro。
-v选项指定的路径,如果不存在,挂载时会自动创建。
bind mount必须指定host文件系统路径,限制了移植性。
docker managed volume 不需要指定mount源。
相同点:两者都是 host 文件系统中的某个路径。
不同点,下图:
(1)在宿主机上创建两个目录
[root@server1 tmp]# mkdir data1
[root@server1 tmp]# mkdir data2
[root@server1 tmp]# docker run -it --name vm1 -v /tmp/data1:/data1 -v /tmp/data2:/data2:ro -v /etc/yum.repos.d/yum.repo:/yum.repo:ro ubuntu
data1目录为默认权限,data2和yum.repo为只读
(3)测试挂载的目录权限
root@9b9faae9efac:/# ls
bin data1 dev home lib64 mnt proc run srv tmp var
boot data2 etc lib media opt root sbin sys usr yum.repo
root@9b9faae9efac:/# cd data1
root@9b9faae9efac:/data1# touch file
root@9b9faae9efac:/data1# ls
file
root@9b9faae9efac:/data1# cd /data2
root@9b9faae9efac:/data2# touch file1
touch: cannot touch 'file1': Read-only file system
root@9b9faae9efac:/data2#
root@9b9faae9efac:/data2# cd
root@9b9faae9efac:~# echo 123 >> /yum.repo
bash: /yum.repo: Read-only file system
(1)查看现有的管理卷
[root@server1 ~]# docker volume ls ##前面实验留下的
DRIVER VOLUME NAME
local 5da320924640e96fc6878df2d50436c532d4166acc31db2e2130624b516b6e9d
local 7a9f496f3b9d16fa9725ca107c39fa8b9d782c18f0dd3f8d04ea17022b72905a
(2)删除上面创建的容器vm1后会,发现管理卷仍然存在,这是我们就需要去清理它,不然会占用我们的资源
[root@server1 ~]# docker rm -f vm1
[root@server1 ~]# docker volume prune ##清理
Are you sure you want to continue? [y/N] y
Deleted Volumes:
7a9f496f3b9d16fa9725ca107c39fa8b9d782c18f0dd3f8d04ea17022b72905a
5da320924640e96fc6878df2d50436c532d4166acc31db2e2130624b516b6e9d
Total reclaimed space: 506B
[root@server1 ~]# docker volume ls ##再次查看
DRIVER VOLUME NAME
[root@server1 ~]# docker run -d --name registry registry:2.3.1
4c49c9de5eac14bf5db5e8cfdbf93a8e3a0f164737377a0f1a0850c01d46a8e0
[root@server1 ~]# docker volume ls
DRIVER VOLUME NAME
local 48d0e2331db6d7f225b03d6dd6b29b79a8dc09c0d94816c10b4ad2228b91dd49
[root@server1 ~]# docker inspect registry | grep Source
"Source": "/var/lib/docker/volumes/48d0e2331db6d7f225b03d6dd6b29b79a8dc09c0d94816c10b4ad2228b91dd49/_data",
source就是volume在host中的目录,是docker自动为容器生成的目录,如果挂载时指向的已有目录,原有数据会被复制到volume中。
注意,即使删除容器,管理卷也不会删除。
我们会发现,docker自动生成的目录名称会很长,不方便书写使用。我们可以在创建容器时自己定义目录名称。
(1)首先,需要先创建卷
[root@server1 ~]# docker volume create voll ##创建卷voll
(2)接下来,创建新的容器并将管理卷voll挂载到容器内的指定目录
[root@server1 ~]# docker run -d --name registry2 -v voll:/var/lib/registry registry:2.3.1
如果想实现跨主机的容器之间的数据共享就要使用卷插件
使用了卷插件才可以使用网络文件系统实现数据共享
docker 卷默认使用的是local类型的驱动,只能存在宿主机
跨主机的volume就需要使用第三方的驱动,可以查看一链接
https://docs.docker.com/engine/extend/legacy_plugins/#volume-plugins
docker官方只提供了卷插件的api,开发者可以根据实际需求定制卷插件驱动
Docker Plugin 是以Web Service的服务运行在每一台Docker Host上的,通过HTTP协议传输RPC风格的JSON数据完成通信
Plugin的启动和停止,并不归Docker管理,Docker Daemon依靠在缺省路径下查找Unix Socket文件,自动发现可用的插件
当客户端与Daemon交互,使用插件创建数据卷时,Daemon会在后端找到插件对应的 socket 文件
建立连接并发起相应的API请求,最终结合Daemon自身的处理完成客户端的请求
convoy卷插件
convoy卷插件支持三种运行方式:devicemapper、NFS、EBS。,我们下面的实验以nfs的运行方式来演示
实验前提:准备两台主机server1、server2,并安装好Dokcer服务
server1:
[root@server1 ~]# yum install -y nfs-utils 安装
[root@server1 ~]# systemctl start rpcbind
[root@server1 ~]# mkdir /mnt/nfs 创建共享目录
[root@server1 ~]# chmod 777 /mnt/nfs 修改共享目录权限
[root@server1 ~]# vim /etc/exports 编辑共享目录文件,否则将不会被共享出去
[root@server1 ~]# cat /etc/exports
/mnt/nfs *(rw,no_root_squash)
[root@server1 ~]# systemctl start nfs
rpcbind服务必须是开启的。
这是因为:他是一个RPC服务,主要是在nfs共享时候负责通知客户端,服务器的nfs端口号的。
简单理解rpc就是一个中介服务。
server2:
[root@server2 ~]# yum install -y nfs-utils
[root@server2 ~]# systemctl start nfs-server.service
[root@server2 ~]# showmount -e 172.25.6.1
Export list for 172.25.6.1:
/mnt/nfs *
[root@server2 ~]# mkdir /mnt/nfs
[root@server2 ~]#
[root@server2 ~]# mount 172.25.6.1:/mnt/nfs/ /mnt/nfs/
[root@server2 ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/rhel-root 6486016 1751120 4734896 27% /
devtmpfs 497244 0 497244 0% /dev
tmpfs 508264 0 508264 0% /dev/shm
tmpfs 508264 13108 495156 3% /run
tmpfs 508264 0 508264 0% /sys/fs/cgroup
/dev/sda1 1038336 141700 896636 14% /boot
tmpfs 101656 0 101656 0% /run/user/0
172.25.6.1:/mnt/nfs 6486016 2886912 3599104 45% /mnt/nfs
[root@server2 ~]# cd /mnt/nfs/
[root@server2 nfs]# touch file
[root@server2 nfs]# ls
file
[root@server1 ~]# cd /mnt/nfs/
[root@server1 nfs]# ls
file
docker官方只提供了卷插件的api,开发者可以根据实际需求定制卷插件驱动。
[root@server1 ~]# tar zxf convoy.tar.gz
[root@server1 ~]# cd convoy/
[root@server1 convoy]# ls
convoy convoy-pdata_tools SHA1SUMS
[root@server1 convoy]# cp convoy* /usr/local/bin/ ##将二进制文件加入到PATH路径
[root@server1 convoy]# mkdir /etc/docker/plugins ##创建docker的插件目录
[root@server1 ~]# convoy daemon --drivers vfs --driver-opts vfs.path=/mnt/nfs &> /dev/null &
[1] 8677
##第一次运行上面的convoy daemon命令的时候,会在/mnt/nfs目录下生成一个config文件夹,这个文件夹不要删除,不然客户端的convoy命令就会用不了
[root@server1 ~]# cd /mnt/nfs/
[root@server1 nfs]# ls
config file
[root@server1 nfs]# echo "unix:///var/run/convoy/convoy.sock" > /etc/docker/plugins/convoy.spec
##将convoy守护进程开启生成的.sock文件放入/etc/docker/plugins目录下的convoy.spec文件中,docker就可以识别。(其中convoy.spec文件之前是不存在的)
[root@server1 nfs]# cat /etc/docker/plugins/convoy.spec
unix:///var/run/convoy/convoy.sock
[root@server1 nfs]# docker volume ls
DRIVER VOLUME NAME
[root@server1 nfs]# convoy create voll
voll
[root@server1 nfs]#
[root@server1 nfs]# ll
total 0
drwx------ 2 root root 34 Jul 4 19:19 config
-rw-r--r-- 1 root root 0 Jul 4 19:11 file
drwx------ 2 root root 6 Jul 4 19:19 voll
[root@server1 ~]# scp -r convoy server2:
root@server2's password:
convoy-pdata_tools 100% 22MB 22.0MB/s 00:00
convoy 100% 19MB 19.5MB/s 00:00
SHA1SUMS 100% 124 0.1KB/s 00:00
[root@server1 ~]#
[root@server2 ~]# cd convoy/
[root@server2 convoy]# cp convoy* /usr/local/bin/
[root@server2 convoy]# mkdir /etc/docker/plugins
[root@server2 convoy]# echo "unix:///var/run/convoy/convoy.sock" > /etc/docker/plugins/convoy.spec
[root@server2 convoy]# convoy daemon --drivers vfs --driver-opts vfs.path=/mnt/nfs &> /dev/null &
[1] 2851
[root@server2 convoy]# cd /mnt/nfs/
[root@server2 nfs]# ls
config file voll
列出所有卷
使用卷
由上可知server1和server2上看到的内容一致,即不同主机间实现了共享存储。
创建convoy卷的快照
[root@server1 vol1]# convoy snapshot create voll --name voll_pic
vol1_pic
--name前面的是卷名,加个--name起个名字,不然会是数字