容器中的文件在磁盘上是临时存放的,这给容器中运行的特殊应用程序带来一些问题。
首先,当容器崩溃时,kubelet 将重新启动容器,容器中的文件将会丢失,因为容器会以干净的状态重建。
其次,当在一个 Pod 中同时运行多个容器时,常常需要在这些容器之间共享文件。
Kubernetes 抽象出 Volume 对象来解决这两个问题。
Kubernetes 卷具有明确的生命周期,与包裹它的 Pod 相同。 因此,卷比 Pod中运行的任何容器的存活期都长,在容器重新启动时数据也会得到保留。 当然,当一个 Pod 不再存在时,卷也将不再存在。也许更重要的是,Kubernetes 可以支持许多类型的卷,Pod 也能同时使用任意数量的卷。
卷不能挂载到其他卷,也不能与其他卷有硬链接。 Pod 中的每个容器必须独立地指定每个卷的挂载位置。
Kubernetes 支持下列类型的卷:
awsElasticBlockStore 、azureDisk、azureFile、cephfs、cinder、configMap、csi
downwardAPI、emptyDir、fc (fibre channel)、flexVolume、flocker
gcePersistentDisk、gitRepo (deprecated)、glusterfs、hostPath、iscsi、local、
nfs、persistentVolumeClaim、projected、portworxVolume、quobyte、rbd
scaleIO、secret、storageos、vsphereVolume
当 Pod 指定到某个节点上时,首先创建的是一个 emptyDir 卷,并且只要 Pod在该节点上运行,卷就一直存在。 就像它的名称表示的那样,卷最初是空的。尽管 Pod 中的容器挂载 emptyDir 卷的路径可能相同也可能不同,但是这些容器都可以读写 emptyDir 卷中相同的文件。
当 Pod 因为某些原因被从节点上删除时,emptyDir 卷中的数据也会永久删除。
emptyDir 的使用场景:
• 缓存空间,例如基于磁盘的归并排序。
• 为耗时较长的计算任务提供检查点,以便任务能方便地从崩溃前状态恢复执行。
• 在 Web 服务器容器服务数据时,保存内容管理器容器获取的文件。
默认情况下, emptyDir 卷存储在支持该节点所使用的介质上;这里的介质可以是磁
盘或 SSD 或网络存储,这取决于您的环境。 但是,您可以将 emptyDir.medium字段设置为 “Memory”,以告诉 Kubernetes 为您安装 tmpfs(基于内存的文件系统)。 虽然 tmpfs 速度非常快,但是要注意它与磁盘不同。 tmpfs 在节点重启时会被清除,并且您所写入的所有文件都会计入容器的内存消耗,受容器内存限制约束。
mkdir vol
vim vol1.yml ##限制内存100Mi
kubectl apply -f vol1.yml
kubectl get pod -o wide
kubectl exec vol1 -it -- sh
curl 10.244.2.21
可以看到文件超过sizeLimit,则一段时间后(1-2分钟)会被kubelet evict(驱逐)掉。之所以不是“立即”被evict,是因为kubelet是定期进行检查的,这里会有一个时间差。
emptydir缺点:
• 不能及时禁止用户使用内存。虽然过1-2分钟kubelet会将Pod挤出,但是这个时间内,其实对node还是有风险的;
• 影响kubernetes调度,因为empty dir并不涉及node的resources,这样会造成Pod“偷偷”使用了node的内存,但是调度器并不知晓;
• 用户不能及时感知到内存不可用
hostPath 卷能将主机节点文件系统上的文件或目录挂载到您的 Pod 中。 虽然这不是大多数
Pod 需要的,但是它为一些应用程序提供了强大的逃生舱。
hostPath 的一些用法有:
• 运行一个需要访问 Docker 引擎内部机制的容器,挂载 /var/lib/docker 路径。
• 在容器中运行 cAdvisor 时,以 hostPath 方式挂载 /sys。
• 允许 Pod 指定给定的 hostPath 在运行 Pod 之前是否应该存在,是否应该创建以及应该以什么方式存在。
除了必需的 path 属性之外,用户可以选择性地为 hostPath 卷指定 type
当使用这种类型的卷时要小心,因为:
• 具有相同配置(例如从 podTemplate 创建)的多个 Pod 会由于节点上文件的不同而在不同节点上有不同的行为。
• 当 Kubernetes 按照计划添加资源感知的调度时,这类调度机制将无法考虑由 hostPath使用的资源。
• 基础主机上创建的文件或目录只能由 root 用户写入。您需要在 特权容器 中以 root 身份运行进程,或者修改主机上的文件权限以便容器能够写入 hostPath 卷。
集群中server3被调度工作后,生成/data目录
调度到指定集群节点
调度容器到server4
nfs 卷将 NFS (网络文件系统) 挂载到 Pod 中,和emptyDir 卷不同的是nfs 卷的内容在删除 Pod 时会被保存,卷只是被卸载掉了。这意味着 nfs 卷可以被预先填充数据,并且这些数据可以在 Pod 之间"传递"。
nfs卷实现
(1)在harbor仓库主机上安装nfs服务器:
注意:
集群中每个节点都需要安装nfs
[root@server1 harbor]# mkdir /nfsdata
[root@server1 harbor]# vim /etc/exports
[root@server1 harbor]# chmod 777 /nfsdata
[root@server1 harbor]# systemctl enable --now nfs
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
[root@server1 harbor]# showmount -e
Export list for server1:
/nfsdata *
[root@server1 harbor]#
(2) 编辑yaml文件,指定nfs共享,访问pod时指向server1主机的/nfsdata
(3)在/nfsdata写入共享内容
(4)测试访问pod,终端显示信息为共享内容
调度pod到server3
成功测试访问
PersistentVolume(持久卷,简称PV)是集群内,由管理员提供的网络存储的一部分。就像集群中的节点一样,PV也是集群中的一种资源。它也像Volume一样,是一种volume插件,但是它的生命周期却是和使用它的Pod相互独立的。PV这个API对象,捕获了诸如NFS、ISCSI、或其他云存储系统的实现细节。
PersistentVolumeClaim(持久卷声明,简称PVC)是用户的一种存储请求。它和Pod类似,Pod消耗Node资源,而PVC消耗PV资源。Pod能够请求特定的资源(如CPU和内存)。PVC能够请求指定的大小和访问的模式(可以被映射为一次读写或者多次只读)。
有两种PV提供的方式:静态和动态
静态PV:集群管理员创建多个PV,它们携带着真实存储的详细信息,这些存储对于集群用户是可用的。它们存在于Kubernetes API中,并可用于存储使用。
动态PV:当管理员创建的静态PV都不匹配用户的PVC时,集群可能会尝试专门地供给volume给PVC。这种供给基于StorageClass。
PVC与PV的绑定是一对一的映射。没找到匹配的PV,那么PVC会无限期得处于unbound未绑定状态。
使用
Pod使用PVC就像使用volume一样。集群检查PVC,查找绑定的PV,并映射PV给Pod。对于支持多种访问模式的PV,用户可以指定想用的模式。一旦用户拥有了一个PVC,并且PVC被绑定,那么只要用户还需要,PV就一直属于这个用户。用户调度Pod,通过在Pod的volume块中包含PVC来访问PV。
释放
当用户使用PV完毕后,他们可以通过API来删除PVC对象。当PVC被删除后,对应的PV就被认为是已经是“released”了,但还不能再给另外一个PVC使用。前一个PVC的属于还存在于该PV中,必须根据策略来处理掉。
回收
PV的回收策略告诉集群,在PV被释放之后集群应该如何处理该PV。当前,PV可以被Retained(保留)、 Recycled(再利用)或者Deleted(删除)。保留允许手动地再次声明资源。对于支持删除操作的PV卷,删除操作会从Kubernetes中移除PV对象,还有对应的外部存储(如AWS EBS,GCE PD,Azure Disk,或者Cinder volume)。动态供给的卷总是会被删除。
访问模式
ReadWriteOnce – 该volume只能被单个节点以读写的方式映射
ReadOnlyMany – 该volume可以被多个节点以只读方式映射
ReadWriteMany – 该volume可以被多个节点以读写的方式映射
在命令行中,访问模式可以简写为:
RWO - ReadWriteOnce
ROX - ReadOnlyMany
RWX - ReadWriteMany
回收策略
Retain:保留,需要手动回收
Recycle:回收,自动删除卷中数据
Delete:删除,相关联的存储资产,如AWS EBS,GCE PD,Azure Disk,or OpenStack Cinder卷都会被删除
当前,只有NFS和HostPath支持回收利用,AWS EBS,GCE PD,Azure Disk,or OpenStack Cinder卷支持删除操作。
状态:
Available:空闲的资源,未绑定给PVC
Bound:绑定给了某个PVC
Released:PVC已经删除了,但是PV还没有被集群回收
Failed:PV在自动回收中失败了
命令行可以显示PV绑定的PVC名称。
NFS持久化存储实战:
安装配置NFS服务:
yum install -y nfs-utils
mkdir -m 777 /nfsdata
vim /etc/exports
/nfsdata *(rw,sync,no_root_squash)
systemctl enable --now rpcbind
systemctl enbale --now nfs
[root@server2 vol]# cat pv1.yml
apiVersion: v1
kind: PersistentVolume ##持久卷
metadata:
name: pv1
spec:
capacity:
storage: 5Gi ##存储大小
volumeMode: Filesystem ##指定卷模式:文件类型
accessModes:
- ReadWriteOnce ##访问模式:单点读写
persistentVolumeReclaimPolicy: Recycle ##回收策略,自动删除卷中数据
storageClassName: nfs
nfs:
path: /nfsdata
server: 172.25.12.1
[root@server2 vol]# vim pv1.yml
[root@server2 vol]# kubectl apply -f pv1.yml
persistentvolume/pv1 created
[root@server2 vol]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv1 5Gi RWO Recycle Available nfs 14s
[root@server2 vol]#
创建pvc需要与pv的存储域类型相同、访问模式相同、存储小于等于pv
[root@server2 vol]# cat pv1.yml
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv1
spec:
capacity:
storage: 5Gi
volumeMode: Filesystem
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs
nfs:
path: /nfsdata
server: 172.25.12.1
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc1
spec:
storageClassName: nfs
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 5Gi
[root@server2 vol]# vim pv1.yml
[root@server2 vol]# kubectl apply -f pv1.yml
persistentvolume/pv1 unchanged
persistentvolumeclaim/pvc1 created
[root@server2 vol]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
pvc1 Bound pv1 5Gi RWO nfs 7s
[root@server2 vol]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv1 5Gi RWO Recycle Bound default/pvc1 nfs 7m18s
[root@server2 vol]#
静态pv:三种访问模式演练
访问模式:单点读写
[root@server2 vol]# cat pv1.yml
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv1
spec:
capacity:
storage: 5Gi
volumeMode: Filesystem
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs
nfs:
path: /nfsdata
server: 172.25.12.1
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc1
spec:
storageClassName: nfs
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 5Gi
---
apiVersion: v1
kind: Pod
metadata:
name: test-pd-2
spec:
containers:
- image: nginx
name: nginx
volumeMounts:
- mountPath: /usr/share/nginx/html
name: pv1
volumes: ##pod 挂载 pv
- name: pv1
persistentVolumeClaim:
claimName: pvc1
[root@server2 vol]# vim pv1.yml
[root@server2 vol]# kubectl apply -f pv1.yml
persistentvolume/pv1 unchanged
persistentvolumeclaim/pvc1 unchanged
pod/test-pd-2 created
[root@server2 vol]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
test-pd-2 1/1 Running 0 84s 10.244.1.8 server3
[root@server2 vol]# kubectl describe pod test-pd-2
Name: test-pd-2
Namespace: default
Priority: 0
Node: server3/172.25.12.3
Start Time: Tue, 07 Jul 2020 10:46:12 +0800
Labels:
Annotations: Status: Running
IP: 10.244.1.8
IPs:
IP: 10.244.1.8
Containers:
nginx:
Container ID: docker://d5010c1a2d8d9e4411abe9d3294c2a768919c0181c3f3dac9719dfe70f10acb4
Image: nginx
Image ID: docker-pullable://nginx@sha256:0efad4d09a419dc6d574c3c3baacb804a530acd61d5eba72cb1f14e1f5ac0c8f
Port:
Host Port:
State: Running
Started: Tue, 07 Jul 2020 10:46:13 +0800
Ready: True
Restart Count: 0
Environment:
Mounts:
/usr/share/nginx/html from pv1 (rw)
/var/run/secrets/kubernetes.io/serviceaccount from default-token-74t5c (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
pv1:
Type: PersistentVolumeClaim (a reference to a PersistentVolumeClaim in the same namespace)
ClaimName: pvc1
ReadOnly: false
default-token-74t5c:
Type: Secret (a volume populated by a Secret)
SecretName: default-token-74t5c
Optional: false
QoS Class: BestEffort
Node-Selectors:
Tolerations: node.kubernetes.io/not-ready:NoExecute for 300s
node.kubernetes.io/unreachable:NoExecute for 300s
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled default-scheduler Successfully assigned default/test-pd-2 to server3
Normal Pulling 2m56s kubelet, server3 Pulling image "nginx"
Normal Pulled 2m56s kubelet, server3 Successfully pulled image "nginx"
Normal Created 2m56s kubelet, server3 Created container nginx
Normal Started 2m56s kubelet, server3 Started container nginx
[root@server2 vol]#
[root@server1 ~]# mkdir /nfsdata2
[root@server1 ~]# mkdir /nfsdata3
[root@server1 ~]# vim /etc/exports
[root@server1 ~]# cat /etc/exports
/nfsdata *(rw,sync)
/nfsdata2 *(rw,sync) ##读写
/nfsdata3 *(ro) ##只读
[root@server1 ~]# ll -d /nfsdata2
drwxr-xr-x 2 root root 6 Jul 7 11:04 /nfsdata2
[root@server1 ~]# ll -d /nfsdata3
drwxr-xr-x 2 root root 6 Jul 7 11:04 /nfsdata3
[root@server1 ~]# chmod 777 /nfsdata2
[root@server1 ~]# exportfs -rv
exporting *:/nfsdata3
exporting *:/nfsdata2
exporting *:/nfsdata
[root@server1 ~]# showmount -e
Export list for server1:
/nfsdata3 *
/nfsdata2 *
/nfsdata *
[root@server1 ~]#
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv2
spec:
capacity:
storage: 10Gi
volumeMode: Filesystem
accessModes:
- ReadWriteMany
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs
nfs:
path: /nfsdata2
server: 172.25.12.1
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc2
spec:
storageClassName: nfs
accessModes:
- ReadWriteMany
resources:
requests:
storage: 10Gi
---
apiVersion: v1
kind: Pod
metadata:
name: test-pd-2
spec:
containers:
- image: nginx
name: nginx
volumeMounts:
- mountPath: /usr/share/nginx/html
name: pv2
volumes:
- name: pv2
persistentVolumeClaim:
claimName: pvc2
[root@server2 vol]# vim pv2.yml
[root@server2 vol]# kubectl apply -f pv2.yml
persistentvolume/pv2 created
persistentvolumeclaim/pvc2 created
pod/test-pd-2 created
[root@server2 vol]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv1 5Gi RWO Recycle Bound default/pvc1 nfs 24s
pv2 10Gi RWX Recycle Bound default/pvc2 nfs 6s
[root@server2 vol]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
pvc1 Bound pv1 5Gi RWO nfs 29s
pvc2 Bound pv2 10Gi RWX nfs 11s
[root@server2 vol]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
test-pd 1/1 Running 0 91s 10.244.1.11 server3
test-pd-2 1/1 Running 0 73s 10.244.2.7 server4
[root@server2 vol]#
[root@server2 vol]# kubectl exec -it test-pd-2 -- bash
root@test-pd-2:/# ls
bin dev docker-entrypoint.sh home lib64 mnt proc run srv tmp var
boot docker-entrypoint.d etc lib media opt root sbin sys usr
root@test-pd-2:/# cd /usr/share/nginx/html
root@test-pd-2:/usr/share/nginx/html# ls
index.html
root@test-pd-2:/usr/share/nginx/html# echo hello westos > test.html
root@test-pd-2:/usr/share/nginx/html# ls
index.html test.html
root@test-pd-2:/usr/share/nginx/html# exit
exit
[root@server2 vol]# curl 10.244.2.7/test.html
hello westos
[root@server2 vol]#
访问模式:多点只读
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv3
spec:
capacity:
storage: 20Gi
volumeMode: Filesystem
accessModes:
- ReadOnlyMany
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs
nfs:
path: /nfsdata3
server: 172.25.12.1
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc3
spec:
storageClassName: nfs
accessModes:
- ReadOnlyMany
resources:
requests:
storage: 20Gi
---
apiVersion: v1
kind: Pod
metadata:
name: test-pd-3
spec:
containers:
- image: nginx
name: nginx
volumeMounts:
- mountPath: /usr/share/nginx/html
name: pv3
volumes:
- name: pv3
persistentVolumeClaim:
claimName: pvc3
[root@server2 vol]# kubectl exec -it test-pd-3 -- bash
root@test-pd-3:/# ls
bin dev docker-entrypoint.sh home lib64 mnt proc run srv tmp var
boot docker-entrypoint.d etc lib media opt root sbin sys usr
root@test-pd-3:/# cd /usr/share/nginx/html/
root@test-pd-3:/usr/share/nginx/html# echo hello world > index.html
bash: index.html: Read-only file system ##只读
root@test-pd-3:/usr/share/nginx/html# exit
command terminated with exit code 1
[root@server2 vol]# curl 10.244.1.12
hello world
[root@server2 vol]#