Kubernetes(k8s)Volumes-PV&PVC

PersistentVolume(简称PV)是由管理员设置的存储,它同样是集群中的一类资源,PV是容量插件,如Volumes(卷),但其生命周期独立使用PV的任何Pod,PV的创建可使用NFS、iSCSI、GFS、CEPH等。
PersistentVolumeClaim(简称PVC)是用户对存储的请求,类似于Pod,Pod消耗节点资源,PVC消耗PV资源,Pod可以请求特定级别的资源(CPU和内存),PVC可以请求特定的大小和访问模式。例如,可以以一次读/写或只读多次的模式挂载。
虽然PVC允许用户使用抽象存储资源,但是用户可能需要具有不同性质的PV来解决不同的问题,比如使用SSD硬盘来提高性能。所以集群管理员需要能够提供各种PV,而不仅是大小和访问模式,并且无须让用户了解这些卷的实现方式,对于这些需求可以使用StorageClass资源实现。
目前PV的提供方式有两种:静态或动态。
静态PV由管理员提前创建,动态PV无需提前创建,只需指定PVC的StorageClasse即可。

PV的回收策略

当用户使用完卷时,可以从API中删除PVC对象,从而允许回收资源。回收策略会告诉PV如何处理该卷,目前卷可以保留、回收或删除。
 Retain:保留,该策略允许手动回收资源,当删除PVC时,PV仍然存在,volume被视为已释放,管理员可以手动回收卷。
 Recycle:回收,如果volume插件支持,Recycle策略会对卷执行rm -rf清理该PV,并使其可用于下一个新的PVC,但是本策略已弃用,建议使用动态配置。
 Delete:删除,如果volume插件支持,删除PVC时会同时删除PV,动态卷默认为Delete。

PV的访问策略

ReadWriteOnce:可以被单节点以读写模式挂载,命令行中可以被缩写为RWO。
ReadOnlyMany:可以被多个节点以只读模式挂载,命令行中可以被缩写为ROX。
ReadWriteMany:可以被多个节点以读写模式挂载,命令行中可以被缩写为RWX。

NFS安装配置

NFS服务器安装服务端: yum install nfs* rpcbind -y
所有K8s节点安装NFS客户端:yum install nfs-utils -y
NFS服务端:mkdir /data/k8s -p
NFS服务器创建共享目录:vim /etc/exports
/data/k8s/ *(rw,sync,no_subtree_check,no_root_squash)
exportfs -r
systemctl restart nfs rpcbind
挂载测试:mount -t nfs nfs-serverIP:/data/k8s /mnt/

一、创建PV

1)基于NFS创建

apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv-nfs
spec:
  capacity:                                                      # 容量配置
    storage: 5Gi
  volumeMode: Filesystem                            # 卷的模式,目前支持Filesystem(文件系统) 和 Block(块),其中Block类型需要后端存储支持,默认为文件系统
  accessModes:                                             # PV的访问模式
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Recycle   # 回收策略
  storageClassName: nfs-slow                      # PV的类,一个特定类型的PV只能绑定到特定类别的PVC
  nfs:                                                              # NFS服务配置
    path: /data/k8s
    server: 172.17.0.2

2)基于hostPath创建

kind: PersistentVolume
apiVersion: v1
metadata:
  name: task-pv-volume
  labels:
    type: local
spec:
  storageClassName: hostpath
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteOnce
  hostPath:
    path: "/mnt/data"

3)基于CephRBD创建

apiVersion: v1
kind: PersistentVolume
metadata:
  name: ceph-rbd-pv
spec:
  capacity:
    storage: 1Gi
  storageClassName: ceph-fast
  accessModes:
    - ReadWriteOnce
  rbd:
    monitors:                                        # Ceph的monitor节点的IP
      - 192.168.1.123:6789
      - 192.168.1.124:6789
      - 192.168.1.125:6789
    pool: rbd                                         # 所用Ceph Pool的名称,可以使用ceph osd pool ls查看
    image: ceph-rbd-pv-test                 # Ceph块设备中的磁盘映像文件,可以使用rbd create POOL_NAME/IMAGE_NAME --size 1024创建,使用rbd list POOL_NAME查看
    user: admin                                    # Rados的用户名,默认是admin
    secretRef:                                      # 用于验证Ceph身份的密钥
      name: ceph-secret
    fsType: ext4                                   # 文件类型,可以是ext4、XFS等
    readOnly: false                              # 是否是只读挂载

二、创建PVC

kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: task-pvc-claim
spec:
  storageClassName: nfs-slow
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 3Gi

三、pod使用PVC

apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx
  name: nginx
  namespace: default
spec:
  replicas: 2
  revisionHistoryLimit: 10
  selector:
    matchLabels:
      app: nginx
  strategy:
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 0
    type: RollingUpdate
  template:
    metadata:
      creationTimestamp: null
      labels:
        app: nginx
    spec:
      volumes:
      - name: task-pv-storage
        persistentVolumeClaim:
          claimName: task-pvc-claim
      containers:
      - env:
        - name: TZ
          value: Asia/Shanghai
        - name: LANG
          value: C.UTF-8
        image: nginx
        imagePullPolicy: IfNotPresent
        name: nginx
        volumeMounts:
        - mountPath: "/usr/share/nginx/html"
          name: task-pv-storage

你可能感兴趣的:(Kubernetes(k8s)Volumes-PV&PVC)