14-k8s-基本存储之EmptyDir、HostPath、NFS

文章目录

    • 一、相关概念
    • 二、EmptyDir存储
    • 三、HostPath存储
    • 四、NFS存储

一、相关概念

  1. 概述

    Volumn定义在Pod上,然后被该Pod里面的多个容器挂载到具体的文件目录下。实现同一个Pod中不同容器之间的数据共享以及数据的持久化存储。Volume的生命周期不和Pod中的单个容器的生命周期有关。Volume的生命周期和Pod的生命周期关系需要根据储存类型来定

  2. kubernetes支持的常见Volume类型

    基本存储:EmptyDir、HostPath、NFS
    高级存储:PV、PVC
    配置存储:ConfigMap、Secret

二、EmptyDir存储

  1. 概述

    EmptyDir在Pod被分配到Node时创建的,它的初始内容为空,并且无须指定宿主机上对应的目录文件,因为kubernetes会自动分配一个目录,当Pod销毁时,EmptyDir中的数据也会被永久删除,所以也被称为临时存储。

  2. 实操逻辑

    1. 先声明一个EmptyDir储存类型的volume
    2. 在一个Pod中准备两个容器nginx和busybox
    3. 将volume分别挂载到两个容器的目录中
    4. 然后nginx容器负责向volume中写日志,busybox中通过命令从volume读取日志文件内容到控制台
    
  3. 编写yml文件:vi /opt/volume-emptydir.yaml

    apiVersion: v1
    kind: Pod
    metadata:
      name: volume-emptydir
    spec:
      containers:
        - name: nginx
          image: nginx:latest
          ports:
            - name: nginx-port
              containerPort: 80
              protocol: TCP
          volumeMounts:    # 将logs-volume挂载到nginx容器的/var/log/nginx目录, nginx会将用户的访问日志写入到该目录的access.log文件中
            - name: logs-volume
              mountPath: /var/log/nginx
        - name: busybox
          image: busybox:latest
          command: ["/bin/sh", "-c", "tail -f /logs/access.log"] 
          volumeMounts:    # 将logs-volume挂载到busybox容器中的/logs目录
            - name: logs-volume
              mountPath: /logs
      volumes:    # 声明volume
        - name: logs-volume
          emptyDir: {}
    
  4. 运行:kubectl apply -f /opt/volume-emptydir.yaml

  5. 查看是否启动:kubectl get pod -o wide
    在这里插入图片描述

  6. 测试访问,生成日志: curl 192.169.189.78

  7. 查看日志(-c是指定容器):kubectl logs volume-emptydir -c busybox -f
    在这里插入图片描述

三、HostPath存储

  1. 概述

    HostPath就是将Node主机中的一个实际目录挂载到Pod中,以供容器使用。即使Pod销毁,数据依旧可以保存在Node主机上,也被称为本地存储。

  2. 实操逻辑

    1. 先声明一个HostPath储存类型的volume,数据储存在Node主机的目录中
    2. 在一个Pod中准备两个容器nginx和busybox
    3. 将volume分别挂载到两个容器的目录中
    4. 然后nginx容器负责向volume中写日志,busybox中通过命令从volume读取日志文件内容到控制台
    
  3. 编写yml文件:vi /opt/volume-hostpath.yaml

    apiVersion: v1
    kind: Pod
    metadata:
      name: volume-hostpath
    spec:
      containers:
        - name: nginx
          image: nginx:latest
          ports:
            - name: nginx-port
              containerPort: 80
              protocol: TCP
          volumeMounts:    # 将logs-volume挂载到nginx容器的/var/log/nginx目录, nginx会将用户的访问日志写入到该目录的access.log文件中
            - name: logs-volume
              mountPath: /var/log/nginx
        - name: busybox
          image: busybox:latest
          command: ["/bin/sh", "-c", "tail -f /logs/access.log"] 
          volumeMounts:    # 将logs-volume挂载到busybox容器中的/logs目录
            - name: logs-volume
              mountPath: /logs
      volumes:    # 声明volume
        - name: logs-volume
          hostPath:
            path: /root/logs
            type: DirectoryOrCreate
    

    ps:type类型解析

    DirectoryOrCreate:目录存在就使用,不存在就先创建
    Directory:目录必须存在
    FileOrCreate:文件存在就使用,不存在就先创建
    File:文件必须存在
    Socket:unix socket必须存在
    CharDevice:字符设备必须存在
    BlockDevice:块设备必须存在
    
  4. 启动pod:kubectl apply -f /opt/volume-hostpath.yaml

  5. 查看pod:kubectl get pod volume-hostpath -o wide
    在这里插入图片描述

  6. 访问nginx:curl 192.169.235.141

  7. 查看日志(-c是指定容器):kubectl logs volume-hostpath -c busybox -f
    在这里插入图片描述

  8. 查看节点: kubectl describe pod volume-hostpath
    14-k8s-基本存储之EmptyDir、HostPath、NFS_第1张图片

  9. 该pod在节点11,则查看日志:ls /root/logs
    在这里插入图片描述

四、NFS存储

  1. 概述

    HostPath虽然可以解决数据持久化问题,但是一旦Node节点故障了,Pod如果转移到别的Node节点上,又会出现问题。此时需要准备单独的网络存储系统。比较常用的是NFS和CIFS

    NFS是一个网络文件存储系统,可以搭建NFS服务器,然后将Pod中的存储直接连接到NFS系统上。无论Pod在节点上怎么转移,只要Node和NFS的对接没有问题,数据就可以成功访问。

  2. 搭建NFS服务器(所有的k8s服务器)

    ps1:生产环境可以使用nfs + keepalived做高可用防止单点故障,rsync + inotify实现主备间共享数据同步

    这里测试环境只搭建一台NFS服务器

    ​ 1)安装NFS服务(客户端只需安装NFS服务即可,用于客户端驱动NFS设备):yum install -y nfs-utils

    ​ 2)准备共享目录:mkdir -p /root/data/nfs

    ​ 3)将共享目录以读写权限暴露给192.168.248.0/24网段中的所有主机:vi /etc/exports

    ​ 添加 /root/data/nfs 192.168.248.0/24(rw,no_root_squash)

    ​ ps1:原来/etc/exports是空的

    ​ ps2:其中no_root_squash表示:NFS客户端连接服务端时如果使用的是root的话,那么对服务端共享目录也拥有root权限

    ​ 5)启动NFS服务:systemctl start nfs --》 systemctl enable nfs

    ​ 6)查看:exportfs -v
    在这里插入图片描述

    ​ 7)如果其他台也装nfs,可以将dnf服务器的存储路径挂载出去,共享挂载路径(可忽略):mount -t nfs 192.168.248.11:/root/data/nfs /root/data/nfs

  3. 实操逻辑

    1. 先声明一个NFS储存类型的volume,数据储存在远程主机的目录中
    2. 在一个Pod中准备两个容器nginx和busybox
    3. 将volume分别挂载到两个容器的目录中
    4. 然后nginx容器负责向volume中写日志,busybox中通过命令从volume读取日志文件内容到控制台
    
  4. 编写脚本:vi /opt/volume-nfs.yaml

    apiVersion: v1
    kind: Pod
    metadata:
      name: volume-nfs
    spec:
      containers:
        - name: nginx
          image: nginx:latest
          ports:
            - name: nginx-port
              containerPort: 80
              protocol: TCP
          volumeMounts:    # 将logs-volume挂载到nginx容器的/var/log/nginx目录, nginx会将用户的访问日志写入到该目录的access.log文件中
            - name: logs-volume
              mountPath: /var/log/nginx
        - name: busybox
          image: busybox:latest
          command: ["/bin/sh", "-c", "tail -f /logs/access.log"] 
          volumeMounts:    # 将logs-volume挂载到busybox容器中的/logs目录
            - name: logs-volume 
              mountPath: /logs
      volumes:    # 声明volume
        - name: logs-volume
          nfs:
            server: 192.168.248.10    # NFS服务器地址
            path: /root/data/nfs     # NFS服务器的共享目录
            readOnly: false    # 是否只读
    
  5. 启动:kubectl apply -f /opt/volume-nfs.yaml

  6. 查看pod:kubectl get pod volume-nfs -o wide
    在这里插入图片描述

  7. 访问Pod中的Nginx:curl 192.169.189.68

  8. 查看日志(-c是指定容器):kubectl logs volume-nfs -c busybox -f

  9. 查看文件:ls /root/data/nfs
    在这里插入图片描述

你可能感兴趣的:(k8s学习笔记,kubernetes,容器,云原生)