K8S集群中部署NFS之三:PV配置直接连接到 NFS 服务器

在K8S中对于无状态的应用我们可以比较容易的扩展应用程序、滚动升级和重新启动崩溃的应用程序,但是对于一些无状态的应用,分为需要维护服务的拓扑结构和需要持久化数据两种情况,对于前者,我们可以使用headless service来实现,对于后者我们需要在集群中使用持久存储来持久化数据。而持久化存储,NFS(Network File System)是一个使用比较常用的分布式存储技术,在本系列中,我将详细演进如何在K8S集群中部署NFS。为了使得大家比较容易理解,将文章分成4个部分。
第一部分:配置 NFS 服务器
第二部分:将 NFS 服务器文件夹挂载到每个节点的本地文件夹
第三部分:将Persistent Volume配置直接连接到 NFS 服务器(本文)
第四部分:创建Storage Class声明来自动创建Persistent Volume

写在前面

这一系列文章主要译自下面的文章,但由于k8s版本的原因导致一些功能不正常,我在部署过程中也遇到了一些问题,并得以解决。此外作者主要是在树莓派上完成部署,是ARM架构,因此一些脚本不能在在PC上正常工作,我也在文中加以修改,并给出了详细的解决办法。

https://levelup.gitconnected.com/how-to-use-nfs-in-kubernetes-cluster-configuring-the-nfs-server-1bf4116641d4 

本文的源代码都是来自作者的github主页

https://github.com/fabiofernandesx/k8s-volumes

配置方法

明白了第二篇文章,使用本地NFS文件夹创建PV后,这篇文章使用PV配置直接链接到NFS服务器就比较简单了,配置差不多,唯一的区别就是PV的配置指向NFS服务器的地址。

创建PV

使用以下脚本创建PV

apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfs-direct-pv
spec:
  storageClassName: nfs-direct
  capacity:
    storage: 10Mi
  accessModes:
    - ReadWriteMany
  nfs:
    path: /home/deploy/ssd/direct
    server: 159.99.100.88

正如上面脚本看到的,唯一的区别是将其直接指向 NFS 服务器而不是主机中的映射/挂载。 此外还为存储类使用了不同的名称,以确保匹配的声明将是我们想要的。
cd到yml的NFSDirect文件夹,执行命令创建PV

kubectl apply -f  nfsDirect.volume.yml

查看pv情况

deploy@master-node:~/k8s-volumes-main/yml/NFSDirect$ kubectl get pv
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                     STORAGECLASS      REASON   AGE
host-mapped-pv                             10Mi       RWX            Retain           Bound    pv-demo/host-mapped-pvc   manual                     14d
nfs-direct-pv                              10Mi       RWX            Retain           Bound    pv-demo/nfs-direct-pvc    nfs-direct                 13d

创建PVC

使用下面的yml文件创建PVC

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  namespace: pv-demo
  name: nfs-direct-pvc
spec:
  storageClassName: nfs-direct
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 10Mi

执行命令来创建pvc,再重新检测pv,可以看到pv已经绑定到了pvc上(由于我之前已经创建过,所以上面kubectl get pv已经显示为Bound状态)。

kubectl apply -f nfsDirect.claim.yml

创建Deployment

pv和pvc都已经创建完成,现在通过一个nginx发布一个简单的网站程序来使用pvc。实现很简单,是使用Nginx反向代理一个文件夹,把网站内容拷贝到这个文件夹下面。下面是deployment的yml文件

apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nfs-direct-site
  namespace: pv-demo
  name: nfs-direct-nginx
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nfs-direct-site
  template:
    metadata:
      labels:
        app: nfs-direct-site
    spec:
      volumes:
        - name: nfs-direct-volume
          persistentVolumeClaim:
            claimName: nfs-direct-pvc
      containers:
        - image: nginx
          name: nfs-direct-site
          resources:
            limits:
              cpu: 1
              memory: 100Mi
          volumeMounts:
            - name: nfs-direct-volume
              mountPath: /usr/share/nginx/html

执行命令创建deployment

kubectl apply -f nfsDirect.deploy.yml

查看deployment如下,nfs-direct-nginx部署成功

deploy@master-node:~/k8s-volumes-main/yml/NFSDirect$ kubectl get deployment -n pv-demo
NAME                      READY   UP-TO-DATE   AVAILABLE   AGE
host-mapped-nginx         1/1     1            1           14d
nfs-direct-nginx          1/1     1            1           13d

创建service

创建service来访问我们的服务,yml文件如下:

apiVersion: v1
kind: Service
metadata:
  name: nfs-direct-service
  namespace: pv-demo
spec:
  selector:
    app: nfs-direct-site
  ports:
  - protocol: TCP
    port: 80

查看service如下,

deploy@master-node:~/k8s-volumes-main/yml/NFSDirect$ kubectl get svc -n pv-demo
NAME                        TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE
host-mapped-service         ClusterIP   10.106.153.106           80/TCP    14d
nfs-direct-service          ClusterIP   10.96.26.249             80/TCP    13d

访问服务

使用clusterip的方式访问此服务,我们的url如下:

 curl http://10.96.26.249

可以查看该网站内容.也可以进入到容器内使用dns来查看网站内容.

kubectl exec -it -n pv-demo nfs-direct-nginx-655d8796db-qj8m6 -- curl http://nfs-direct-service.pv-demo.svc.cluster.local

你可能感兴趣的:(K8S集群中部署NFS之三:PV配置直接连接到 NFS 服务器)