MySQL statefulset_Kubernetes进阶之StatefulSet有状态部署

K8s有状态应用部署

目录:分为两类

1.Headless Service

2.StatefulSet

• 部署有状态应用

• 解决Pod独立生命周期,保持Pod启动顺序和唯一性

稳定,唯一的网络标识符,持久存储

有序,优雅的部署和扩展、删除和终止

有序,滚动更新

应用场景:数据库

说在前面的话,像我们的Mysql或者Redis了,Zookerper等等这些适不适合部署在K8s中,其实呢不是太适合,但部署在里面也可以,比如部署一个Mysql来讲吧,部署到k8s中还是很容易的就一个Mysql实例,就像部署其他应用一样,通过service、IP去访问它,但是要是作为集群的状态去部署的话,那可能就比较麻烦了。

第一点:比如做一个Mysql的主从,Mysql主从它是有主从拓扑关系的,一个主一个从,而且各自的数据都不一样,这就意味着,你要想搭建一个Mysql的主从,你要知道它的相互的ip地址,就是从肯定要知道主的ip地址,然后从连接主的ip地址,做数据的同步。

第二点:它的存储,它两个存储的信息都不太一样,那怎么去保证它两个数据的存储保证持久化呢,一个集群中可能会有多个节点,要是部署到k8s中,必须要保证部署的应用,在任意的节点都能使用原来的状态,也就是说某一个节点挂了,上面的pod飘移到另一个节点,能不能用到之前的状态,所以要考虑这些问题。

而k8s设计的精髓在于并不是你部署一个单的实例,而是在于它的一个分布式一个部署,具有故障恢复能力的应用,所以就谈到了有状态和无状态应用。

有状态应用:DB,好比一个Mysql主从,考虑两点(自己的存储,必须是远程的存储,在任意节点挂载都恢复原来的状态)而且还有网络ID的唯一,需要做主从的连接,我们的pod是短暂的,重建一个ip就换了,得保证这个ip一直去使用,不管是重建还是迁移pod,都能去使用。

无状态应用:典型的就是web系统,本身就没有什么状态去维护,比如部署了三个副本,不需要考虑其他两个副本是什么样的,跟它没有直接的关系,本地也没有什么持久化的数据,即使其中有一个副本挂了,帮它在其他节点起来,仍然可以继续提供服务,对原基础服务是没有任何影响的,所以这是一个前提,典型的就是web。

在k8s中呢在1.10版本之后有状态部署才支持好一点,但是刚开始在落地K8s的时候,而不会去考虑有状态部署的,主要做无状态的部署,而数据库适不适合部署在k8s中,在看k8s的一些特性,k8s有适合的一些特性,比如具有一些访问比较大的应用,版本迭代快的应用,或者弹性伸缩的一些应用,凡是这些是适合放在k8s,k8s最早就支持无状态,也是一直在推荐,有状态的也是比较复杂,复杂点就在与有状态的都是一些集群化的,比如zookerper,

Mysql主从,这些都是需要自身的一个状态维护的,这些部署进去呢,可能去考虑它这个网络拓扑关系,还有存储状态的持久化,而数据库不具备这些特点,部署一个数据库一般配置比较高一些,可以会抗很多的并发量,而且要扩容的话也是很方便,而且传统的部署文章也很多,也比较成熟,在k8s中部署这些东西,那绝对是一种挑战,所以要根据不同的应用特点去考虑上k8s,不要一味地上k8s,而且得不偿失,达不到预期的效果,领导也会批你,所以在谈有状态部署的话,可以在两者出发,一个是Headless Service维护网络的,一个是StatefulSet维护存储状态的。

statefulSet是一个控制器,与Deployment存在的原则一样,都是部署应用的,而Statefulset它主要是部署有状态应用的,而deployment是部署无状态应用的

Headless Service 其实和service差不多,这不过定义的这个叫无头服务,它们之间唯一的区别就是将Cluster ip 设置为了none,不会帮你配置ip

[root@k8s-master demo]# mkdir headless-service

[root@k8s-master demo]# cd headless-service/

[root@k8s-master headless-service]# vim headless-svc.yaml

apiVersion: v1

kind: Service

metadata:

name: my-service

spec:

clusterIP: None

selector:

app: nginx

ports:

- protocol: TCP

port: 80

targetPort: 9376

[root@k8s-master headless-service]# kubectl create -f headless-svc.yaml

service/my-service created

[root@k8s-master headless-service]# kubectl get svc

kubernetes ClusterIP 10.1.0.1 443/TCP 23h

my-service ClusterIP None 80/TCP 6s

service NodePort 10.1.207.32 80:30963/TCP 87m

zhao ClusterIP 10.1.75.232 80/TCP 9m1s

zhaocheng ClusterIP 10.1.27.206 80/TCP 10m

怎么去访问?我们给它定义一个标识

创建完之后会有这个标识符,它会使用这个DNS来解析这个名称,来相互的访问,headless就不会通过ip去访问了,必须通过名称去访问,

[root@k8s-master headless-service]# vim statefulset.yaml

apiVersion: apps/v1beta1

kind: StatefulSet

metadata:

name: nginx-statefulset

namespace: default

spec:

serviceName: my-service

replicas: 3

selector:

matchLabels:

app: nginx

template:

metadata:

labels:

app: nginx

spec:

containers:

- name: nginx

image: nginx:latest

ports:

- containerPort: 80

[root@k8s-master headless-service]# kubectl create -f statefulset.yaml

[root@k8s-master headless-service]# kubectl get pod

my-pod 1/1 Running 0 3h50m

nfs-744d977b46-dh9xj 1/1 Running 0 22h

nfs-744d977b46-kcx6h 1/1 Running 0 22h

nfs-744d977b46-wqhc6 1/1 Running 0 22h

nfs-client-provisioner 1/1 Running 0 4h

nginx-797db8dc57-tdd5s 1/1 Running 0 100m

nginx-statefulset-0 1/1 Running 0 73s

nginx-statefulset-1 1/1 Running 0 46s

nginx-statefulset-2 1/1 Running 0 24s

这里的statfulset的 serviceName: my-service字段要关联起来,这样才能去基于名称去访问

可以通过busybox测试工具通过nslookup去测试解析。解析我们的my-service就能解析到

这里会分配一个名称,这个my-service和这个编号是永久的,可以通过这个名称访问pod

要是mysql主从的话就可以通过访问这个标签来连接我们从库的状态,这个是维护的网络状态

然后再来看一下存储状态

官方文档这个实例

https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/

这个其实我们也是部署一个nginx,使用的headless,ClusterIP为none,然后用headless来维护statefulset起得pod网络id为1,以 volumeClaimTemplates:来维护pod独立的一个存储

apiVersion: v1

kind: Service

metadata:

name: nginx

labels:

app: nginx

spec:

ports:

- port: 80

name: web

clusterIP: None

selector:

app: nginx

---

apiVersion: apps/v1

kind: StatefulSet

metadata:

name: web

spec:

selector:

matchLabels:

app: nginx # has to match .spec.template.metadata.labels

serviceName: "nginx"

replicas: 3 # by default is 1

template:

metadata:

labels:

app: nginx # has to match .spec.selector.matchLabels

spec:

terminationGracePeriodSeconds: 10

containers:

- name: nginx

image: nginx

ports:

- containerPort: 80

name: web

volumeMounts:

- name: www

mountPath: /usr/share/nginx/html

volumeClaimTemplates:

- metadata:

name: www

spec:

accessModes: [ "ReadWriteOnce" ]

storageClassName: "managed-nfs-storage"

resources:

requests:

storage: 1Gi

这是我们的存储要写我们nfs的名称

managed-nfs-storage

[root@k8s-master headless-service]# kubectl get sc

managed-nfs-storage fuseim.pri/ifs 22h

这里会给我们自动创建pv,并挂载到我们的NFS上

[root@k8s-master headless-service]# kubectl get pod

my-pod 1/1 Running 0 6h4m

nfs 1/1 Running 0 24h

nfs 1/1 Running 0 24h

nfs 1/1 Running 0 24h

nfs-client-provisioner-fbc 1/1 Running 0 6h23m

nginx-797db8dc57-tdd5s 1/1 Running 0 3h54m

nginx-a1-6d5fd7b8dd-w647x 1/1 Running 0 3m28s

nginx-statefulset-0 1/1 Running 0 135m

nginx-statefulset-1 1/1 Running 0 135m

nginx-statefulset-2 1/1 Running 0 134m

web-0 1/1 Running 0 3

web-1 1/1 Running 0 85s

web-2 1/1 Running 0 57s

[root@k8s-master headless-service]# kubectl get pv

pvc-06 1Gi RWO Delete Bound default/www-web-2 managed-nfs-storage 63s

pvc-4f 1Gi RWO Delete Bound default/www-web-0 managed-nfs-storage 6m3s

pvc-a2 5Gi RWX Delete Bound default/my-pvc managed-nfs-storage 6h4m

pvc-bc 1Gi RWO Delete Bound default/www-web-1 managed-nfs-storage

headless保证它的网络,statefulset存储模版来保证每个pod存储的唯一性,这样才解决了有状态应用的两大痛点

你可能感兴趣的:(MySQL,statefulset)