使用StatefulSet完成MongoDB集群的创建,为每个MongoDB实例在共享存储中(这里采用GlusterFS)申请一片存储空间,以实现一个无单点故障、高可用、可动态扩展的MongoDB集群。
在创建StatefulSet之前,需要确保在K8s集群管理中管理员已经创建好共享存储,并能够与StorageClass对接,以实现动态存储供应的模式。例子使用GlusterFS作为共享存储。
为了完成MongoDB集群的搭建,需要创建如下三个资源对象:
storageclass-fast.yaml文件内容如下:
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: fast
provisioner: kubernetes.io/glusterfs
parameters:
resturl: "http://"
执行kubectl create命令创建该StorageClass:
kubectl create -f storageclass-fast.yaml
storageclass "fast" created
mongo-sidecar作为MongoDB集群的管理者,将使用此Headless Service来维护MongoDB实例之间的集群关系,以及集群规模变化时的自动更新。
mongo-headless-service.yaml文件的内容如下:
apiVersion: v1
kind: Service
metadata:
name: mongo
labels:
name: mongo
spec:
ports:
- port: 27017
targetPort: 27017
clusterIP: None
selector:
role: mongo
使用kubectl create命令创建该StorageClass:
kubectl create -f mongo-headless-service.yaml
service "mongo" created
statefulset-mongo.yaml文件的内容如下:
apiVersion: apps/v1beta1
kind: StatefulSet
metadata:
name: mongo
spec:
serviceName: "mongo"
replicas: 3
template:
metadata:
labels:
role: mongo
environment: test
spec:
terminationGracePeriodSeconds: 10
containers:
- name: mongo
image: mongo
command:
- mongod
- "--replSet"
- rs0
- "--smallfiles"
- "--noprealloc"
ports:
- containerPort: 27017
volumeMounts:
- name: mongo-persistent-storage
mountPath: /data/db
- name: mongo-sidecar
image: cvallance/mongo-k8s-sidecar
env:
- name: MONGO_SIDECAR_POD_LABELS
value: "role=mongo,environment=test"
- name: KUBERNETES_MONGO_SERVICE_NAME
value: "mongo"
volumeClaimTemplates:
- metadata:
name: mongo-persistent-storage
annotations:
volume.beta.kubernetes.io/storage-class: "fast"
spec:
accessModes: ["ReadWriteOnce"]
resources:
requests:
storage: 100Gi
主要配置说明如下:
(1)在该StatefulSet的定义中包括两个容器:mongo和mongo-sidecar。mongo是主服务程序,mongo-sidecar是将多个mongo实例进行集群设置的工具。mongo-sidecar中的环境变量如下。
MONGO_SIDECAR_POD_LABELS:设置为mongo容器的标签,用于sidecar查询所要管理的MongoDB集群实例。
KUBERNETES_MONGO_SERVICE_NAME:值为"mongo",表示sidecar将使用"mongo"这个服务名来完成MongoDB集群的设置。
(2)replicas=3表示这个MongoDB集群由3个mongo实例组成
(3)volumeClaimTemplates是StatefulSet最重要的存储设置。在annotations段设置volume.beta.kubernetes.io/storage-class="fast"表示使用名为"fast"的StorageClass自动为每个mongo Pod实例分配后端存储。resources.requests.storage=100Gi表示为每个mongo实例分配100Gi的磁盘空间。
使用kubectl create命令创建这个StatefulSet:
kubectl create -f statefulset-mongo.yaml
statefulset "mongo" created
最终可以看到StatefulSet依次创建并启动了3个mongo Pod实例,名字依次为mongo-0、mongo-1、mongo-2:
kubectl get pods -l role=mongo
StatefulSet会用volumeClaimTemplates中的定义为每个Pod副本创建一个PVC实例,每个PVC的名称由StatefulSet定义中volumeClaimTemplates的名称和Pod副本的名字组合而成,查看系统中的pvc,可以验证这一点:
kubectl get pvc
下面是mongo-0这个Pod中的volumes设置,可以看到系统自动为其挂载了对应的PVC:
kubectl get pod mongo-0 -o yaml
apiVersion: v1
kind: Pod
metadata:
name: mongo-0
......
volumes:
- name: mongo-persistent-storage
persistentVolumeClaim:
claimName: mongo-persistent-storage-mongo-0
......
至此,一个由3个实例组成的MongoDB集群就创建完成了。每个实例都拥有稳定的名称和独立的存储空间。
登陆任意一个mongo Pod,在mongo命令行界面用rs.status()命令查看MongoDB集群的状态,可以看到mongo集群已通过sidecar完成创建。集群中包含3个节点,每个节点的名称都是StatefulSet设置的DNS域名格式的网络标识名称:
可以看到3个mongo实例各自的角色(PRIMARY或SECONDARY)也都进行了正确的设置。
kubectl exec -ti mongo-0 -- mongo
rs.status()
对于需要访问这个mongo集群的K8s集群内部客户端来说,可以通过Headless Service “mongo"获取到后端的所有Endpoints列表,并组合为数据库链接串,例如"mongodb://mongo-0.mongo,mongo-1.mongo,mongo-2.mongo:27017/dbname_?”
对MongoDB集群常见的两种场景进行操作,说明StatefulSet对有状态应用的自动化管理功能。
需要对mongo集群进行扩容,仅需要通过对StatefulSet进行scale操作,就能实现在mongo集群中自动添加新的mongo节点。
使用kubectl scale命令将StatefulSet设置为4个实例
kubectl scale --replicas=4 statefulset mongo
statefulset "mongo" scaled
等待一会看到第4个实例"mongo-3"创建成功
kubectl get po -l role=mongo
进入某个实例查看mongo集群的状态,可以看到第4个节点已经加入
kubectl exec -ti mongo-0 -- mongo
rs.status()
同时,系统也为mongo-3分配了一个新的PVC用于保存数据。
系统运行过程中,某个mongo实例或其所在主机发生故障,则StatefulSet将会自动重建该mongo实例,并保证其身份(ID)和使用的数据(PVC)不变。
以mongo-0实例发生故障为例,StatefulSet将会自动重建mongo-0实例,并为其挂载之前分配的PVC “mongo-persistent-storage-mongo-0”。服务"mongo-0"在重新启动后,原数据库中的数据不会丢失,可继续使用。
kubectl get po -l role=mongo
kubectl get pod mongo-0 -o yaml
进入某个实例查看mongo集群的状态,mongo-0在发生故障前在集群中的角色为PRIMARY,在其脱离集群后,mongo集群会自动选出一个SECONDARY节点提升为PRIMARY节点(mongo-2)。重启后的mongo-0则会成为一个新的SECONDARY节点。
kubectl exec -ti mongo-0 -- mongo
rs.status()