目录
一、K8s调度
二、亲和与反亲和
1、Pod和Node
2、硬亲和和软亲和
三、污点与容忍
1、污点(Taint)
1.1 污点的组成
1.2 污点的设置和去除
2、容忍(Tolerations)
2.1 Toleration 基本用法
2.2 Toleration案例
3、多污点与多容忍配置
1、调度器通过kubernetes的list-watch机制来发现集群中新创建且尚未被调度到Node尚的Pod。调度器会将发现的每一个未调度的Pod调度到一个合适的Node上来运行
2、kube-scheduler是kubernetes集群的默认调度器,并且是集群控制面的一部分。如果你真的希望或者有这方面的需求,kube-scheduler在设计上是允许你自己写一个调度组件并替换kube-scheduler
3、在做调度决定时需要考虑的因素包括:单独和整体的资源请求、硬件/软件/策略限制、亲和以及反亲和要求、数据局域性、负载间的干扰等等
1、从pod出发,可以分成亲和性和反亲和性,分别对应podAffinity和podAntiAffinity
2、从node出发,也可以分成亲和性和反亲和性,分别对应nodeAffinity和nodeAntiAffinity
3、从操作指令来讲,可以有In、NotIn、Exists、DoesNotExist等等
针对亲和性来讲,in代表我要调度到有这个标签的位置
针对反亲和性来讲,in代表我不要调度到有这个标签的位置
preferredDuringSchedulingIgnoredDuringExecution 软亲和
软策略:结合下面的"operator: NotIn",意思就是尽量不要将pod调度到匹配到的节点,但是如果没有不匹配的节点的话,也可以调度到匹配到的节点
requiredDuringSchedulingIgnoredDuringExecution 硬亲和
硬策略:结合下面的"operator: In",意思就是必须调度到满足条件的节点上,否则就等着 Pending
不管哪种方式,最终还是要依赖label标签
kubectl get pods -n company ai-action-statistic-gray-86465f9c4b-hdfk4 -oyaml | grep nodeSelector -B 5 -A 5
uid: ed47f094-f70a-45ed-b7dd-d46f2d01986f
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution: #硬策略
nodeSelectorTerms:
- matchExpressions:
- key: node-role.kubernetes.io/gray
operator: In
values:
- gray
preferredDuringSchedulingIgnoredDuringExecution: #软策略
- weight: 1
preference:
matchExpressions:
- key: pc-app
operator: NotIn
values:
- luna
K8s每个节点上都可以应用一个或多个taint,这标识对于那些不能容忍这些taint的pod,是不会被该节点接收的。如果将toleration应用于pod上,则表示这些pod可以(但不要求)被调度到具有相应taint的节点上
使用kubectl taint命令可以给某个Node节点设置污点,Node被设置上污点之后就和Pod之间存在了一种相斥的关系,可以让Node拒绝Pod的调度执行,甚至将Node已经存在的Pod驱逐出去
每个污点的组成如下:
key=value:effect
每个污点有一个key和value作为污点的标签,其中value可以为空,effect描述污点的作用
污点有三种策略
使用kubectl设置和去除污点的命令示例如下:
# 设置污点
kubectl taint nodes node1 key1=value1:NoSchedule
# 去除污点
kubectl taint nodes node1 key1:NoSchedule-
看一个具体的例子,使用kubeadm部署和初始化的kubernetes集群,master节点被设置了一个node-role.kubernetes.io/master:NoSchedule的污点,可以使用kubecctl describe node 命令查看。这个污点表示默认情况下master节点将不会调度运行Pod,即不运行工作负载。对于使用二进制手动部署的集群设置和移除这个污点的命令如下:
kubectl taint nodes node-role.kubernetes.io/master=:NoSchedule
kubectl taint nodes node-role.kubernetes.io/master:NoSchedule-
设置了污点的Node将根据taint的effect:NoSchedule、PreferNoSchedule、NoExecute和Pod之间产生互斥的关系,Pod将在一定程度上不会被调度到Node上。但我们可以在Pod上设置容忍(Toleration),意思是设置了容忍的Pod将可以容忍污点的存在,可以被调度到存在污点的Node上
Pod 的Toleration 声明中的key和effect需要与Taint的设置保持一致,并且满足以下条件之一:
另外还有如下两个特例:
上面的例子中 effect 的取值为 NoSchedule,下面对 effect 的值作下简单说明:
NoExecute 这个 Taint 效果对节点上正在运行的 pod 有以下影响:
tolerations:
- key: "key1"
operator: "Equal"
value: "value1"
effect: "NoSchedule"
tolerationSeconds: 3600
- key: "key1"
operator: "Equal"
value: "value1"
effect: "NoExecute"
- key: "key2"
operator: "Exists"
effect: "NoSchedule"
下面看一下在Pod上设置容忍的两个特例:
示例1: 当不指定key值时,表示容忍所有的污点key:
tolerations:
- operator: "Exists"
示例2:当不指定effect值时,表示容忍所有的污点作用:
tolerations:
- key: "key"
operator: "Exists"
注意:在节点故障情况下,为了保持现存的 pod 驱逐的限速设置,系统将会以限速的模式逐步给 node 设置 Taint,这就能防止在一些特定情况下(比如 master 暂时失联)造成的大量 pod 被驱逐的后果。这一功能兼容于 tolerationSeconds,允许 pod 定义节点故障时持续多久才被逐出
系统允许在同一个 node 上设置多个 taint,也可以在 pod 上设置多个 Toleration。Kubernetes 调度器处理多个 Taint 和 Toleration 能够匹配的部分,剩下的没有忽略掉的 Taint 就是对 Pod 的效果了。下面是几种特殊情况:
kubectl taint nodes node1 key1=value1:NoSchedule
kubectl taint nodes node1 key1=value1:NoExecute
kubectl taint nodes node1 key2=value2:NoSchedule