Scheduler:负责调度资源,把pod调度到node节点,有两种策略, 1:预选策略 2:优先策略 |
list-watch概念
k8s集群当中,通过list-watch的机制进行每个组件的协作,保持数据同步,每个组件之间的解耦 Kubectl配置文件,想APIserver发送命令---apiserver把命令发送到各个组件 如kubectl runnginx --image=nginx:1.22-----apiserver---controller manager---scheduler---kubelet(管理生命周期) List-watch(监听)---会在每一步把监听的消息(先监听apiserver:6443)----每个组件(controller manager,scheduler,kubelet,etcd)都会监听apiserver:6443端口,都会获取消息 |
1、 kubectl run nginx --image=nginx:1.22 >
2、 由apiserver调度到各个组件 >
3、 controller-manger负责创建pod控制器 >
4、 scheduler调度资源 >
5、 kubelet来管理节点 >
创建成功后,通过kubectl get pod/kubectl describe pod nginx
这些信息都保存在etcd数据库当中。
如何来把pod分配到node
工作流程: 1.kubectl创建pod和副本数传递给apiserver 2.创建replicas指定pod的策略保存通过apiserver在etcd数据库中存储配置信息。 3.etcd会将创建replicas的事件发送给apiserver 4.apiserver发送创建指令开始调用controller-manger 5.controller-manger收到指令开始创建pod再将信息发送给apiserver 6.apiserver收到创建pod的信息并将信息保存在etcd中 7.etcd把发送创建pod的信息再发送给apiserver 8.apiserver把创建pod的指令发送给scheduler 9.scheduler开始选择往哪个node节点上创建pod并更新pod的node节点信息。发送给apiserver 10.apiserver把pod的更新信息保存到etcd中 11.etcd告诉apiserver 已经确定节点信息。需要调用节点上的kubelet 12.apiserver传递消息开始调用kubelet创建pod和容器 13.kubelet将确定完毕的信息和节点信息,发送给apiserver。 14.apiserver将最终保存容器、副本、节点信息保存到etcd数据库中。 |
调度的过程和策略
Scheduler是k8s集群的调度器,他的意义就是把破分配到集群的节点 以下几个问题是它要考虑的 |
|
1 | 公平:每个节点都能够分配资源 |
2 | 资源高效利用:集群当中的资源可以被最大化使用 |
3 | 效率:调度的性能要好,能够尽快的完成大批量的pod的调度工作 |
4 | 灵活:运行用户根据自己的需求,控制和改变调度的逻辑 |
Scheduler是一个单独运行的程序,启动之后就会一直监听APIserver,它会获取报文中的字段:spec.nodeName 创建pod时候,为每个pod创建一个binding,表示该往哪个节点上部署 创建pod搭配节点时,由两个策略,先执行预选策略,再执行优选策略,这两步的操作都必须成功,否则立刻返回报错,也就是说,部署的node,必须满足这两个策略 |
预算策略
Predicate: 它自带一些算法,选择node节点(scheduler自带的算法策略,不需要人工干预) |
|
podfitsresources |
pod适应资源,检查节点上剩余资源是否满足pod请求的资源,主要是cpu和内存 |
Podfitshost |
pod适应主机,如果pod指定了node的name,检测主机名是否存在,存在要和pod指定的名称匹配,这才能调度过去 |
Podselectormarches |
pod选择器匹配,创建pod的时候可以根据node的标签来进行匹配,查找指定的node节点上标签是否存在,存在标签是否匹配 |
Nodiskconflict |
无磁盘冲突,确保已挂载的卷与pod的卷不发生冲突,除非目录是只读 |
如果预算策略都不满足,pod将始终处于pending状态,不断地重试调度,直到有节点满足条件,如果经过预算策略,上述三个节点都满足条件,那么会进入优选策略 |
优先策略
Leastrequestedpriority |
最低请求优先级,通过算法计算节点上的cpu和内存使用率,确定一下节点的权重,使用率越低的节点相应的权重越高,调度时会更倾向于使用率低的节点,实现资源合理的利用 |
balancererourceallocation |
衡资源分配,考虑cpu和内存的使用率,也会给节点赋予权重,权重算的是cpu和内存使用率接近,权重越高和上面的leastrequestedpriority最低请求优先级一起使用 例: Node1 的cpu和内存使用率:20:60 Node2 的cpu和内存使用率:50:50 Node2在被调度时会被优先选择 |
imagelocalitypriority |
节点上是否已经有了要部署的镜像,镜像的总数成正比,满足的镜像数越多,权重越好 例:nginx:1.22 node1:无 node2:有 那么node2在调度时会被优先 |
以上策略都是scheduler自带的算法,通过预算选择出可以部署的节点,再通过有线选择出来最好的节点,以上都是自带的算法,k8s集群自己来选择指定节点 Spec参数设置 nodeName:node02 如果指定了节点,在参数中设置了nodeName,指定了节点的名称,会跳过scheduler的调度策略,这个规则是强制匹配 指定标签 Spec NodeSelector: 指定节点标签部署pod,是要经过scheduler的算法,如果节点不满足条件,pod会进入pending状态,直到节点满足条件为止 |
亲和性
两种亲和性:node节点亲和性 和 Pod亲和性 |
|
Node节点的亲和性 | preferredDuringSchedulingIgnoredDuringExecution软策略: 选择node节点时,我声明了我最好能部署在node01,软策略会尽量满足这个条件,不一定会完全部署在node1节点 |
RequiredDuringSchedulinglgnoredDuringExecution硬策略: 选择pod时,申明了node01,我是硬策略,必须满足硬策略的条件,必须部署在node01,强制性要求 |
|
Pod的亲和性 |
preferredDuringSchedulingIgnoredDuringExecution软策略: 要求调度器将pod调度到其他pod的亲和性匹配的节点上,可以是,也可以不是,尽量满足 |
RequiredDuringSchedulinglgnoredDuringExecution硬策略: 要求调度器想pod调度到其他pod的亲和性匹配的节点上,必须是pod nginx1 node01 |
键值的运算关系
标签,都是根据标签来选择亲和性 In:在,选择的标签值在node节点上存在 Notin:不在,选择label的值不在node节点上 Gt:大于,大于选择的标签值 Lt:小于,小于选择的标签值 Exits:存在,选择标签对象,值不考虑 DoesNotExist:选择不具有指定标签的对象,值不考虑 |
面试题
你在部署pod的时候选择什么样的策略? node的亲和性:性能不一致,我尽量把pod往性能高的多部署,这个时候选择软策略 节点故障,或者节点维护,只能选择硬策略,必须选择可以使用的节点,把故障节点剔除 |
c
apiVersion: v1
kind: Pod
metadata:
labels:
run: nginx1
name: nginx1
spec:
containers:
- image: nginx:1.22.0
name: nginx1
resources:
limits:
memory: "1G"
cpu: "1"
volumeMounts:
- name: nginx1
mountPath: //usr/share/nginx/html
readOnly: false
lifecycle:
postStart:
exec:
command: ["/bin/bash","-c","echo nginx is up ; sleep 10"]
preStop:
exec:
command: ["/bin/bash","-c","echo nginx is down"]
startupProbe:
tcpSocket:
port: 80
initialDelaySeconds: 4
periodSeconds: 2
livenessProbe:
httpGet:
path: /
port: 80
initialDelaySeconds: 4
periodSeconds: 2
readinessProbe:
exec:
command:
- cat
- /etc/passwd
initialDelaySeconds: 4
periodSeconds: 2
volumes:
- name: nginx1
hostPath:
path: /opt/html
type: DirectoryOrCreate
wx
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx3
spec:
replicas: 1
selector:
matchLabels:
wx: nginx3
template:
metadata:
labels:
wx: nginx3
spec:
containers:
- name: nginx3
image: nginx:1.22
resources:
limits:
memory: "2G"
cpu: "2"
startupProbe:
tcpSocket:
port: 80
initialDelaySeconds: 5
periodSeconds: 2
livenessProbe:
httpGet:
scheme: HTTP
port: 80
path: index.html
initialDelaySeconds: 4
periodSeconds: 2
readinessProbe:
exec:
command: ["/usr/bin/test","-e","/etc/passwd"]
initialDelaySeconds: 4
periodSeconds: 2
volumeMounts:
- name: test
mountPath: /opt
readOnly: false
lifecycle:
postStart:
exec:
command: ["echo","nginx is up"]
preStop:
exec:
command: ["echo","nginx is down"]
volumes:
- name: test
hostPath:
path: /opt/html
type: DirectoryOrCreate
zfj
pod.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
spec:
replicas: 1
selector:
matchLabels:
run: nginx1
template:
metadata:
labels:
run: nginx1
spec:
containers:
- name: nginx
image: nginx:1.22
startupProbe:
tcpSocket:
port: 80
initialDelaySeconds: 4
periodSeconds: 2
livenessProbe:
httpGet :
scheme: HTTP
port: 80
initialDelaySeconds: 4
periodSeconds: 2
readinessProbe:
exec:
command: ["/usr/bin/test", "-e", "/etc/passwd"]
initialDelaySeconds: 4
periodSeconds: 2
resources:
limits:
memory: "1Gi"
cpu: "2"
volumeMounts:
- name: nginx
mountPath: /opt
readOnly: false
lifecycle:
postStart:
exec:
command: ["/bin/bash", "-c", "echo nginx is up >>/opt/123.txt"]
preStop:
exec:
command: ["/bin/bash", "-c", "echo nginx is down >>/opt/123.txt"]
volumes:
- name: nginx
hostPath:
path: /opt/html
type: DirectoryOrCreate
service.yaml
apiVersion: v1
kind: Service
metadata:
name: nginx-service
labels:
run: nginx1
spec:
type: NodePort
ports:
- port: 80
targetPort: 80
nodePort: 30001
selector:
run: nginx1
指定节点以及指定标签
指定节点:在spec参数设置当中加入nodeName字段
如果指定了节点。在参数中设置了nodeName指定节点名称。他将跳过scheduler的调度策略。这个规则是强制匹配 |
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx2
labels:
app: nginx
spec:
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- image: nginx:1.22
name: nginx
nodeName: node02
[root@master01 k8s.yaml]# kubectl apply -f q.yaml
deployment.apps/nginx2 created
[root@master01 k8s.yaml]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
centos-797bc57596-fdrnx 1/1 Running 0 6m13s 10.244.1.19 node01
myapp-test-5d94dbb4f-hjtjv 1/1 Running 2 7d19h 10.244.2.18 node02
nginx-chen-65f47476f8-47wvm 1/1 Running 1 3d2h 10.244.1.18 node01
nginx-chen-699bd94c4f-rrhjs 1/1 Running 1 3d2h 10.244.2.20 node02
nginx2-8655748cf-b7kbx 1/1 Running 0 36s 10.244.2.32 node02
nginx2-8655748cf-kjsqr 1/1 Running 0 65s 10.244.2.30 node02
nginx2-8655748cf-sgr48 1/1 Running 0 37s 10.244.2.31 node02
指定标签:在spec参数设置当中加入nodeSelector字段