云原生多云应用利器 --Karmada 总览篇

云原生多云应用利器 --Karmada 总览篇_第1张图片

 原文出处u:云原生多云应用利器--Karmada 总览篇_云原生_Daocloud 道客_InfoQ写作平台

01 Why - 愿景

异构多云,成为企业未来常态化的基础设施面貌。但云原生体系下的多云多集群,和云计算体系下的概念认知,存在相当大的理念沟壑,这也导致了在云原生领域相关技术演进的方向,实际上是一个复杂的系统工程。

在云原生体系下,既有的多云多集群,都是围绕应用为中心的管理视⻆,这大大超越了云计算下的仅仅以资源分配为中心的管理视⻆。换句话说,不能让应用无感知的多云多集群,并不是原生的多云多集群。

应用为中心的管理视⻆,追求应用脱离资源层束缚的云自由。但最先宣布的多云多集群方案,几乎无一例外来自某个特定云计算公司。这事实上变成了一个悖论,因为没有一家云计算公司会希望实现云自由。

02 How - 原理

原生的多云多集群,一定是实现了云自由下的,多云与多集群一体的设计理念。并全面兼容既有的应用编排与调度体系,实现对应用的跨云跨集群无感。

从设计⻆度,自下而上包含:「集群基础设施管理」,「集群生命周期管理」,「集群配置策略管理」,「集群应用编排管理」和「集群应用运维管理」,五大模块。

集群基础设施管理,是由基金会定义的 Cluster API 规范了所有云计算服务或产品提供商,需要满足的基础设 施驱动接口。该 API 直接代表了云计算公司对云原生领域的承诺与开放度。

集群生命周期管理,是由基金会定义的 Kubeadm 项目规范了集群所有控制单元的模块,所应该遵循的样本模块和部署架构。并需要提供模块和架构的 K8S LTS 支持策略。

集群配置策略管理,由 LTS 最佳实践不断演进得到的,集群最佳配置参数,与策略设定。并能够根据实际生产需要,施加不同等级的数据保护策略。

集群应用编排管理,是由基金会定义的 Karmada 项目规范了跨集群管理应用的编排与调度。由于前面几个前置条件的成熟,基于联邦模式的应用编排已经被认定为失败的设计。

集群应用运维管理,该领域涉及到完整的可观测性能力提升,跨云跨集群的网络管理和存储管理,及多云多集群下的容灾方案。

03 多云能力建设问题域总结

  1. 应用下发的模型是什么样的?

  2. 应用的模型怎样被调度到不同的集群?

  3. 在不同的集群下发的模型怎样做到差异化?

  4. 怎样对需要计算资源的工作负载调度到不同集群,来均衡所有集群的资源?

  5. 应用下发的模型怎样做到多集群,多机房,多地的灾备和双活的能力?

  6. 多集群的统一访问入口的网关怎样建设?

  7. 跨集群的内部服务发现怎样建设,以及跨集群的网络连通?

  8. 怎样统一内部的访问方式的地址,举例全局域名?

  9. 怎样在不同的集群间,保证镜像的一致,以及数据的同步?

  10. 怎样设计统一的下发流程,举例不同环境的下发流程可能会不一样?

  11. 怎样从顶层设计和规划资源的分配和使用?

  12. 怎样打通多云部署带来的统一观测性能力的建设?

  13. 怎样设计和解决在多集群的背景下,有状态服务的调度机制和访问机制?

  14. 怎样解决云边场景以及混合云的统一应用管理能力?

04 Karmada 简介

Karmada 是 CNCF 的云原生项目,主要的能力是纳管多个 Kubernetes 集群,以及基于原生的 Kubernetes 的资源对象,将其下发到多个集群。对于一些有计算资源需求的 Deployment,Job 等 workload 具体副本数调度能力,让不同的 workload 按照一些的策略运行在不同的集群上。以此来达到多云分发的能力的这么一个项目。

Karmada 和 Kubernetes 的关系:首先 Karmada 本身需要运行在 Kubernetes 集群中,这样的 Kubernetes 集群,我们称作为 Host Cluster (宿主集群),主要是用来运行 Karmada 控制平面的组件,其中包含 Karmada 的 etcd,karmada-api server, karmada-controller manager, Kubernetes controller manager,karmada-scheduler,karmada-webhook, karmada-scheduler-estimator 等控制面的组件。还有一种集群是负责真正运行工作负载的集群,对于这种集群,我们称之为 Workload Cluster。在 Workload Cluster 集群中,会真正运行业务的容器、一些 Kubernetes 的资源对象、存储、网络、dns 等,同时对于 pull 模式的部署方式,还会运行 Karmada 的 agent 组件,用于和控制面组件通信,完成工作负载的下发能力。

05 Karmada 概念介绍

云原生多云应用利器 --Karmada 总览篇_第2张图片

5.1 ResourceTemplate:

在 Karmada 中没有真正的 crd 类型是 ResourceTemplate,这里的 ResourceTemplate 只是对 Karmada 可分发的资源对象的一种抽象,这里的 Resource 包含 Kubernetes 中所有支持的资源对象的类型,包括常见的 Deployment,Service,Pod,Ingress,PVC,PV, Job 等等,同时也原生的支持 CRD。

5.2 Cluster:

Cluster 对象代表一个完整的,单独的一套 Kubernetes 集群,是可用于运行工作负载的集群的抽象和连接配置。在 Karmada 中,集群不仅仅有 spec,还有 status,这个 status 中描述了集群的基本信息,支持的 crd,以及集群的可用物理资源的统计等,用于在后续的调度器中使用这些信息进行调度处理。这些 Cluster 对象会被保存在 karmada-cluster 这个 namespace 中,这个 namespace 的作用有点类似 Kubernetes 的 kube-system,是系统预留的 namespace。

Name:         10-23-20-93Namespace:    Labels:       Annotations:  API Version:  cluster.karmada.io/v1alpha1Kind:         ClusterMetadata:  Creation Timestamp:  2021-09-17T13:54:50Z   Finalizers:       karmada.io/cluster-controller  Generation:  1......Spec:  API Endpoint:  https://10.23.20.93:6443  Secret Ref:       Name:       10-23-20-93       Namespace:  karmada-cluster    Sync Mode:    Push Status:    API Enablements:       Group Version:  v1       Resources:       Kind:         ConfigMap          Name:         configmaps              Kind:         Pod          Name:         pods              Kind:         Secret          Name:         secrets          Kind:         ServiceAccount          Name:         serviceaccounts          Kind:         Service          Name:         services       Group Version:  apiregistration.k8s.io/v1   Resources:          Kind:         APIService          Name:         apiservices       Group Version:  apps/v1       Resources:          Kind:         ControllerRevision          Name:         controllerrevisions          Kind:         DaemonSet          Name:         daemonsets          Kind:         Deployment          Name:         deployments          Kind:         ReplicaSet          Name:         replicasets          Kind:         StatefulSet          Name:         statefulsets           Group Version:  authentication.k8s.io/v1       Resources:          Kind:         TokenReview          Name:         tokenreviews           Group Version:  autoscaling/v1       Resources:          Kind:         HorizontalPodAutoscaler          Name:         horizontalpodautoscalers           Group Version:  batch/v1       Resources:          Kind:         Job           Name:         jobs          Group Version:  crd.projectcalico.org/v1       Resources:          Kind:  NetworkPolicy          Name:  networkpolicies          Kind:  NetworkSet          Name:  networksets          Kind:  HostEndpoint          Name:  hostendpoints          Kind:  IPPool          Name:  ippools          Kind:  IPAMBlock          Name:  ipamblocks          Kind:  BGPConfiguration          Name:  bgpconfigurations ......
 Conditions:      Last Transition Time:  2021-10-03T01:40:02Z      Message:               cluster is reachable and health endpoint responded with ok      Reason:                ClusterReady      Status:                True      Type:                  Ready   Kubernetes Version:      v1.15.4   Node Summary:      Ready Num:  5      Total Num:  5   Resource Summary:  Allocatable:         Cpu:                  26         Ephemeral - Storage:  217892505240         hugepages-1Gi:        0         hugepages-2Mi:        0         Memory:               51824616Ki         Pods:                 550      Allocated:        Cpu:                  3100m        Ephemeral - Storage:  0         Memory:               140Mi         Pods:                 0      Allocating:         Cpu:                  0         Ephemeral - Storage:  0         Memory:               0         Pods:                 0Events:                     

5.3 PropagationPolicy/ClusterPropagationPolicy:

PropagationPolicy 的作用主要是,为了定义资源对象被下发的策略,如下发到哪些集群,以及下发到这些集群中的需要计算资源的工作负载的副本数应该怎样分配。PropagationPolicy 是怎样知道自己的策略是作用于哪些资源对象的,这里有一个 resource selector,使用这个选择器去查找和匹配应该被匹配的资源对象,将按照这个 PropagationPolicy 定义的策略进行下发。同时 PropagationPolicy 也是第一个会影响调度器的地方,后续在 ResourceBinding 篇幅里会细讲这个问题。

apiVersion: policy.karmada.io/v1alpha1kind: PropagationPolicymetadata:  name: nginx-propagationspec:    resourceSelectors:        - apiVersion: apps/v1            kind: Deployment            name: nginx    placement:        clusterAffinity:            clusterNames:               - member1               - member2        replicaScheduling:            replicaDivisionPreference: Weighted            replicaSchedulingType: Divided            weightPreference:              staticWeightList:                  - targetCluster:                            clusterNames:                               - member1                      weight: 1                  - targetCluster:                           clusterNames:                              - member2                    weight: 1

5.4 OverridePolicy:

OverridePolicy 的作用是,定义在下发到不同集群中的配置,可以是不一样的,例如不同的集群所对应的镜像仓库的地址是不一样的,那就需要设置在不同集群中的工作负载的镜像地址是不一样,例如在不同的环境下,需要设置不同的环境变量等。OverridePolicy 的作用时机是在 PropagationPolicy 之后,以及在真正在下发到集群之前,主要处理逻辑是 binding controller 中处理的,会在后续的篇幅中提到。其中可以使用的 override 的能力目前包括 Plaintext,ImageOverrider,CommandOverrider,ArgsOverrider 这几种,用来完成不同集群的差异化配置能力。同样,OverridePolicy 也会通过 resource selector 的机制来匹配到需要查建议配置的资源对象。

apiVersion: policy.karmada.io/v1alpha1kind: OverridePolicymetadata:   name: nginx-propagationspec:   resourceSelectors:   - apiVersion: apps/v1        kind: Deployment         name: nginx   targetCluster:      clusterNames:      - 10-23-20-93   overriders:      plaintext:      - path: "/spec/template/spec/containers/0/image"          operator: replace          value: "nginx:test"

5.5 ResouceBinding/ClusterResouceBinding:

ResourceBinding 这个 crd 不是用于给最终用户使用的,而是 Karmada 自身机制工作需要的,主要的用途是说明了某一个资源被绑定到了哪个集群上了,这个和集群绑定的逻辑是在 detector 的 PropagationPolicy 的 controller 中来控制,可以理解成 ResourceBinding 是 PropagationPolicy 派生出来的一个 cr 对象。同时 Karmada 的调度器的处理对象就是以一个 ResourceBinding 为处理单元,在此基础上来完成资源对象所需要副本数的计算和调度,最终会由 binding controller 完成对 ResourceBinding 的处理,从而生成 Work 对象,同步下发到对应的集群上。

Name:         nginx-deploymentNamespace:    defaultLabels:       propagationpolicy.karmada.io/name=nginx-propagation              propagationpolicy.karmada.io/namespace=defaultAnnotations:  policy.karmada.io/applied-placement: {"clusterAffinity":{"clusterNames":["10-23-20-93"]}}API Version:  work.karmada.io/v1alpha1Kind:         ResourceBindingMetadata: Creation Timestamp:  2021-11-05T02:52:17Z   Generation:          5......   Owner References:     API Version:           apps/v1      Block Owner Deletion:  true      Controller:            true      Kind:                  Deployment      Name:                  nginx      UID:                   967b7a14-044b-4834-a9e4-3321323a6799   Resource Version:        8545931   Self Link:               /apis/work.karmada.io/v1alpha1/namespaces/default/resourcebindings/nginx-deployment   UID:                     1d0a867d-c386-41c5-8ac7-43e110348918Spec:   Clusters:      Name:  10-23-20-93   Replica Requirements:     Resource Request:        Cpu:                  0         Ephemeral - Storage:  0         Memory:               0         Pods:                 0   Replicas:                 1   Resource:      API Version:       apps/v1      Kind:              Deployment      Name:              nginx      Namespace:         default      Resource Version:  8545930Status:   Aggregated Status:      Applied:       true      Cluster Name:  10-23-20-93      Status:         Available Replicas:  1         Conditions:           Last Transition Time:  2021-11-05T02:52:18Z           Last Update Time:      2021-11-05T02:52:18Z           Message:               Deployment has minimum availability.           Reason:                MinimumReplicasAvailable           Status:                True           Type:                  Available           Last Transition Time:  2021-11-05T02:52:17Z           Last Update Time:      2021-11-05T02:52:18Z           Message:               ReplicaSet "nginx-6c7964bd8f" has successfully progressed.           Reason:                NewReplicaSetAvailable           Status:                True           Type:                  Progressing       Observed Generation:     1        Ready Replicas:          1        Replicas:                1        Updated Replicas:        1

5.6 Work:

Work 这个对象代表了所有资源对象,以及所有资源对象需要下发到多个集群的时候所对应的业务模型。举例来说,一个 Deployment 需要下发到两个集群中去,那对应到这个 Deployment 的 work 的对象就会有两个,因为 work 是集群单位的对象,主要的作用就是对应和代表一个资源对象在一个集群中的逻辑对象。这个逻辑对象 (work),它保存在控制平面,在后面的 execution controller 中会介绍到 work。work 和 execution 的概念,这里就是 Karmada 在做多集群下发中完成 Host Cluster 和 Workload Cluster 之间真正业务能力的体现。

Name:         nginx-687f7fb96fNamespace:    karmada-es-10-23-20-93Labels:       resourcebinding.karmada.io/name=nginx-deployment                 resourcebinding.karmada.io/namespace=defaultAnnotations:  policy.karmada.io/applied-overrides:                  [{"policyName":"nginx-propagation","overriders":{"plaintext":[{"path":"/spec/template/spec/containers/0/image","operator":"replace","value...API Version:  work.karmada.io/v1alpha1Kind:         WorkMetadata:  Creation Timestamp:  2021-11-03T05:58:49Z   Finalizers:     karmada.io/execution-controller   Generation:  1 ......Spec:   Workload:      Manifests:         API Version:  apps/v1         Kind:         Deployment         Metadata:           Annotations:              kubectl.kubernetes.io/last-applied-configuration:  {"apiVersion":"apps/v1","kind":"Deployment","metadata":{"annotations":{},"labels":{"app":"nginx"},"name":"nginx","namespace":"default"},"spec":{"replicas":1,"selector":{"matchLabels":{"app":"nginx"}},"template":{"metadata":{"labels":{"app":"nginx"}},"spec":{"containers":[{"image":"10.23.12.61:9120/docker.io/nginx","name":"nginx"}]}}}}            Labels:               App:                                     nginx               propagationpolicy.karmada.io/name:       nginx-propagation               propagationpolicy.karmada.io/namespace:  default               resourcebinding.karmada.io/name:         nginx-deployment               resourcebinding.karmada.io/namespace:    default               work.karmada.io/name:                    nginx-687f7fb96f               work.karmada.io/namespace:               karmada-es-10-23-20-93            Name:                                      nginx            Namespace:                                 default         Spec:        Progress Deadline Seconds:  600            Replicas:                   1            Revision History Limit:     10            Selector:               Match Labels:                 App:  nginx            Strategy:               Rolling Update:                  Max Surge:        25%                  Max Unavailable:  25%               Type:               RollingUpdate            Template:               Metadata:                  Creation Timestamp:                    Labels:                    App:  nginx             Spec:                 Containers:                   Image:              nginx:test                   Image Pull Policy:  Always                   Name:               nginx                   Resources:                   Termination Message Path:    /dev/termination-log                   Termination Message Policy:  File                Dns Policy:                    ClusterFirst                Restart Policy:                Always                Scheduler Name:                default-scheduler                Security Context:                Termination Grace Period Seconds:  30Status:   Conditions:      Last Transition Time:  2021-11-03T05:58:49Z      Message:               Manifest has been successfully applied      Reason:                AppliedSuccessful      Status:                True      Type:                  Applied    Manifest Statuses:      Identifier:        Group:      apps        Kind:       Deployment        Name:       nginx        Namespace:  default        Ordinal:    0        Resource:           Version:    v1     Status:        Conditions:           Last Transition Time:  2021-11-03T05:58:50Z           Last Update Time:      2021-11-03T05:58:50Z           Message:               Deployment does not have minimum availability.           Reason:                MinimumReplicasUnavailable           Status:                False           Type:                  Available           Last Transition Time:  2021-11-03T05:58:50Z           Last Update Time:      2021-11-03T05:58:50Z           Message:               ReplicaSet "nginx-6bd9c997cc" is progressing.           Reason:                ReplicaSetUpdated           Status:                True           Type:                  Progressing        Observed Generation:     1        Replicas:                1        Unavailable Replicas:    1        Updated Replicas:        1  Events:                        

5.7 ReplicaSchedulingPolicy:

 

ReplicaSchedulingPolicy 顾名思义就是对副本数分配的一种策略,使用 resource selector 去匹配对应的工作负载,这里的工作负载指的就是 Deployment,Job 之类的。这个和 PropagationPolicy 里的 replicaScheduling 有什么区别?PropagationPolicy 里的 replicaScheduling 是用于在调度器中使用的,在程序中全称是 ReplicaSchedulingStrategy,也是用于计算副本数分配的。ReplicaSchedulingPolicy 的作用是在调度器没有能计算出每一个集群对应分配的副本数的时候,这个时候 ReplicaSchedulingPolicy 才会生效。在目前的逻辑中,在调度类型是 Failover 类型的时候,会触发 ReplicaSchedulingPolicy 生效,详情会在后续篇幅中提到。

apiVersion: policy.karmada.io/v1alpha1 kind: ReplicaSchedulingPolicy metadata: name: foo  namespace: foons spec:  resourceSelectors:  - apiVersion: apps/v1    kind: Deployment     namespace: foons     name: deployment-1  totalReplicas: 100  preferences:   staticWeightList:   - targetCluster:      labelSelector:        matchLabels:        location: us    weight: 1  - targetCluster:      labelSelector:       matchLabels:        location: cn     weight: 2

复制代码

5.8 ServiceExport:

ServiceExport 的作用是为了解决跨集群服务发现的场景,ServiceExport 不是 Karmada 自己的 CRD,而是 Kubernetes 社区在解决跨集群服务发现的场景下定义的一套 mcs api 规范。主要的作用就是将某一个集群中,需要被其它集群发现的服务去创建一个 ServiceExport,以此来将这个服务暴露出去。当然不是只有仅仅这个一个 ServiceExport 就可以的,配合下述的 ServiceImport 来完成。对于 ServiceExport 和 ServiceImport 的实现,是不同的方案提供商来实现的,Karmada 内置实现了 ServiceExport 和 ServiceImport 的 controller。

kind: ServiceapiVersion: v1metadata: namespace: demo   name: demo-servicespec:  selector:     app: nginx   ports:     - port: 8080         targetPort: 80---

kind: ServiceExportapiVersion: multicluster.x-k8s.io/v1alpha1metadata:  namespace: demo   name: demo-service

复制代码

5.9 ServiceImport:

ServiceImport 的作用是配合 ServiceExport 来完成跨集群的服务发现,要想在某一个集群中去发现另一个集群的服务,除了要在暴露服务的集群中创建 ServiceExport,还要在需要发现和使用这个服务的集群中,创建 ServiceImport 对象,以此来在集群中发现其它集群的服务,和使用这个其它集群的服务,至于在这个集群中是怎样发现的,以及怎样访问的,是不同的方案提供商来实现的,这了会涉及到 Kubernetes 中已有资源对象 EndpointSlice。具体的在 Karmada 中的实现细节,将在后面的 ServiceExport,ServiceImport,EndpointSlice 的 controller 中的篇幅中细讲。

apiVersion: multicluster.k8s.io/v1alpha1kind: ServiceImportmetadata:  name: my-svc   namespace: my-nsspec:  ips:  - 42.42.42.42   type: "ClusterSetIP"   ports:  - name: http      protocol: TCP      port: 80   sessionAffinity: Nonestatus:   clusters:   - cluster: us-west2-a-my-cluster

复制代码

5.10 EndpointSlice:

EndpointSlice 是 Kubernetes 中的已有资源对象的一个。主要作用就是描述了 Service 对应的 Pod 的真正的访问地址以及端口的一些信息。

apiVersion: discovery.k8s.io/v1beta1kind: EndpointSlicemetadata:  name: imported-my-svc-cluster-b-1   namespace: my-ns   labels:       multicluster.kubernetes.io/source-cluster: us-west2-a-my-cluster       multicluster.kubernetes.io/service-name: my-svc    ownerReferences:    - apiVersion: multicluster.k8s.io/v1alpha1      controller: false      kind: ServiceImport      name: my-svcaddressType: IPv4ports:  - name: http     protocol: TCP       port: 80   endpoints:      - addresses:            - "10.1.2.3"          conditions:             ready: true          topology:            topology.kubernetes.io/zone: us-west2-a

5.11 Execut控制平面中,会为每一个被纳管的集群创建一个集群相关的 namespace,这个 namespace 中存放的资源对象是 work。每一个和这个集群相关的 Kubernetes 资源对象都会对应到这个 namespace 下的一个 work。

举例,在 Karmada 的控制平面创建了一个 service 资源对象,同时通过 PropagationPolicy 下发到两个集群中,那在每一个集群对应的 execution namespace 中都会有一个 work 对象对应到当前集群需要负责的 service 对象上。

06 Karmada 架构介绍图片

云原生多云应用利器 --Karmada 总览篇_第3张图片

6.1 karmadactl:

karmadactl 是 Karmada 的命令行程序,主要是方便快速的接入集群,管理集群。

6.2 kubectl karmada:

kubectl karmada 是 kubectl 的 Karmada 的 plugin 程序,用于 Host Cluster 这个 context 中,使用 kubectl 的 cmd 中可以快速的查看 Karmada 管理的资源对象对象的详细信息。

6.3 karmada agent:

karmada agent 的作用主要是使用 pull 模式的时候才会需要,这里的 pull 指的是 workload 集群中的 agent 主动去控制平面去 pull 需要下发的资源对象。考虑在云边的场景下,控制面 Host Cluster 运行在公有云,Workload Cluster 运行在私有云的场景下,这个时候是需要安装 agent,每一个集群安装一个 agent 就可以了。也可以在私有环境使用 pull 模式,取决于场景的需要。在安装了 agent 的集群中,这个集群在控制面的工作方式就是 pull 的模式,顾名思义是 agent 主动去控制面去拉取需要处理的 work 对象。

  • 当 agent 在某一个集群启动之后,会在控制平面创建对应的 cluster 对象,同时创建 execution 的 namespace。

  • 启动 4 个 controller,包括 cluster status controller, execution controller,work status controller, service export controller 这些 controller,这里有一个需要注意的是在 agent 中启动的这些 controller 在 controller manager 中也会启动,但是区别是 agent 中的 controllers 的关注的事件和 controller manager 中关注的事件是不一样的,通过定义 controller 中的 PredicateFunc 这个参数指定了事件的过滤逻辑,详细请查看 pkg/util/helper/predicate.go 文件。对于需要 agent 处理的事件, 方法名都有一个 “OnAgent” 的后缀。如 “func NewExecutionPredicateOnAgent() predicate.Funcs”。

6.4 karmada api server:

karmada api server 是和 Kubernetes 集群中的 api server 是一样的角色,负责处理 api 的请求,以及连接到 etcd 数据源持久化元数据,在这个过程中所有的 controllers 和 scheduler 会和 api server 进行通信,类似 Kubernetes 里的 api server 和 controllers 以及 scheduler 的关系。

6.5 karmada controller manager:

karmada controller manager 主要负责初始化所有相关的 controllers,以及启动所有的 controllers,让所有的 controllers 去工作起来。具体包含的 controller 主要有 cluster controller,cluster status controller,namespace sync controller,propagationpolicy controller,binding controller, execution controller,work status controller,serviceexport controller,endpointslice controller, serviceimport controller,hpa controller。具体每一个 controller 的工作机制将在下面的篇幅中讲解。

6.6 karmada Kubernetes controller manager:

这里的 controller manager 是使用的 kubernetes 的 controller manager,但是只会用到 gc controller 的能力,用于完成资源对象的垃圾回收工作,其它的能力都没有开启,所以不会因为在 Karmada 创建一个 Deployment 而创建 Pod 出来。

6.7 karmada scheduler:

这个组件是 Karmada 的调度器,主要是用于完成在资源对象的调度。也是以插件的方式支持调度的扩展能力。其中也会包含 filter 和 score 两个接口。

对于一些需要计算副本比例的资源对象,会首先根据 filter 和 score 选择出一些集群,然后再对需要分配副本的资源对象类型计算每一个集群应该需要分发的副本数。

目前只是支持了 Deployment 和 Job 类型的,对于 StatefulSet 是不支持副本数分配到不到集群的能力。对于非工作负载的资源对象,不会有处理副本数的要求,只会在对应需要被调度的集群,创建一个匹配的资源对象,举例,如在 Karmada 的控制面创建了一个 service 对象,同时 PropagationPolicy 设置了对应希望调度的集群,然后只会在对应的集群中创建一个 service 资源对象。

6.8 karmada scheduler estimator:

estimator 的组件是负责更加精确的计算副本分配的能力,所以整个工作过程中,只会当被调度处理的资源对象是 Deployment 和 Job 的时候,才会和 estimator 组件进行通信。那 estimator 具体的工作范围是什么?以及有了调度器了,为什么还需要一个 estimator?

在早期的版本中,调度器在计算副本数的分配时,只支持了根据集群状态的资源总和来调度副本数,或者根据静态的权重来固定副本数。

在这个情况下,很有可能因为集群的总体资源是充足的,但是每一台机器的资源不足的,导致最终的 Pod 调度不出去。

为了解决这个问题,引入了 estimator 组件,每一个 estimator 会负责一个独立的集群的可调度副本数的计算。estimator 会根据调度的资源请求,计算出这样的资源规格 (如,pod 的 cpu 是 1core,内存是 2G),在这个集群中,以及这个集群中,所有的节点上可调度的副本数的总和返回回去,在计算每一个节点的可调用副本数的时候,会获取节点的资源使用,根据请求的 pod 的 cpu 和内存去计算,这个主机最多可以运行多少个这样的 pod,这样就可以计算出,单个机器的可用副本数,根据同样的逻辑,对所有的节点都会进行这样的计算,最后得到一个集群真正可以调度的 pod 数量。

这样就可以保证,只要是被调度器计算好的副本数的分配之后,可以在对应的集群中真正的被调度和正常的启动。目前 estimator 只会负责 PropagationPolicy 的 replicaScheduling 中,调度类型为 devided,同时副本分配策略是动态权重的这种调度设置。duplicated 类型,以及静态权重的这种,不会处理。

6.9 karmada webhook:

webhook 是 kubernetes 中,以及 operator 中常见的组件,主要作用就是对负责的资源对象进行数据格式的验证,以及在没有进入到 etcd 之前进行一些拦截修改数据的能力。

举例,在创建 serviceimport 需要的 PropagationPolicy 的时候会在 webhook 中修改 PropagationPolicy 的 resource selector,在其中增加 service 和 endpointslice 的部分,最后会随着 detector 和 binding controller 中的逻辑,在对应的集群的 execution 的 space 中创建对应 service 和 endpointslice 的 work,然后由 execution controller 去对应的工作集群去创建真正的资源对象,从而在 serviceimport 的集群中创建出 endpointslice 资源对象,来达到跨集群的服务发现的能力。

07「DaoCloud 道客」贡献参与

目前「DaoCloud 道客」在 Karmada 项目中,主要参与调度模块和部署模块的设计开发,也参与相关 bug 的修复,完成了非 root 权限快速安装 karmada 的功能开发,对优先级调度和抢占特性、插件管理特性等方面,也在持续的关注和跟进。

云原生多云应用利器 --Karmada 总览篇_第4张图片

图注:已提交的 PR 

云原生多云应用利器 --Karmada 总览篇_第5张图片

图注:跟进的项目

08 对社区的思考

从现在的社区来看,Karmada 的玩法更加贴近云原生的玩法,因为被下发的对象是原生的 Kubernetes 对象,包括支持 CRD。同时目前也是在多云支持上,走的最早和最快的一个 CNCF 的开源方案。

以下整理了目前看到需要思考的问题:

  • 生产级灾备方案。

  • 在创建一个 namespace 资源对象的时候,Karmada 会同步在所有集群创建相同 namespace,如何支持在某一些集群中创建 namespace。

  • 如果上层有逻辑 quota ,如果底层无法感知和干预调度,会出现调度结果不一致的问题。

  • 怎样支持对 cni 的网络感知,举例,对于支持固定 IP 能力的 cni,如何让调度器感知。

  • 现在 operator 非常的多 (statefulset 部署为最佳实践) 但是 Karmada 未做有状态对象的状态收集。

  • 老版本 api 的兼容问题。举例在对接 Kubernetes1.15 的时候,出现 crd 的版本不匹配导致的 crd 无法通过 PropagationPolicy 下发到 Workload Cluster 中去。

如果本文对你有帮助,别忘了关注,点赞,评论,转发,收藏哟!

 想了解更多云原生相关学习资料请点赞收藏+评论转发+关注我之后点进我的主页右上角私信(555)即可领取免费资料!

你可能感兴趣的:(云原生,cloud,native,微服务,架构,java)