5 个维度对 Kubernetes 集群优化

5 个维度对 Kubernetes 集群优化_第1张图片

节点配额和内核参数调整

对于公有云上的 Kubernetes 集群,规模大了之后很容器碰到配额问题,需要提前在云平台上增大配额。这些需要增大的配额包括

  • 虚拟机个数

  • vCPU 个数

  • 内网 IP 地址个数

  • 公网 IP 地址个数

  • 安全组条数

  • 路由表条数

  • 持久化存储大小

参考gce随着node节点的增加master节点的配置:

  • 1-5 nodes: n1-standard-1

  • 6-10 nodes: n1-standard-2

  • 11-100 nodes: n1-standard-4

  • 101-250 nodes: n1-standard-8

  • 251-500 nodes: n1-standard-16

  • more than 500 nodes: n1-standard-32

参考阿里云配置:

节点规模 Master规格
1-5个节点 4C8G(不建议2C4G)
6-20个节点 4C16G
21-100个节点 8C32G
100-200个节点 16C64G

增大内核选项配置 /etc/sysctl.conf:

5 个维度对 Kubernetes 集群优化_第2张图片

Etcd

  • 搭建高可用的etcd集群, 集群规模增大时可以自动增加etcd节点

    目前的解决方案是使用etcd operator来搭建etcd 集群,operator是CoreOS推出的旨在简化复杂有状态应用管理的框架,它是一个感知应用状态的控制器,通过扩展KubernetesAPI来自动创建、管理和配置应用实例。

    etcd operator 有如下特性:

    • ceate/destroy: 自动部署和删除 etcd 集群,不需要人额外干预配置。

    • resize:可以动态实现 etcd 集群的扩缩容。

    • backup:支持etcd集群的数据备份和集群恢复重建

    • upgrade:可以实现在升级etcd集群时不中断服务。

  • 配置etcd使用ssd固态盘存储

  • 设置 --quota-backend-bytes 增大etcd的存储限制。默认值是 2G

  • 需要配置单独的 Etcd 集群存储 kube-apiserver 的 event。

镜像拉取相关配置

Docker 配置

  • 设置 max-concurrent-downloads=10配置每个pull操作的最大并行下载数,提高镜像拉取效率,默认值是3。

  • 使用 SSD 存储。

  • 预加载 pause 镜像,比如 docker image save -o /opt/preloaded_docker_images.tar 和docker image load -i /opt/preloaded_docker_images.tar启动pod时都会拉取pause镜像,为了减小拉取pause镜像网络带宽,可以每个node预加载pause镜像。

Kubelet配置

  • 设置 --serialize-image-pulls=false该选项配置串行拉取镜像,默认值时true,配置为false可以增加并发度。但是如果docker daemon版本小于 1.9,且使用 aufs 存储则不能改动该选项。

  • 设置 --image-pull-progress-deadline=30配置镜像拉取超时。默认值时1分,对于大镜像拉取需要适量增大超时时间。

  • Kubelet 单节点允许运行的最大 Pod 数:--max-pods=110(默认是 110,可以根据实际需要设置)

镜像registry p2p分发

kube-api-server 配置

node节点数量 >= 3000, 推荐设置如下配置:--max-requests-inflight=3000--max-mutating-requests-inflight=1000

node节点数量在 1000 -- 3000, 推荐设置如下配置:

640?wx_fmt=png

内存配置选项和node数量的关系,单位是MB:

640?wx_fmt=png

pod配置

在运行 Pod 的时候也需要注意遵循一些最佳实践,比如:

  • 为容器设置资源请求和限制,尤其是一些基础插件服务spec.containers[].resources.limits.cpuspec.containers[].resources.limits.memoryspec.containers[].resources.requests.cpuspec.containers[].resources.requests.memoryspec.containers[].resources.limits.ephemeral-storagespec.containers[].resources.requests.ephemeral-storage在k8s中,会根据pod不同的limit 和 requests的配置将pod划分为不同的qos类别:- Guaranteed- Burstable- BestEffort当机器可用资源不够时,kubelet会根据qos级别划分迁移驱逐pod。被驱逐的优先级:BestEffort > Burstable > Guaranteed

  • 对关键应用使用 nodeAffinity、podAffinity 和 podAntiAffinity 等保护,使其调度分散到不同的node上。比如kube-dns 配置:

5 个维度对 Kubernetes 集群优化_第3张图片

  • 尽量使用控制器来管理容器(如 Deployment、StatefulSet、DaemonSet、Job 等)

Kube-scheduler 配置

  • 设置 --kube-api-qps=100默认值是50

Kube-controller-manager 配置

  • 设置 --kube-api-qps=100默认值是20

  • 设置 --kube-api-burst=100默认值是30

作者:薛海山转载链接:https://www.jianshu.com/p/e9fcc1a9eea4

长按二维码,关注我们

5 个维度对 Kubernetes 集群优化_第4张图片

新睿云,让云服务触手可及

云主机|云存储|云数据库|云网络

5 个维度对 Kubernetes 集群优化_第5张图片
5 个维度对 Kubernetes 集群优化_第6张图片
5 个维度对 Kubernetes 集群优化_第7张图片
5 个维度对 Kubernetes 集群优化_第8张图片
5 个维度对 Kubernetes 集群优化_第9张图片
5 个维度对 Kubernetes 集群优化_第10张图片
5 个维度对 Kubernetes 集群优化_第11张图片

点击“阅读原文”参与活动

你可能感兴趣的:(5 个维度对 Kubernetes 集群优化)