对于多副本应用,当执行 Scale Up 操作时,新副本会作为 backend 被添加到 Service 的负责均衡中,与已有副本一起处理客户的请求。考虑到应用启动通常都需要一个准备阶段,比如加载缓存数据,连接数据库等,从容器启动到正真能够提供服务是需要一段时间的。我们可以通过 Readiness 探测判断容器是否就绪,避免将请求发送到还没有 ready 的 backend。
下面是示例应用的配置文件。

readness健康性检测与maxSurge 和 maxUnavailable更新策略_第1张图片

重点关注 readinessProbe 部分。这里我们使用了不同于 exec 的另一种探测方法 -- httpGet。Kubernetes 对于该方法探测成功的判断条件是 http 请求的返回代码在 200-400 之间。
schema 指定协议,支持 HTTP(默认值)和 HTTPS。
path 指定访问路径。
port 指定端口。
上面配置的作用是:

  1. 容器启动 10 秒之后开始探测。
  2. 如果 http://[container_ip]:8080/healthy 返回代码不是 200-400,表示容器没有就绪,不接收 Service web-svc 的请求。
  3. 每隔 5 秒再探测一次。
  4. 直到返回代码为 200-400,表明容器已经就绪,然后将其加入到 web-svc 的负责均衡中,开始处理客户请求。
  5. 探测会继续以 5 秒的间隔执行,如果连续发生 3 次失败,容器又会从负载均衡中移除,直到下次探测成功重新加入。
    对于 http://[container_ip]:8080/healthy,应用则可以实现自己的判断逻辑,比如检查所依赖的数据库是否就绪,示例代码如下:

readness健康性检测与maxSurge 和 maxUnavailable更新策略_第2张图片

① 定义 /healthy 的处理函数。
② 连接数据库并执行测试 SQL。
③ 测试成功,正常返回,代码 200。
④ 测试失败,返回错误代码 503。
⑤ 在 8080 端口监听。
对于生产环境中重要的应用都建议配置 Health Check,保证处理客户请求的容器都是准备就绪的 Service backend。
以上是 Health Check 在 Scale Up 中的应用,下一节我们讨论在 Rolling Update 中如果应用。

在滚动更新中使用 Health Check

kubectl rollout history deployment app.v
查看历史版本
kubectl rollout undo deployment app --to-revision=1
回退之前的版本
healthcheck]# kubectl rollout history deployment app
第146篇
在滚动更新中使用 Health Check
上一节讨论了 Health Check 在 Scale Up 中的应用,Health Check 另一个重要的应用场景是 Rolling Update。试想一下下面的情况:
现有一个正常运行的多副本应用,接下来对应用进行更新(比如使用更高版本的 image),Kubernetes 会启动新副本,然后发生了如下事件:

  1. 正常情况下新副本需要 10 秒钟完成准备工作,在此之前无法响应业务请求。
  2. 但由于人为配置错误,副本始终无法完成准备工作(比如无法连接后端数据库)。
    先别继续往下看,现在请花一分钟思考这个问题:如果没有配置 Health Check,会出现怎样的情况?
    因为新副本本身没有异常退出,默认的 Health Check 机制会认为容器已经就绪,进而会逐步用新副本替换现有副本,其结果就是:当所有旧副本都被替换后,整个应用将无法处理请求,无法对外提供服务。如果这是发生在重要的生产系统上,后果会非常严重。
    如果正确配置了 Health Check,新副本只有通过了 Readiness 探测,才会被添加到 Service;如果没有通过探测,现有副本不会被全部替换,业务仍然正常进行。
    下面通过例子来实践 Health Check 在 Rolling Update 中的应用。
    用如下配置文件 app.v1.yml 模拟一个 10 副本的应用:
    readness健康性检测与maxSurge 和 maxUnavailable更新策略_第3张图片

接下来滚动更新应用,配置文件 app.v2.yml 如下:
readness健康性检测与maxSurge 和 maxUnavailable更新策略_第4张图片

很显然,由于新副本中不存在 /tmp/healthy,是无法通过 Readiness 探测的。验证如下:
readness健康性检测与maxSurge 和 maxUnavailable更新策略_第5张图片

接下来滚动更新应用,配置文件 app.v2.yml 如下:
readness健康性检测与maxSurge 和 maxUnavailable更新策略_第6张图片

这个截图包含了大量的信息,值得我们详细分析。
先关注 kubectl get pod 输出:

  1. 从 Pod 的 AGE 栏可判断,最后 5 个 Pod 是新副本,目前处于 NOT READY 状态。
  2. 旧副本从最初 10 个减少到 8 个。
    再来看 kubectl get deployment app 的输出:
  3. DESIRED 10 表示期望的状态是 10 个 READY 的副本。
  4. CURRENT 13 表示当前副本的总数:即 8 个旧副本 + 5 个新副本。
  5. UP-TO-DATE 5 表示当前已经完成更新的副本数:即 5 个新副本。
  6. AVAILABLE 8 表示当前处于 READY 状态的副本数:即 8个旧副本。
    在我们的设定中,新副本始终都无法通过 Readiness 探测,所以这个状态会一直保持下去。
    上面我们模拟了一个滚动更新失败的场景。不过幸运的是:Health Check 帮我们屏蔽了有缺陷的副本,同时保留了大部分旧副本,业务没有因更新失败受到影响。
    接下来我们要回答:为什么新创建的副本数是 5 个,同时只销毁了 2 个旧副本?
    原因是:滚动更新通过参数 maxSurge 和 maxUnavailable 来控制副本替换的数量。
    maxSurge
    此参数控制滚动更新过程中副本总数的超过 DESIRED 的上限。maxSurge 可以是具体的整数(比如 3),也可以是百分百,向上取整。maxSurge 默认值为 25%。
    在上面的例子中,DESIRED 为 10,那么副本总数的最大值为:
    roundUp(10 + 10 25%) = 13
    所以我们看到 CURRENT 就是 13。
    maxUnavailable
    此参数控制滚动更新过程中,不可用的副本相占 DESIRED 的最大比例。 maxUnavailable 可以是具体的整数(比如 3),也可以是百分百,向下取整。maxUnavailable 默认值为 25%。
    在上面的例子中,DESIRED 为 10,那么可用的副本数至少要为:
    10 - roundDown(10
    25%) = 8
    所以我们看到 AVAILABLE 就是 8。
    maxSurge 值越大,初始创建的新副本数量就越多;maxUnavailable 值越大,初始销毁的旧副本数量就越多。
    理想情况下,我们这个案例滚动更新的过程应该是这样的:
  7. 首先创建 3 个新副本使副本总数达到 13 个。
  8. 然后销毁 2 个旧副本使可用的副本数降到 8 个。
  9. 当这 2 个旧副本成功销毁后,可再创建 2 个新副本,使副本总数保持为 13 个。
  10. 当新副本通过 Readiness 探测后,会使可用副本数增加,超过 8。
  11. 进而可以继续销毁更多的旧副本,使可用副本数回到 8。
  12. 旧副本的销毁使副本总数低于 13,这样就允许创建更多的新副本。
  13. 这个过程会持续进行,最终所有的旧副本都会被新副本替换,滚动更新完成。
    而我们的实际情况是在第 4 步就卡住了,新副本无法通过 Readiness 探测。这个过程可以在 kubectl describe deployment app 的日志部分查看。
    readness健康性检测与maxSurge 和 maxUnavailable更新策略

如果滚动更新失败,可以通过 kubectl rollout undo 回滚到上一个版本。

readness健康性检测与maxSurge 和 maxUnavailable更新策略_第7张图片
如果要定制 maxSurge 和 maxUnavailable,可以如下配置:
readness健康性检测与maxSurge 和 maxUnavailable更新策略_第8张图片

小结
本章我们讨论了 Kubernetes 健康检查的两种机制:Liveness 探测和 Readiness 探测,并实践了健康检查在 Scale Up 和 Rolling Update 场景中的应用。