kubeadm部署的集群在集群关机重启后起不来解决办法

一、问题

当虚拟机非正常关机后导致集群宕机,重启虚拟机后出现的问题:
会发现kubectl get pod -A 一直看到所有的pod 都起不来,状态都不是Running

二、实验环境

测试环境:三台虚拟机 2C 2G 100G
注意:我这里用的是测试环境,生产环境也不会用kubeadm 部署吧

三、解决思路

1.查看原因

通过systemctl status kubelet 或者journalctl -u kubelet -f 这两种都可以查看kubelet 状态,顺便看看他都报了啥错

2.解决问题

因为我忘了记录错误了,我的错误显示是因为apiserver 或者controller-manager 等等容器的容器ID已经存在了,导致他没有他创建容器失败,所以我把master 节点上的所有容器都删除了,但是他还有一些Exited 的容器没有删除,所以还需要再执行了删除Exited 状态的容器语句
docker rm -f $(docker ps -aq) 和 docker rm -f $(docker ps -qf status=exited)
执行完语句之后等会再去kubectl get pod -A 就可以看到他状态恢复了

你可能感兴趣的:(云原生,k8s和k8s遇到的问题,kubernetes)