K8S集群rabbitmq这个pod出现CrashLoopBackOff异常状态

问题现象:
K8S集群rabbitmq这个pod出现CrashLoopBackOff异常状态_第1张图片
K8S集群rabbitmq这个pod出现CrashLoopBackOff异常状态_第2张图片
K8S集群rabbitmq这个pod出现CrashLoopBackOff异常状态_第3张图片
K8S集群rabbitmq这个pod出现CrashLoopBackOff异常状态_第4张图片

问题原因:
k8s集群rabbitmq在删除重建时出现CrashLoopBackOff状态无法正常启动,经排查pod信息和日志信息,发现有残余的数据信息和新写入的数据信息起冲突导致pod服务正常启动。

解决方法:
rm -rf /data1/rabbitmq/* 将数据清空

kubectl delete -f /etc/axion/manifests/rabbitmq/rabbitmq-cluster-pods.yaml 删除

kubectl create -f /etc/axion/manifests/rabbitmq/rabbitmq-cluster-pods.yaml 创建

你可能感兴趣的:(K8S,运维)