Redis集群从节点无限循环同步故障

今天是清明节假日第一天,收到客户请求,我们的redis出问题了帮忙看看!

Redis集群从节点无限循环同步故障_第1张图片

程序的报错日志提供如图

Redis集群从节点无限循环同步故障_第2张图片

登录该套redis集群查看节点信息与集群状态

Redis集群从节点无限循环同步故障_第3张图片

根据现场状态与监控,迅速做出判断与推理

Redis集群从节点无限循环同步故障_第4张图片

Redis集群从节点无限循环同步故障_第5张图片

第一时间内给出个人的建议:建议重启部分异常程序,业务全部恢复正常!

Redis集群从节点无限循环同步故障_第6张图片

业务已经恢复了,那继续来修复这个fail的异常redis从节点吧。从redis的fail主从节点日志入手。

从节点redis日志信息:

Redis集群从节点无限循环同步故障_第7张图片

主节点redis日志信息:

Redis集群从节点无限循环同步故障_第8张图片

简要的讲:

大致是  全量同步>  清除旧数据 & 加载 RDB > 和主库连接中断>从头开始,无限循环

有2个疑问:

Q1:从库 Unable to partial resync

repl-backlog-size 默认只有10M,而从库节点从宕机到完成启动耗时大约8分钟,此时缓冲区中的复制位点早被覆盖,主库报Unable to partial resync with replica 172.28.212.40:6380 for lack of backlog

Q2:从库 Connection with master lost

主库将全量 RDB 成功发送到从库;从库清理旧数据,期间 redis 全程阻塞无法响应,10多秒后 cluser 检测到并在主库日志记录 FAIL message ,报Disconnecting timedout replica: 172.28.212.40:6380 这是 cluster-node-timeout 超时导致的,该参数为15000即15s;估计主库检测到从库连接超时就主动断开连接;

解决方案:

1、将 repl-backlog-size 默认的10MB 调大到 512MB,如果继续无法满足增量同步需求,则继续调大

2、关注 repl-timeout 默认60秒,cluster-node-timeout 默认15秒,数据量大而变化频繁的redis集群适当调大

你可能感兴趣的:(redis,redis,数据库,缓存)