redis集群问题总结

1、大数据量,主从无法同步问题

client-output-buffer-limit slave 256mb 64mb 60
调大主从同步缓存大小限制
client-output-buffer-limit slave 0 0 0
全部设置为0表示无限制

2、节点莫名宕机,一会儿又自动恢复

storm集群读取redis数据,莫名出现cluster down错误,查看redis日志,也找不到什么有用的信息,只看到节点信息变成了fail状态,过一会又state change回正常状态。猜测可能是主从同步时间过长,超过了集群超时时间。被暂时标记为了fail状态。
调大cluster-node-timeout值。单位milliSec。

3、节点持久化错误

redis默认持久化策略是rdb+aof。且aof是everysec。大数据量下,对于节点的压力非常大,aof文件过大,出现报错。建议改变aof策略,或者关闭aof持久化。(在节点出错时,可能会丢掉更多的数据。)

你可能感兴趣的:(java)