redis-cluster研究和使用

最近研究redis-cluster,正好搭建了一个环境,遇到了很多坑,系统的总结下,等到redis3 release出来后,换掉memCache 集群. 转载请注明出处哈:http://hot66hot.iteye.com/admin/blogs/2050676

一:关于redis cluster

1:redis cluster的现状

reids-cluster计划在redis3.0中推出,可以看作者antirez的声明:http://antirez.com/news/49 (ps:跳票了好久,今年貌似加快速度了),目前的最新版本见:https://raw.githubusercontent.com/antirez/redis/3.0/00-RELEASENOTES

作者的目标:Redis Cluster will support up to ~1000 nodes. 赞...

目前redis支持的cluster特性(已测试):

1):节点自动发现

2):slave->master 选举,集群容错

3):Hot resharding:在线分片

4):集群管理:cluster xxx

5):基于配置(nodes-port.conf)的集群管理

6):ASK 转向/MOVED 转向机制.

2:redis cluster 架构

1)redis-cluster架构图

 

架构细节:

(1)所有的redis节点彼此互联(PING-PONG机制),内部使用二进制协议优化传输速度和带宽.

(2)节点的fail是通过集群中超过半数的master节点检测失效时才生效.

(3)客户端与redis节点直连,不需要中间proxy层.客户端不需要连接集群所有节点,连接集群中任何一个可用节点即可

(4)redis-cluster把所有的物理节点映射到[0-16383]slot上,cluster 负责维护node<->slot<->key

2) redis-cluster选举:容错

 

(1)领着选举过程是集群中所有master参与,如果半数以上master节点与故障节点通信超过(cluster-node-timeout),认为该节点故障,自动触发故障转移操作.

(2):什么时候整个集群不可用(cluster_state:fail)? 

    a:如果集群任意master挂掉,且当前master没有slave.集群进入fail状态,也可以理解成集群的slot映射[0-16383]不完成时进入fail状态. ps : redis-3.0.0.rc1加入cluster-require-full-coverage参数,默认关闭,打开集群兼容部分失败.

    b:如果集群超过半数以上master挂掉,无论是否有slave集群进入fail状态.

  ps:当集群不可用时,所有对集群的操作做都不可用,收到((error) CLUSTERDOWN The cluster is down)错误

二:redis cluster的使用

1:安装redis cluster

1):安装redis-cluster依赖:redis-cluster的依赖库在使用时有兼容问题,在reshard时会遇到各种错误,请按指定版本安装.

(1)确保系统安装zlib,否则gem install会报(no such file to load -- zlib)
Java代码   收藏代码
  1. #download:zlib-1.2.6.tar  
  2. ./configure  
  3. make  
  4. make install  
 (2)安装ruby:version(1.9.2)
Java代码   收藏代码
  1. # ruby1.9.2   
  2. cd /path/ruby  
  3. ./configure -prefix=/usr/local/ruby  
  4. make  
  5. make install  
  6. sudo cp ruby /usr/local/bin  
(3)安装rubygem:version(1.8.16)
Java代码   收藏代码
  1. # rubygems-1.8.16.tgz  
  2. cd /path/gem  
  3. sudo ruby setup.rb  
  4. sudo cp bin/gem /usr/local/bin  
(4)安装gem-redis:version(3.0.0)
Java代码   收藏代码
  1. gem install redis --version 3.0.0  
  2. #由于源的原因,可能下载失败,就手动下载下来安装  
  3. #download地址:http://rubygems.org/gems/redis/versions/3.0.0  
  4. gem install -l /data/soft/redis-3.0.0.gem  
(5)安装redis-cluster
Java代码   收藏代码
  1. cd /path/redis  
  2. make  
  3. sudo cp /opt/redis/src/redis-server /usr/local/bin  
  4. sudo cp /opt/redis/src/redis-cli /usr/local/bin  
  5. sudo cp /opt/redis/src/redis-trib.rb /usr/local/bin  

 

2:配置redis cluster

1)redis配置文件结构:


 使用包含(include)把通用配置和特殊配置分离,方便维护.

2)redis通用配置.

Java代码   收藏代码
  1. #GENERAL  
  2. daemonize no  
  3. tcp-backlog 511  
  4. timeout 0  
  5. tcp-keepalive 0  
  6. loglevel notice  
  7. databases 16  
  8. dir /opt/redis/data  
  9. slave-serve-stale-data yes  
  10. #slave只读  
  11. slave-read-only yes  
  12. #not use default  
  13. repl-disable-tcp-nodelay yes  
  14. slave-priority 100  
  15. #打开aof持久化  
  16. appendonly yes  
  17. #每秒一次aof写  
  18. appendfsync everysec  
  19. #关闭在aof rewrite的时候对新的写操作进行fsync  
  20. no-appendfsync-on-rewrite yes  
  21. auto-aof-rewrite-min-size 64mb  
  22. lua-time-limit 5000  
  23. #打开redis集群  
  24. cluster-enabled yes  
  25. #节点互连超时的阀值  
  26. cluster-node-timeout 15000  
  27. cluster-migration-barrier 1  
  28. slowlog-log-slower-than 10000  
  29. slowlog-max-len 128  
  30. notify-keyspace-events ""  
  31. hash-max-ziplist-entries 512  
  32. hash-max-ziplist-value 64  
  33. list-max-ziplist-entries 512  
  34. list-max-ziplist-value 64  
  35. set-max-intset-entries 512  
  36. zset-max-ziplist-entries 128  
  37. zset-max-ziplist-value 64  
  38. activerehashing yes  
  39. client-output-buffer-limit normal 0 0 0  
  40. client-output-buffer-limit slave 256mb 64mb 60  
  41. client-output-buffer-limit pubsub 32mb 8mb 60  
  42. hz 10  
  43. aof-rewrite-incremental-fsync yes  

3)redis特殊配置.

Java代码   收藏代码
  1. #包含通用配置  
  2. include /opt/redis/redis-common.conf  
  3. #监听tcp端口  
  4. port 6379  
  5. #最大可用内存  
  6. maxmemory 100m  
  7. #内存耗尽时采用的淘汰策略:  
  8. volatile-lru -> remove the key with an expire set using an LRU algorithm  
  9. # allkeys-lru -> remove any key accordingly to the LRU algorithm  
  10. volatile-random -> remove a random key with an expire set  
  11. # allkeys-random -> remove a random key, any key  
  12. volatile-ttl -> remove the key with the nearest expire time (minor TTL)  
  13. # noeviction -> don't expire at all, just return an error on write operations  
  14. maxmemory-policy allkeys-lru  
  15. #aof存储文件  
  16. appendfilename "appendonly-6379.aof"  
  17. #不开启rdb存储,只用于添加slave过程  
  18. dbfilename dump-6379.rdb  
  19. #cluster配置文件(启动自动生成)  
  20. cluster-config-file nodes-6379.conf  
  21. #部署在同一机器的redis实例,把auto-aof-rewrite搓开,因为cluster环境下内存占用基本一致.  
  22. #防止同意机器下瞬间fork所有redis进程做aof rewrite,占用大量内存  
  23. auto-aof-rewrite-percentage 80-100  

3:cluster 操作

cluster集群相关命令,更多redis相关命令见文档:http://redis.readthedocs.org/en/latest/

 

Java代码   收藏代码
  1. 集群  
  2. CLUSTER INFO 打印集群的信息  
  3. CLUSTER NODES 列出集群当前已知的所有节点(node),以及这些节点的相关信息。  
  4. 节点  
  5. CLUSTER MEET   将 ip 和 port 所指定的节点添加到集群当中,让它成为集群的一份子。  
  6. CLUSTER FORGET  从集群中移除 node_id 指定的节点。  
  7. CLUSTER REPLICATE  将当前节点设置为 node_id 指定的节点的从节点。  
  8. CLUSTER SAVECONFIG 将节点的配置文件保存到硬盘里面。  
  9. 槽(slot)  
  10. CLUSTER ADDSLOTS  [slot ...] 将一个或多个槽(slot)指派(assign)给当前节点。  
  11. CLUSTER DELSLOTS  [slot ...] 移除一个或多个槽对当前节点的指派。  
  12. CLUSTER FLUSHSLOTS 移除指派给当前节点的所有槽,让当前节点变成一个没有指派任何槽的节点。  
  13. CLUSTER SETSLOT  NODE  将槽 slot 指派给 node_id 指定的节点,如果槽已经指派给另一个节点,那么先让另一个节点删除该槽>,然后再进行指派。  
  14. CLUSTER SETSLOT  MIGRATING  将本节点的槽 slot 迁移到 node_id 指定的节点中。  
  15. CLUSTER SETSLOT  IMPORTING  从 node_id 指定的节点中导入槽 slot 到本节点。  
  16. CLUSTER SETSLOT  STABLE 取消对槽 slot 的导入(import)或者迁移(migrate)。  
  17. 键  
  18. CLUSTER KEYSLOT  计算键 key 应该被放置在哪个槽上。  
  19. CLUSTER COUNTKEYSINSLOT  返回槽 slot 目前包含的键值对数量。  
  20. CLUSTER GETKEYSINSLOT   返回 count 个 slot 槽中的键。  
 

4:redis cluster 运维操作

1)初始化并构建集群

(1)启动集群相关节点(必须是无数据的空节点),指定配置文件和输出日志

 

Java代码   收藏代码
  1. redis-server /opt/redis/conf/redis-6380.conf > /opt/redis/logs/redis-6380.log 2>&1 &  
  2. redis-server /opt/redis/conf/redis-6381.conf > /opt/redis/logs/redis-6381.log 2>&1 &  
  3. redis-server /opt/redis/conf/redis-6382.conf > /opt/redis/logs/redis-6382.log 2>&1 &  
  4. redis-server /opt/redis/conf/redis-7380.conf > /opt/redis/logs/redis-7380.log 2>&1 &  
  5. redis-server /opt/redis/conf/redis-7381.conf > /opt/redis/logs/redis-7381.log 2>&1 &  
  6. redis-server /opt/redis/conf/redis-7382.conf > /opt/redis/logs/redis-7382.log 2>&1 &  

 

(2):使用自带的ruby工具(redis-trib.rb)构建集群

 

Java代码   收藏代码
  1. #redis-trib.rb的create子命令构建  
  2. #--replicas 则指定了为Redis Cluster中的每个Master节点配备几个Slave节点  
  3. #节点角色由顺序决定,先master之后是slave(为方便辨认,slave的端口比master大1000)  
  4. redis-trib.rb create --replicas 1 10.10.34.14:6380 10.10.34.14:6381 10.10.34.14:6382 10.10.34.14:7380 10.10.34.14:7381 10.10.34.14:7382  

(3):检查集群状态

Java代码   收藏代码
  1. #redis-trib.rb的check子命令构建  
  2. #ip:port可以是集群的任意节点  
  3. redis-trib.rb check 10.10.34.14:6380  
 最后输出如下信息,没有任何警告或错误,表示集群启动成功并处于ok状态
Java代码   收藏代码
  1. [OK] All nodes agree about slots configuration.  
  2. >>> Check for open slots...  
  3. >>> Check slots coverage...  
  4. [OK] All 16384 slots covered.  

2):添加新master节点

(1)添加一个master节点:创建一个空节点(empty node),然后将某些slot移动到这个空节点上,这个过程目前需要人工干预

a):根据端口生成配置文件(ps:establish_config.sh是我自己写的输出配置脚本)

 

Java代码   收藏代码
  1. sh establish_config.sh 6386 > conf/redis-6386.conf  
 

b):启动节点

 

Java代码   收藏代码
  1. redis-server /opt/redis/conf/redis-6386.conf > /opt/redis/logs/redis-6386.log 2>&1 &  

c):加入空节点到集群
add-node  将一个节点添加到集群里面, 第一个是新节点ip:port, 第二个是任意一个已存在节点ip:port

 

Java代码   收藏代码
  1. redis-trib.rb add-node 10.10.34.14:6386 10.10.34.14:6381  

node:新节点没有包含任何数据, 因为它没有包含任何slot。新加入的加点是一个主节点, 当集群需要将某个从节点升级为新的主节点时, 这个新节点不会被选中,同时新的主节点因为没有包含任何slot,不参加选举和failover。

 

d):为新节点分配slot

 

Java代码   收藏代码
  1. redis-trib.rb reshard 10.10.34.14:6386  
  2. #根据提示选择要迁移的slot数量(ps:这里选择500)  
  3. How many slots do you want to move (from 1 to 16384)? 500  
  4. #选择要接受这些slot的node-id  
  5. What is the receiving node ID? f51e26b5d5ff74f85341f06f28f125b7254e61bf  
  6. #选择slot来源:  
  7. #all表示从所有的master重新分配,  
  8. #或者数据要提取slot的master节点id,最后用done结束  
  9. Please enter all the source node IDs.  
  10.   Type 'all' to use all the nodes as source nodes for the hash slots.  
  11.   Type 'done' once you entered all the source nodes IDs.  
  12. Source node #1:all  
  13. #打印被移动的slot后,输入yes开始移动slot以及对应的数据.  
  14. #Do you want to proceed with the proposed reshard plan (yes/no)? yes  
  15. #结束  

3):添加新的slave节点

a):前三步操作同添加master一样

b)第四步:redis-cli连接上新节点shell,输入命令:cluster replicate 对应master的node-id

 

Java代码   收藏代码
  1. cluster replicate 2b9ebcbd627ff0fd7a7bbcc5332fb09e72788835  
 

注意:在线添加slave 时,需要bgsave整个master数据,并传递到slave,再由 slave加载rdb文件到内存,rdb生成和传输的过程中消耗Master大量内存和网络IO,以此不建议单实例内存过大,线上小心操作。

例如本次添加slave操作产生的rdb文件

 

Java代码   收藏代码
  1. -rw-r--r-- 1 root root  34946 Apr 17 18:23 dump-6386.rdb  
  2. -rw-r--r-- 1 root root  34946 Apr 17 18:23 dump-7386.rdb  

4):在线reshard 数据:

对于负载/数据不均匀的情况,可以在线reshard slot来解决,方法与添加新master的reshard一样,只是需要reshard的master节点是已存在的老节点.

5):删除一个slave节点

Java代码   收藏代码
  1. #redis-trib del-node ip:port ''  
  2. redis-trib.rb del-node 10.10.34.14:7386 'c7ee2fca17cb79fe3c9822ced1d4f6c5e169e378'  

 6):删除一个master节点

  a):删除master节点之前首先要使用reshard移除master的全部slot,然后再删除当前节点

     (redis-trib.rb一次只能把下线节点的slot迁移到一个节点上,如果需要均衡的迁移到其它节点需要执行多次reshard命令)

 

Java代码   收藏代码
  1. #把10.10.34.14:6386节点slot和数据迁移到10.10.34.14:6380上  
  2. redis-trib.rb reshard 10.10.34.14:6380  
  3. #根据提示选择要迁移的slot数量(ps:这里选择500)  
  4. How many slots do you want to move (from 1 to 16384)? 500(被删除master的所有slot数量)  
  5. #选择要接受这些slot的node-id(10.10.34.14:6380)  
  6. What is the receiving node ID? c4a31c852f81686f6ed8bcd6d1b13accdc947fd2 (ps:10.10.34.14:6380的node-id)  
  7. Please enter all the source node IDs.  
  8.   Type 'all' to use all the nodes as source nodes for the hash slots.  
  9.   Type 'done' once you entered all the source nodes IDs.  
  10. Source node #1:f51e26b5d5ff74f85341f06f28f125b7254e61bf(被删除master的node-id)  
  11. Source node #2:done  
  12. #打印被移动的slot后,输入yes开始移动slot以及对应的数据.  
  13. #Do you want to proceed with the proposed reshard plan (yes/no)? yes  
 

b):删除空master节点

 

Java代码   收藏代码
  1. redis-trib.rb del-node 10.10.34.14:6386 'f51e26b5d5ff74f85341f06f28f125b7254e61bf'  
三:redis cluster 客户端(Jedis)

1:客户端基本操作使用

 

Java代码   收藏代码
  1. "font-size: 16px;"private static BinaryJedisCluster jc;  
  2.   static {  
  3.        //只给集群里一个实例就可以  
  4.         Set jedisClusterNodes = new HashSet();  
  5.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"6380));  
  6.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"6381));  
  7.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"6382));  
  8.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"6383));  
  9.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"6384));  
  10.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"7380));  
  11.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"7381));  
  12.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"7382));  
  13.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"7383));  
  14.         jedisClusterNodes.add(new HostAndPort("10.10.34.14"7384));  
  15.         jc = new BinaryJedisCluster(jedisClusterNodes);  
  16.     }  
  17. @Test  
  18.     public void testBenchRedisSet() throws Exception {  
  19.         final Stopwatch stopwatch = new Stopwatch();  
  20.         List list = buildBlogVideos();  
  21.         for (int i = 0; i < 1000; i++) {  
  22.             String key = "key:" + i;  
  23.             stopwatch.start();  
  24.             byte[] bytes1 = protostuffSerializer.serialize(list);  
  25.             jc.setex(key, 60 * 60, bytes1);  
  26.             stopwatch.stop();  
  27.         }  
  28.         System.out.println("time=" + stopwatch.toString());  
  29.     }  

2:redis-cluster客户端的一些坑.

1)cluster环境下slave默认不接受任何读写操作,在slave执行readonly命令后,可执行读操作

2)client端不支持多key操作(mget,mset等),但当keys集合对应的slot相同时支持mget操作见:hash_tag

3)不支持多数据库,只有一个db,select 0。

4)JedisCluster 没有针对byte[]的API,需要自己扩展(附件是我加的基于byte[]的BinaryJedisCluster  api)

Jedis-2.8.0-SNAPSHOT 之后已支持BinaryJedisCluster和基于hash_tag的mget操作.

 

 

参考文档:

http://redis.io/topics/cluster-spec

http://redis.io/topics/cluster-tutorial

  • jedis-2.5.0-sohu-20140420.125537-2-sources.jar (115.2 KB)
  • 下载次数: 1075
  • jedis-2.5.0-sohu-20140420.125537-2.jar (342.8 KB)
  • 下载次数: 702
  • 查看图片附件
分享到:   
JVM日志和参数的理解 |  分享MySQL操作规范
  • 2014-04-21 12:39
  • 浏览 134807
  • 评论(49)
  • 分类:数据库
  • 查看更多
相关资源推荐
  • unix系列系统镜像下载
  • SUN的UNIX操作系统
  • UNIX操作系统设计
  • 谈谈网络编程(基于C++)
  • C/C++ socket网络编程扫盲篇
  • C++基于TCP/IP简单的客户端、服务器通信程序实例
  • linux下C/C++网络编程基本:socket实现tcp和udp的例子
  • C/C++网络编程总结与ZeroMQ
  • C++网络编程
  • C++之网络编程
  • C++网络编程方面的开源项目
  • C++ P2P网络编程
  • C/C++实现基于UDP的网络编程
  • C++网络编程之客户端程序
  • C\C++网络编程总结
  • C++网络编程 卷1和卷2 (中文,pdf版)
  • DB2 v8.2,v9.1,v9.5,v9.7下载地址及详细安装图解
  • DB2全套学习资料
  • DB2数据库管理软件 - db2mon v1.0
  • IBM DB2 通用数据库 在64位平台上使用DB2 通用数据库.rar
参考知识库
Redis知识库 6210  关注 | 752  收录
评论
49 楼  hot66hot 2016-02-21  
chenzhaohui555 写道
最近在做redis cluster开发,请问博主有没有lua脚本调用redis cluster的资料

这个和单机类似。 需要保证操作的key在同一个节点。
如果对多key的操作建议转成hash存储,方便lua脚本操作的数据落在同一个节点。
48 楼  chenzhaohui555 2016-02-18  
最近在做redis cluster开发,请问博主有没有lua脚本调用redis cluster的资料
47 楼  javaey 2016-02-16  
我按照你上面的说明,配置了一个3主3从的集群。用jedis客户端操作时,存取时间基本上在1秒以上,请问是怎么回事
46 楼  hot66hot 2016-01-07  
a4913994 写道
你好博主,我用redis-benchmark测试的结果与自己写程序测试的结果相差很大,不知道什么原因

本地是用jedis 测试么。beanchmark测试没有网络延迟,而且value一般很小。
45 楼  a4913994 2016-01-07  
你好博主,我用redis-benchmark测试的结果与自己写程序测试的结果相差很大,不知道什么原因
44 楼  hot66hot 2016-01-05  
xwtqin 写道
hot66hot 写道
xwtqin 写道
您好!最近在研究redis集群中的主从同步时间时遇到一个问题。就是我利用jediscluster接口编写了个程序,在主节点set数据,然后用jedis接口编写程序,在备节点用keys(“key*”)查询这些数据,set每条数据的时间和查询到每条数据的时间我都存在文档里,然后相减得到每条数据从主到备的同步时间。一开始set数据的数据量较少,因此同步时间基本上维持在0.5秒左右。但之后增加数据量到1000w的级别,发现同步时间在慢慢地增加,第700万条数据竟用了10分钟去同步。这是怎么回事?正常还是我redis.conf的配置问题?我的程序应该没问题,就用了一个keys命令去查询,程序执行时间应该很短,问题应该不在程序上。最近在网上找了好久,也不见有这方面的解答。求博主帮忙看看这个问题哈。

1:主送之间同步检测可以使用主节点和从节点的offset偏移量检测。
2:当节点存在大量key时,千万不要使用keys命令操作,由于redis单线程架构,keys命令是O(n)操作,导致你的执行keys命令时其他读写命令被阻塞(包括复制过来的写命令)。
3:redis采用异步复制,在没有大量慢查询下,复制非常快,毫秒级别延迟。
4:看下你主从的慢查询"slowlog get",应该能查到
5:redis监控一般都是基于info数据统计指标,千万不要用keys,monitor等命令做统计监控。

很谢谢博主的回复。不过依然有一些不懂的地方:(1)“主节点和从节点的offset偏移量检测”是什么意思?怎么检测?可以用来检测主节点的数据到从节点的数据同步时间是多少?(2)按您的意思是,虽然在主节点上set了1000w条数据,但从主到备的同步时间依旧是毫秒级别的,不应该是花费10分钟,主要还是我的程序的问题是吧。问题主要是在无限循环的使用keys(“key*”)直到找到匹配的一个键key100这段代码上,对主从之间的数据同步命令有影响是吧。

1:offset可以在主从节点上分别执行"info replication"获取到,表示master数据修改偏移量和slave已复制的偏移量。 具体原理看下《redis设计与实现》 复制章节
master:
Java代码   收藏代码
  1. # Replication  
  2. role:master  
  3. connected_slaves:1  
  4. slave0:ip=10.10.xx.xx,port=6379,state=online,offset=143472300141,lag=0  
  5. master_repl_offset:143472300261  
  6. repl_backlog_active:1  
  7. repl_backlog_size:10000000  
  8. repl_backlog_first_byte_offset:143462300262  
  9. repl_backlog_histlen:10000000  

slave:
Java代码   收藏代码
  1. # Replication  
  2. role:slave  
  3. master_host:10.10.xx.xx  
  4. master_port:6383  
  5. master_link_status:up  
  6. master_last_io_seconds_ago:0  
  7. master_sync_in_progress:0  
  8. slave_repl_offset:143472147072  
  9. slave_priority:100  
  10. slave_read_only:1  
  11. connected_slaves:0  
  12. master_repl_offset:0  
  13. repl_backlog_active:0  
  14. repl_backlog_size:10000000  
  15. repl_backlog_first_byte_offset:139811639970  
  16. repl_backlog_histlen:10000000  

2:是的,同机房的主从复制在没有慢查询的情况下,毫秒级别延迟。但你的keys命令在大量key情况下就是慢查询。
43 楼  xwtqin 2016-01-04  
hot66hot 写道
xwtqin 写道
您好!最近在研究redis集群中的主从同步时间时遇到一个问题。就是我利用jediscluster接口编写了个程序,在主节点set数据,然后用jedis接口编写程序,在备节点用keys(“key*”)查询这些数据,set每条数据的时间和查询到每条数据的时间我都存在文档里,然后相减得到每条数据从主到备的同步时间。一开始set数据的数据量较少,因此同步时间基本上维持在0.5秒左右。但之后增加数据量到1000w的级别,发现同步时间在慢慢地增加,第700万条数据竟用了10分钟去同步。这是怎么回事?正常还是我redis.conf的配置问题?我的程序应该没问题,就用了一个keys命令去查询,程序执行时间应该很短,问题应该不在程序上。最近在网上找了好久,也不见有这方面的解答。求博主帮忙看看这个问题哈。

1:主送之间同步检测可以使用主节点和从节点的offset偏移量检测。
2:当节点存在大量key时,千万不要使用keys命令操作,由于redis单线程架构,keys命令是O(n)操作,导致你的执行keys命令时其他读写命令被阻塞(包括复制过来的写命令)。
3:redis采用异步复制,在没有大量慢查询下,复制非常快,毫秒级别延迟。
4:看下你主从的慢查询"slowlog get",应该能查到
5:redis监控一般都是基于info数据统计指标,千万不要用keys,monitor等命令做统计监控。

很谢谢博主的回复。不过依然有一些不懂的地方:(1)“主节点和从节点的offset偏移量检测”是什么意思?怎么检测?可以用来检测主节点的数据到从节点的数据同步时间是多少?(2)按您的意思是,虽然在主节点上set了1000w条数据,但从主到备的同步时间依旧是毫秒级别的,不应该是花费10分钟,主要还是我的程序的问题是吧。问题主要是在无限循环的使用keys(“key*”)直到找到匹配的一个键key100这段代码上,对主从之间的数据同步命令有影响是吧。
42 楼  hot66hot 2016-01-04  
xwtqin 写道
您好!最近在研究redis集群中的主从同步时间时遇到一个问题。就是我利用jediscluster接口编写了个程序,在主节点set数据,然后用jedis接口编写程序,在备节点用keys(“key*”)查询这些数据,set每条数据的时间和查询到每条数据的时间我都存在文档里,然后相减得到每条数据从主到备的同步时间。一开始set数据的数据量较少,因此同步时间基本上维持在0.5秒左右。但之后增加数据量到1000w的级别,发现同步时间在慢慢地增加,第700万条数据竟用了10分钟去同步。这是怎么回事?正常还是我redis.conf的配置问题?我的程序应该没问题,就用了一个keys命令去查询,程序执行时间应该很短,问题应该不在程序上。最近在网上找了好久,也不见有这方面的解答。求博主帮忙看看这个问题哈。

1:主送之间同步检测可以使用主节点和从节点的offset偏移量检测。
2:当节点存在大量key时,千万不要使用keys命令操作,由于redis单线程架构,keys命令是O(n)操作,导致你的执行keys命令时其他读写命令被阻塞(包括复制过来的写命令)。
3:redis采用异步复制,在没有大量慢查询下,复制非常快,毫秒级别延迟。
4:看下你主从的慢查询"slowlog get",应该能查到
5:redis监控一般都是基于info数据统计指标,千万不要用keys,monitor等命令做统计监控。
41 楼  xwtqin 2015-12-23  
您好!最近在研究redis集群中的主从同步时间时遇到一个问题。就是我利用jediscluster接口编写了个程序,在主节点set数据,然后用jedis接口编写程序,在备节点用keys(“key*”)查询这些数据,set每条数据的时间和查询到每条数据的时间我都存在文档里,然后相减得到每条数据从主到备的同步时间。一开始set数据的数据量较少,因此同步时间基本上维持在0.5秒左右。但之后增加数据量到1000w的级别,发现同步时间在慢慢地增加,第700万条数据竟用了10分钟去同步。这是怎么回事?正常还是我redis.conf的配置问题?我的程序应该没问题,就用了一个keys命令去查询,程序执行时间应该很短,问题应该不在程序上。最近在网上找了好久,也不见有这方面的解答。求博主帮忙看看这个问题哈。
40 楼  hot66hot 2015-12-15  
xwtqin 写道
hot66hot 写道
xwtqin 写道
楼主您好!我现在在做集群这方面的研究,我已经建好集群后,按你的方法,del-node某个节点后,我再添加一个新的节点,令它成为某个节点的备,可是发现该节点的dbsize为0,之前我已经在集群里添加数据了。为什么呢?还有你写的这句话“注意:在线添加slave 时,需要bgsave整个master数据,并传递到slave,再由 slave加载rdb文件到内存,rdb生成和传输的过程中消耗Master大量内存和网络IO,以此不建议单实例内存过大,线上小心操作。”怎么理解?跟这个问题有关吗?

第一个问题:“它成为某个节点的备后从节点无数据”
需要确认:
1):cluster info查看集群状态是否OK
2)确认被复制的主节点是否有覆盖的slots和是否有数据.
3)如果主节点有数据,从节点没数据,分别查看主从节点的复制状态:info Replication
4)查看主从节点的日志,"#"开头日志表示警告

第二个问题:在线添加slave 时,对IO冲击的问题
1)一般发生在master数据很大时,我们一般限制单个master最大内存量不超过5G.
2)IO的冲击指的是对master和slave网络流量消耗和master和slave本地写RDB文件的压力.
3) 对硬盘的写RBB可以启用无盘复制规避,但对网络的冲击无法避免。
这个问题和你的第一个应该没关系。

查看了日志是同步时被拒绝,问题应该出现在服务器端的网络传输问题,可能是某个配置配的不好或是服务器本身有些问题,换了个服务器可行。现在还有个问题要麻烦楼主哈。就是“cluster环境下slave默认不接受任何读写操作”,我试验了下确实slave节点已经无法用hget等命令查询值,但成为主节点后还是可以读的,不过我看了redis.conf那里有一项是slave-read-only yes,能否通过把yes写为no,来使节点既可读,又可写(用hset)呢?还是说这样改就变为“不可读也不可写”?

从节点一定不要参与写操作,默认cluster模式下从节点不接受任何读写,运行readonly命令后从节点可以做读操作。
39 楼  xwtqin 2015-12-15  
hot66hot 写道
xwtqin 写道
楼主您好!我现在在做集群这方面的研究,我已经建好集群后,按你的方法,del-node某个节点后,我再添加一个新的节点,令它成为某个节点的备,可是发现该节点的dbsize为0,之前我已经在集群里添加数据了。为什么呢?还有你写的这句话“注意:在线添加slave 时,需要bgsave整个master数据,并传递到slave,再由 slave加载rdb文件到内存,rdb生成和传输的过程中消耗Master大量内存和网络IO,以此不建议单实例内存过大,线上小心操作。”怎么理解?跟这个问题有关吗?

第一个问题:“它成为某个节点的备后从节点无数据”
需要确认:
1):cluster info查看集群状态是否OK
2)确认被复制的主节点是否有覆盖的slots和是否有数据.
3)如果主节点有数据,从节点没数据,分别查看主从节点的复制状态:info Replication
4)查看主从节点的日志,"#"开头日志表示警告

第二个问题:在线添加slave 时,对IO冲击的问题
1)一般发生在master数据很大时,我们一般限制单个master最大内存量不超过5G.
2)IO的冲击指的是对master和slave网络流量消耗和master和slave本地写RDB文件的压力.
3) 对硬盘的写RBB可以启用无盘复制规避,但对网络的冲击无法避免。
这个问题和你的第一个应该没关系。

查看了日志是同步时被拒绝,问题应该出现在服务器端的网络传输问题,可能是某个配置配的不好或是服务器本身有些问题,换了个服务器可行。现在还有个问题要麻烦楼主哈。就是“cluster环境下slave默认不接受任何读写操作”,我试验了下确实slave节点已经无法用hget等命令查询值,但成为主节点后还是可以读的,不过我看了redis.conf那里有一项是slave-read-only yes,能否通过把yes写为no,来使节点既可读,又可写(用hset)呢?还是说这样改就变为“不可读也不可写”?
38 楼  hot66hot 2015-12-10  
xwtqin 写道
楼主您好!我现在在做集群这方面的研究,我已经建好集群后,按你的方法,del-node某个节点后,我再添加一个新的节点,令它成为某个节点的备,可是发现该节点的dbsize为0,之前我已经在集群里添加数据了。为什么呢?还有你写的这句话“注意:在线添加slave 时,需要bgsave整个master数据,并传递到slave,再由 slave加载rdb文件到内存,rdb生成和传输的过程中消耗Master大量内存和网络IO,以此不建议单实例内存过大,线上小心操作。”怎么理解?跟这个问题有关吗?

第一个问题:“它成为某个节点的备后从节点无数据”
需要确认:
1):cluster info查看集群状态是否OK
2)确认被复制的主节点是否有覆盖的slots和是否有数据.
3)如果主节点有数据,从节点没数据,分别查看主从节点的复制状态:info Replication
4)查看主从节点的日志,"#"开头日志表示警告

第二个问题:在线添加slave 时,对IO冲击的问题
1)一般发生在master数据很大时,我们一般限制单个master最大内存量不超过5G.
2)IO的冲击指的是对master和slave网络流量消耗和master和slave本地写RDB文件的压力.
3) 对硬盘的写RBB可以启用无盘复制规避,但对网络的冲击无法避免。
这个问题和你的第一个应该没关系。
37 楼  xwtqin 2015-12-09  
楼主您好!我现在在做集群这方面的研究,我已经建好集群后,按你的方法,del-node某个节点后,我再添加一个新的节点,令它成为某个节点的备,可是发现该节点的dbsize为0,之前我已经在集群里添加数据了。为什么呢?还有你写的这句话“注意:在线添加slave 时,需要bgsave整个master数据,并传递到slave,再由 slave加载rdb文件到内存,rdb生成和传输的过程中消耗Master大量内存和网络IO,以此不建议单实例内存过大,线上小心操作。”怎么理解?跟这个问题有关吗?
36 楼  hot66hot 2015-12-01  
changyutongy 写道
多谢楼主的提醒,现在问题已经解决了

原因如下:

最开始搭建的时候,是3主+3从,且每台主机都各自负责对应的槽
但是当时也无法完成自动迁移,究其原因,现在回想起来应该是当时是由于我设置的cluster-node-timeout节点值有误,导致无法完成投票

之后重新搭建的时候,我将其中一个主节点设置为负责所有槽(0-16383)
一来是为了方便,二来是想省区了在客户端操作的时候,还需要对槽点进行Hash处理

可是这就导致了我的最终问题:当有主节点无法服务时,对应的从节点会通知其他主节点这台主节点的状态为PFAIL,然后其他主节点也都通过gossip协议标识了这个主节点的状态,此时状态为FAIL,然后从节点应该等待其他主节点投票给自己,让自己提升为主节点即可;

没有负责任何槽的主节点没有投票权,就是这句话
导致从节点一直无法得到投票

终于解决了,2天了

再次多谢博主提醒啊~~~~~    会一直关注博主好文的      赞一个~

分析的不错,祝好。
35 楼  changyutongy 2015-12-01  
多谢楼主的提醒,现在问题已经解决了

原因如下:

最开始搭建的时候,是3主+3从,且每台主机都各自负责对应的槽
但是当时也无法完成自动迁移,究其原因,现在回想起来应该是当时是由于我设置的cluster-node-timeout节点值有误,导致无法完成投票

之后重新搭建的时候,我将其中一个主节点设置为负责所有槽(0-16383)
一来是为了方便,二来是想省区了在客户端操作的时候,还需要对槽点进行Hash处理

可是这就导致了我的最终问题:当有主节点无法服务时,对应的从节点会通知其他主节点这台主节点的状态为PFAIL,然后其他主节点也都通过gossip协议标识了这个主节点的状态,此时状态为FAIL,然后从节点应该等待其他主节点投票给自己,让自己提升为主节点即可;

没有负责任何槽的主节点没有投票权,就是这句话
导致从节点一直无法得到投票

终于解决了,2天了

再次多谢博主提醒啊~~~~~    会一直关注博主好文的      赞一个~
34 楼  changyutongy 2015-11-30  
hot66hot 写道
changyutongy 写道
博主好,目前遇到个问题,如果你有解决方案,还烦请赐教一下

我这里目前Redis Cluster有六台(3主+3从)
M1 -- S1
M2 -- S2
M3 -- S3

为避免单点故障,实现故障自动迁移,我希望当主节点(M1、M2、M3)出现故障时,对于的从节点可以自动进行“接管”

然而目前并没有达到这个效果

当M1下线时,其他主节点投票,可以将M1标为FAIL状态
从节点S1也向M1发送了接管请求,但始终无法接管

请问博主,你所配置的集群支持故障自动迁移么? 需要注意哪些地方呢

需要你的cluster版本,集群相关配置,集群节点的日志信息才能方便定位问题.
一般影响cluster failover失败有:
(1)从节点超时过长,查看cluster-node-timeout和cluster-slave-validity-factor相关参数
(2)从节点的无法获取到集群中其他主节点的投票
(3)参与领导者选举的主节点不够一半以上
(3)从节点数达不到cluster-migration-barrier数量。



首先,非常感谢您的回复,而且这么效率  
(1) cluster-node-timeout 15000
     cluster-slave-validity-factor 10
     cluster-migration-barrier 1

(2) 的确这个问题在日志里存在,其他主节点的投票始终无法到达
(3) 参与投票的主服务器的数量为2,满足3台服务器中的一半以上
(4) 从节点为1个,参数设置也为1,这里是满足的

还有一个问题是这样的,日志中会出现:Failover attempt expired
查看源码后我发现其实走到这句已经是从机标志主机为断开状态,并发动了投票
源码如下:
C代码   收藏代码
  1. mstime_t auth_age = mstime() - server.cluster->failover_auth_time;  
  2.   
  3. auth_timeout = server.cluster_node_timeout*2;  
  4.     if (auth_timeout < 2000) auth_timeout = 2000;  
  5.   
  6. /* Return ASAP if the election is too old to be valid. */  
  7.     if (auth_age > auth_timeout) {  
  8.         clusterLogCantFailover(REDIS_CLUSTER_CANT_FAILOVER_EXPIRED);  
  9.         return;  
  10.     }  


配置文件代码如下:
port 8002
deamonize yes
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 15000
cluster-slave-validity-factor 10
repl-ping-slave-period 1
cluster-migration-barrier 1
loglevel notice
logfile slave8002.log
appendonly yes

33 楼  hot66hot 2015-11-30  
changyutongy 写道
博主好,目前遇到个问题,如果你有解决方案,还烦请赐教一下

我这里目前Redis Cluster有六台(3主+3从)
M1 -- S1
M2 -- S2
M3 -- S3

为避免单点故障,实现故障自动迁移,我希望当主节点(M1、M2、M3)出现故障时,对于的从节点可以自动进行“接管”

然而目前并没有达到这个效果

当M1下线时,其他主节点投票,可以将M1标为FAIL状态
从节点S1也向M1发送了接管请求,但始终无法接管

请问博主,你所配置的集群支持故障自动迁移么? 需要注意哪些地方呢

需要你的cluster版本,集群相关配置,集群节点的日志信息才能方便定位问题.
一般影响cluster failover失败有:
(1)从节点超时过长,查看cluster-node-timeout和cluster-slave-validity-factor相关参数
(2)从节点的无法获取到集群中其他主节点的投票
(3)参与领导者选举的主节点不够一半以上
(3)从节点数达不到cluster-migration-barrier数量。
32 楼  changyutongy 2015-11-30  
博主好,目前遇到个问题,如果你有解决方案,还烦请赐教一下

我这里目前Redis Cluster有六台(3主+3从)
M1 -- S1
M2 -- S2
M3 -- S3

为避免单点故障,实现故障自动迁移,我希望当主节点(M1、M2、M3)出现故障时,对于的从节点可以自动进行“接管”

然而目前并没有达到这个效果

当M1下线时,其他主节点投票,可以将M1标为FAIL状态
从节点S1也向M1发送了接管请求,但始终无法接管

请问博主,你所配置的集群支持故障自动迁移么? 需要注意哪些地方呢
31 楼  hot66hot 2015-11-05  
CodeToMyLaw 写道
BinaryJedisCluster和JedisCluster有什么区别呢?主要修改了哪些东西呢?麻烦楼主说下,多谢!

BinaryJedisCluster提供了byte[]字节数组的操作。方便序列化后直接传对象
还补全了API,现在不需要了。目前Jedis https://github.com/xetorthio/jedis已经提供了BinaryJedisCluster和比较完毕的cluster协议支持。
30 楼  CodeToMyLaw 2015-11-04  

BinaryJedisCluster和JedisCluster有什么区别呢?主要修改了哪些东西呢?麻烦楼主说下,多谢!


29 楼  hot66hot 2015-11-03  
qqj_1979 写道
jedis  cluster 初始化时,没地方输入密码?

https://github.com/xetorthio/jedis/pull/966#issue-71806456
28 楼  qqj_1979 2015-11-02  
jedis  cluster 初始化时,没地方输入密码?
27 楼  javer 2015-08-07  
hot66hot 写道
javer 写道
javer 写道
hot66hot 写道
javer 写道
使用ShardedJedisPool连接池,获取cluster的一个连接,进行set操作时有时会报错
redis.clients.jedis.exceptions.JedisMovedDataException: MOVED xxx 127.0.0.1:xxxx
请问可能是哪儿的问题?

ShardedJedisPool是以前分片操作的API,不适用于cluster,
cluster环境用JedisCluster API, Jedis版本在2.7以上。

谢谢,我昨天刚搞明白。
顺便问下,你说的BinaryJedisCluster附件在哪儿呢?


没事,我以为单独的,原来是在你那个jar包里

jedis3.0已经支持BinaryJedisCluster,用Jedis官方的吧。
github: https://github.com/xetorthio/jedis/blob/a196d3e86e4dd686d4295e40233c42b2bb8d5cb0/src/main/java/redis/clients/jedis/BinaryJedisCluster.java


好的,谢谢提醒~
26 楼  hot66hot 2015-08-06  
javer 写道
javer 写道
hot66hot 写道
javer 写道
使用ShardedJedisPool连接池,获取cluster的一个连接,进行set操作时有时会报错
redis.clients.jedis.exceptions.JedisMovedDataException: MOVED xxx 127.0.0.1:xxxx
请问可能是哪儿的问题?

ShardedJedisPool是以前分片操作的API,不适用于cluster,
cluster环境用JedisCluster API, Jedis版本在2.7以上。

谢谢,我昨天刚搞明白。
顺便问下,你说的BinaryJedisCluster附件在哪儿呢?


没事,我以为单独的,原来是在你那个jar包里

jedis3.0已经支持BinaryJedisCluster,用Jedis官方的吧。
github: https://github.com/xetorthio/jedis/blob/a196d3e86e4dd686d4295e40233c42b2bb8d5cb0/src/main/java/redis/clients/jedis/BinaryJedisCluster.java
25 楼  javer 2015-08-06  
javer 写道
hot66hot 写道
javer 写道
使用ShardedJedisPool连接池,获取cluster的一个连接,进行set操作时有时会报错
redis.clients.jedis.exceptions.JedisMovedDataException: MOVED xxx 127.0.0.1:xxxx
请问可能是哪儿的问题?

ShardedJedisPool是以前分片操作的API,不适用于cluster,
cluster环境用JedisCluster API, Jedis版本在2.7以上。

谢谢,我昨天刚搞明白。
顺便问下,你说的BinaryJedisCluster附件在哪儿呢?


没事,我以为单独的,原来是在你那个jar包里
24 楼  javer 2015-08-06  
hot66hot 写道
javer 写道
使用ShardedJedisPool连接池,获取cluster的一个连接,进行set操作时有时会报错
redis.clients.jedis.exceptions.JedisMovedDataException: MOVED xxx 127.0.0.1:xxxx
请问可能是哪儿的问题?

ShardedJedisPool是以前分片操作的API,不适用于cluster,
cluster环境用JedisCluster API, Jedis版本在2.7以上。

谢谢,我昨天刚搞明白。
顺便问下,你说的BinaryJedisCluster附件在哪儿呢?
23 楼  hot66hot 2015-08-06  
javer 写道
使用ShardedJedisPool连接池,获取cluster的一个连接,进行set操作时有时会报错
redis.clients.jedis.exceptions.JedisMovedDataException: MOVED xxx 127.0.0.1:xxxx
请问可能是哪儿的问题?

ShardedJedisPool是以前分片操作的API,不适用于cluster,
cluster环境用JedisCluster API, Jedis版本在2.7以上。
22 楼  javer 2015-08-04  
使用ShardedJedisPool连接池,获取cluster的一个连接,进行set操作时有时会报错
redis.clients.jedis.exceptions.JedisMovedDataException: MOVED xxx 127.0.0.1:xxxx
请问可能是哪儿的问题?
21 楼  hot66hot 2015-07-08  
theday_2009 写道
请教一下,使用集群的JedisCluster,如何用pool连接池来操作,好像也没有pipeline的功能了,cli内如何检索更个集群的数据,而不是只检索一个port的数据

1)jedisCluster 维护整个集群节点的JedisPool列表,通过crc16计算key和slot的对应关系,在通过slot找到对应的jedisPool.
2:pipeline只能用于对应单个节点,不能对应集群操作。
3:“cli内如何检索更个集群的数据,而不是只检索一个port的数据”没看明白。
20 楼  theday_2009 2015-07-07  
请教一下,使用集群的JedisCluster,如何用pool连接池来操作,好像也没有pipeline的功能了,cli内如何检索更个集群的数据,而不是只检索一个port的数据
19 楼  larnsan 2015-06-02  
hot66hot 写道
yaogege 写道
我的每次都会出现这个问题?
是包不对吗?
请问应该怎么处理?
/var/lib/gems/1.8/gems/redis-3.2.1/lib/redis/client.rb:113:in `call': ERR Slot 15495 is already busy (Redis::CommandError)
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:2556:in `method_missing'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:37:in `synchronize'
from /usr/lib/ruby/1.8/monitor.rb:242:in `mon_synchronize'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:37:in `synchronize'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:2555:in `method_missing'
from ./redis-trib.rb:205:in `flush_node_config'
from ./redis-trib.rb:657:in `flush_nodes_config'
from ./redis-trib.rb:656:in `each'
from ./redis-trib.rb:656:in `flush_nodes_config'
from ./redis-trib.rb:997:in `create_cluster_cmd'
from ./redis-trib.rb:1373:in `send'
from ./redis-trib.rb:1373

用redis-trib.rb check  ip:port检查下你的集群状态,
看错误应该是之前做过迁移失败了,
在slot=15495这个槽上正在分配中,尝试使用cluster setslot 15495 stable 取消对槽 slot 的导入或迁移

需要清理节点已配置的集群信息
18 楼  hot66hot 2015-06-02  
yaogege 写道
我的每次都会出现这个问题?
是包不对吗?
请问应该怎么处理?
/var/lib/gems/1.8/gems/redis-3.2.1/lib/redis/client.rb:113:in `call': ERR Slot 15495 is already busy (Redis::CommandError)
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:2556:in `method_missing'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:37:in `synchronize'
from /usr/lib/ruby/1.8/monitor.rb:242:in `mon_synchronize'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:37:in `synchronize'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:2555:in `method_missing'
from ./redis-trib.rb:205:in `flush_node_config'
from ./redis-trib.rb:657:in `flush_nodes_config'
from ./redis-trib.rb:656:in `each'
from ./redis-trib.rb:656:in `flush_nodes_config'
from ./redis-trib.rb:997:in `create_cluster_cmd'
from ./redis-trib.rb:1373:in `send'
from ./redis-trib.rb:1373

用redis-trib.rb check  ip:port检查下你的集群状态,
看错误应该是之前做过迁移失败了,
在slot=15495这个槽上正在分配中,尝试使用cluster setslot 15495 stable 取消对槽 slot 的导入或迁移
17 楼  yaogege 2015-05-28  
我的每次都会出现这个问题?
是包不对吗?
请问应该怎么处理?
/var/lib/gems/1.8/gems/redis-3.2.1/lib/redis/client.rb:113:in `call': ERR Slot 15495 is already busy (Redis::CommandError)
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:2556:in `method_missing'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:37:in `synchronize'
from /usr/lib/ruby/1.8/monitor.rb:242:in `mon_synchronize'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:37:in `synchronize'
from /var/lib/gems/1.8/gems/redis-3.2.1/lib/redis.rb:2555:in `method_missing'
from ./redis-trib.rb:205:in `flush_node_config'
from ./redis-trib.rb:657:in `flush_nodes_config'
from ./redis-trib.rb:656:in `each'
from ./redis-trib.rb:656:in `flush_nodes_config'
from ./redis-trib.rb:997:in `create_cluster_cmd'
from ./redis-trib.rb:1373:in `send'
from ./redis-trib.rb:1373
16 楼  hot66hot 2015-05-13  
wjhdtx 写道
hot66hot 写道
wjhdtx 写道
博主你好,spring redis的客户端目前支持redis3.0.0的集群吗?

jedis-3.0还在SNAPSHOT,现在的2.7可以使用,有些命令没有支持需要改jedis来适配。
github: https://github.com/xetorthio/jedis/tree/jedis-2.7.0


谢谢博主回复,我遇到的问题是:

我们之前用的spring的api来操作redis,如果换为jedis,工作量及稳定性测试需要一定的时间,和 http://stackoverflow.com/questions/29602657/spring-data-redis-with-cluster-support 这个问题一样,不知道博主有何建议?

自己适配一个redisTemplate吧,开发量不是很大。
15 楼  hot66hot 2015-05-13  
wzw_19850911 写道

jc = new BinaryJedisCluster(jedisClusterNodes, 120 * 1000);

JedisCluster timeout 超时单位是秒。
14 楼  hot66hot 2015-05-13  
wzw_19850911 写道
我用了楼主写的代码   连接不到redis集群  一直在重定向  请问是为啥呢 我的代码是这样的

我的集群部署在192.168.1.203上的  7000 7001 7002 7003 7004 7005这些端口上

重定向是指客户端报这个JedisClusterMaxRedirectionsException异常?
登录redis服务器,运行下 cluster info 命令线确认集群是否正常,slot是否完全覆盖。

13 楼  wzw_19850911 2015-05-11  
我用了楼主写的代码   连接不到redis集群  一直在重定向  请问是为啥呢 我的代码是这样的


public class Test2 {
private static BinaryJedisCluster jc;  
static {
//只给集群里一个实例就可以  
Set jedisClusterNodes = new HashSet();
jedisClusterNodes.add(new HostAndPort("192.168.1.203", 7000));
jedisClusterNodes.add(new HostAndPort("192.168.1.203", 7001));
jedisClusterNodes.add(new HostAndPort("192.168.1.203", 7002));
jedisClusterNodes.add(new HostAndPort("192.168.1.203", 7003));
jedisClusterNodes.add(new HostAndPort("192.168.1.203", 7004));
jedisClusterNodes.add(new HostAndPort("192.168.1.203", 7005));
jc = new BinaryJedisCluster(jedisClusterNodes, 120 * 1000);
}
  
public static void main(String[] args) throws Exception {
for (int i = 0; i < 10; i++) {
String res = jc.set("name" + i, "steven" + i);
System.out.println(res);
}
}
}


我的集群部署在192.168.1.203上的  7000 7001 7002 7003 7004 7005这些端口上
12 楼  wjhdtx 2015-04-24  
hot66hot 写道
wjhdtx 写道
博主你好,spring redis的客户端目前支持redis3.0.0的集群吗?

jedis-3.0还在SNAPSHOT,现在的2.7可以使用,有些命令没有支持需要改jedis来适配。
github: https://github.com/xetorthio/jedis/tree/jedis-2.7.0


谢谢博主回复,我遇到的问题是:

我们之前用的spring的api来操作redis,如果换为jedis,工作量及稳定性测试需要一定的时间,和 http://stackoverflow.com/questions/29602657/spring-data-redis-with-cluster-support 这个问题一样,不知道博主有何建议?
11 楼  hot66hot 2015-04-23  
wjhdtx 写道
博主你好,spring redis的客户端目前支持redis3.0.0的集群吗?

jedis-3.0还在SNAPSHOT,现在的2.7可以使用,有些命令没有支持需要改jedis来适配。
github: https://github.com/xetorthio/jedis/tree/jedis-2.7.0
10 楼  wjhdtx 2015-04-23  
博主你好,spring redis的客户端目前支持redis3.0.0的集群吗?
9 楼  啊喔鹅咦呜鱼 2015-04-16  
2)client端不支持keys批量操作,不支持select dbNum操作,只有一个db:select 0

这个是官方不支持:
Redis Cluster does not support multiple databases like the stand alone version of Redis, there is just database 0, and the SELECT command is not allowed.
8 楼  hot66hot 2015-04-15  
yanyaming920817 写道
请问下,怎么找不到RedisCluster集群停止的命令呢??求指教

停止集群目前redis cluster没有现成的命令,因为他是基于P2P的无中心化集群,没有master同意调度管理,我们一般采用直接停止进程的方式(shutdown)分别下线实例, 如果不停进程,采用cluster forget 直接让实例脱离进群也可以下线。
7 楼  yanyaming920817 2015-04-14  
请问下,怎么找不到RedisCluster集群停止的命令呢??求指教
6 楼  changsheng37 2015-03-16  
经过测试,redis3.0 beta  java客户端 不支持 密码验证。又是一个坑。
5 楼  hot66hot 2015-03-03  
Sev7en_jun 写道
  b:如果集群超过半数以上master挂掉,无论是否有slave集群进入fail状态.

关于这点我想补充下:
redis3.0 我自己的测试是这样的:
1、同时或极短时间内超过半数以上master挂掉,整个集群进入fail不可用
2、如果一个master挂掉,集群中会有一个slave被转换为master,直到所有slave都变成master
3、当全部slave变为master,这时再有一个master挂掉,整个集群将进入fail状态

感谢补充.  

  b:如果集群超过半数以上master挂掉,无论是否有slave集群进入fail状态.现在不准确了,这个文档当时基于beta2

RC1加入cluster-require-full-coverage参数影响部分失败,开启后集群不完整也处于可用状态

RC3优化了gossip 协议,优化集群的状态传播速度,加快了节点失败判定的速度,之前测试10+的节点下故障判定达到30秒+。

4 楼  Sev7en_jun 2015-03-02  
Sev7en_jun 写道
  b:如果集群超过半数以上master挂掉,无论是否有slave集群进入fail状态.

关于这点我想补充下:
redis3.0 我自己的测试是这样的:
1、同时或极短时间内超过半数以上master挂掉,整个集群进入fail不可用
2、如果一个master挂掉,集群中会有一个slave被转换为master,直到所有slave都变成master
3、当全部slave变为master,这时再有一个master挂掉,整个集群将进入fail状态
4、如有其中一个对应的master和他的slave都挂了(同时或非同时),集群也会出故障

3 楼  Sev7en_jun 2015-02-27  
  b:如果集群超过半数以上master挂掉,无论是否有slave集群进入fail状态.

关于这点我想补充下:
redis3.0 我自己的测试是这样的:
1、同时或极短时间内超过半数以上master挂掉,整个集群进入fail不可用
2、如果一个master挂掉,集群中会有一个slave被转换为master,直到所有slave都变成master
3、当全部slave变为master,这时再有一个master挂掉,整个集群将进入fail状态
2 楼  kesun_shy 2014-10-30  
第一个图。。少了两对线。。嘿嘿。每个节点应该有集群节点数n - 1 对线。。
每对线有一个出去的一个进来的。
1 楼  feidaodalian 2014-05-26  
目前也在研究,博主总结的很到位,不错~。。。。共同期待3.0的正式版推出。

你可能感兴趣的:(redis-cluster研究和使用)