03.Redis 集群架构

Redis 集群架构

前面已经了解了哨兵架构,哨兵架构已经能满足许多一般会互联网情况下的需求,但是它也存在一下缺点:主节点宕机后,重新选举期间的几秒甚至几十秒是不可用的,而且只有一个节点作为写节点,撑死最大并发也就 10W作用。并且Redis最大内存不宜过大(10G)否则影响性能。

03.Redis 集群架构_第1张图片

那么什么是 Redis 集群呢?redis 集群是一个由多个主从节点群组成的分布式服务器群,它具有复制、高可用和分片特性。Redis 集群不需要 sentinel 哨兵,也能完成节点移除和故障转移的功能。需要将每个节点设置成集群模式,这种集群模式没有中心节点,可水平扩展,据官方文档称可以线性扩展到上万个节点(官方推荐不超过1000个节点)。Redis 集群的性能和高可用性均优于之前版本的哨兵模式,且集群配置非常简单。

  • 至少需要 3 个主节点
  • 从节点仅用于数据备份,读写都从主节点进行
  • 整个集群所有节点逻辑分片,16384 个Hash槽可以均匀分布给不同的节点
  • 建议错峰连接(主节点可以和从节点不在一台机器),即使机器断开也不影响使用
  • 不能批量操作(如MSET),key 值 Hash 出的槽位不同,导致存储机器不同(可以设计Key)
  • 重启集群只需要重启单个节点

Redis 高可用集群的搭建

redis 集群**至少需要三个master节点**,并且给每个 master 再搭建一个slave节点,总共 6 个redis节点,这里演示用三台机器部署 6 个 redis 实例,每台机器一主一从,搭建集群的步骤如下:

第一步:在第一台机器的/usr/local下创建文件夹redis-cluster,然后在其下面分别创建2个文件夾如下
(1)mkdir -p /usr/local/redis-cluster
(2)mkdir 8001 8004

第二步:把之前的redis.conf配置文件copy到8001下,修改如下内容:
(1)daemonize yes #后台运行
(2)port 8001(分别对每个机器的端口号进行设置)
(3)pidfile /var/run/redis_8001.pid  # 把pid进程号写入pidfile配置的文件
(4)dir /usr/local/redis-cluster/8001/(指定数据文件存放位置,必须要指定不同的目录位置,不然会丢失数据)
(5)cluster-enabled yes(启动集群模式)
(6)cluster-config-file nodes-8001.conf(集群节点信息文件,这里800x最好和port对应上)
(7)cluster-node-timeout 10000
 (8)# bind 127.0.0.1(bind绑定的是自己机器网卡的ip,如果有多块网卡可以配多个ip,代表允许客户端通过机器的哪些网卡ip去访问,内网一般可以不配置bind,注释掉即可)
 (9)protected-mode  no   (关闭保护模式,包含模式下只运行本机访问)
 (10)appendonly yes
如果要设置密码需要增加如下配置:
 (11)requirepass password     (设置redis访问密码)
 (12)masterauth password      (设置集群节点间访问密码,跟上面一致)

第三步:把修改后的配置文件,copy到8004,修改第2、3、4、6项里的端口号,可以用批量替换::%s/源字符串/目的字符串/g 

第四步:另外两台机器也需要做上面几步操作,第二台机器用8002和8005,第三台机器用8003和8006

第五步:分别启动6个redis实例,然后检查是否启动成功
(1)/usr/local/redis-5.0.3/src/redis-server /usr/local/redis-cluster/800*/redis.conf
(2)ps -ef | grep redis 查看是否启动成功
    
第六步:用redis-cli创建整个redis集群(redis5以前的版本集群是依靠ruby脚本redis-trib.rb实现)
# 下面命令里的1代表为每个创建的主服务器节点创建一个从服务器节点
# 执行这条命令需要确认三台机器之间的redis实例要能相互访问,可以先简单把所有机器防火墙关掉
# 如果不关闭防火墙则需要打开redis服务端口和集群节点gossip通信端口16379
# 关闭防火墙
# systemctl stop firewalld # 临时关闭防火墙
# systemctl disable firewalld # 禁止开机启动
(1)/usr/local/redis-5.0.3/src/redis-cli -a password --cluster create --cluster-replicas 1 192.168.56.10:8001 192.168.56.11:8002 192.168.56.12:8003 192.168.56.10:8004 192.168.56.11:8005 192.168.56.12:8006 

第七步:验证集群:
(1)连接任意一个客户端即可:./redis-cli -c -h -p (-a访问服务端密码,-c表示集群模式,指定ip地址和端口号)
    如:/usr/local/redis-5.0.3/src/redis-cli -a password -c -h 192.168.56.10 -p 800*
(2)进行验证: cluster info(查看集群信息)、cluster nodes(查看节点列表)
(3)进行数据操作验证
(4)关闭集群则需要逐个进行关闭,使用命令:
/usr/local/redis-5.0.3/src/redis-cli -a password -c -h 192.168.56.10 -p 800* shutdown

SpringBoot 整合Redis集群

1.引入相关依赖

<dependency>
   <groupId>org.springframework.bootgroupId>
   <artifactId>spring-boot-starter-data-redisartifactId>
dependency>

<dependency>
   <groupId>org.apache.commonsgroupId>
   <artifactId>commons-pool2artifactId>
dependency>

2.配置类

server:
  port: 8080

spring:
  redis:
    database: 0
    timeout: 3000
    password: password
    cluster:
      nodes: 192.168.56.10:8001,192.168.56.11:8002,192.168.56.12:8003,192.168.56.10:8004,192.168.56.11:8005 192.168.56.12:8006
   lettuce:
      pool:
        max-idle: 50
        min-idle: 10
        max-active: 100
        max-wait: 1000

3.Java 代码访问

    @Autowired
private StringRedisTemplate stringRedisTemplate;

@RequestMapping("/test")
public void testCluster() throws InterruptedException {
    stringRedisTemplate.opsForValue().set("abc", "123");
    System.out.println(stringRedisTemplate.opsForValue().get("abc"));
}

Redis 集群原理分析

Redis Cluster 将所有数据划分为 16384 个 slots(槽位)每个节点负责一部分槽位(可用自己分配)。槽位的信息存储于每个节点中。当 Redis Cluster 的客户端来连接集群时,它也会得到一份集群的槽位配置信息并将其缓存在客户端本地。这样当客户端要查找某个 key 时,可以直接定位到目标节点。同时因为槽位的信息可能会存在客户端与服务器不一致的情况,还需要纠正机制来实现槽位信息的校验调整

槽位定位算法

Redis Cluster 默认会对 key 值使用 crc16 算法进行 Hash 得到一个整数值,然后用这个整数值对 16384 进行取模来得到具体槽位(位运算)。HASH_SLOT = CRC16(key) & (16384 - 1)

跳转重定位

当客户端向一个错误的节点发出了指令,该节点会发现指令的 key 所在的槽位并不归自己管理,这时它会向客户端发送一个特殊的跳转指令携带目标操作的节点地址,告诉客户端去这个节点去获取数据。客户端收到指令后除了跳转到正确的节点上去操作,还会同步更新纠正本地的槽位映射表缓存,后续所有 key 将使用新的槽位映射表。【例如在某活动大促期间,增加了 Redis 集群服务器台数,将槽位分发给了这几个节点,将导致客户端缓存的槽位映射表不正确,从而指令错误】

# 跳转重定位
> set name zhangsan
> Redirected to slot [1638] located at 192.168.56.12:8004 OK

Redis集群节点间的通信机制

Redis集群节点采取 gossip协议 进行通信,维护集群的元数据(集群节点信息,主从角色,节点数量,各节点共享的数据等)有两种方式:集中式gossip

  • 集中式

    • 优点: 元数据的更新和读取,时效性非常好。一旦元数据出现变更立即就会更新到集中式的存储中,其他节点读取的时候立即就可以立即感知到;
    • 缺点: 所有的元数据的更新压力全部集中在一个地方,可能导致元数据的存储压力。 很多中间件都会借助 zookeeper 集中式存储元数据。
  • gossip

    • 优点: 元数据的更新比较分散,不是集中在一个地方,更新请求会陆陆续续,打到所有节点上去更新,有一定的延时,降低了压力
    • 缺点: 元数据更新有延时可能导致集群的一些操作会有一些滞后
      gossip协议包含多种消息,包括 ping,pong,meet,fail 等等。
  • meet:某个节点发送meet给新加入的节点,让新节点加入集群中,然后新节点就会开始与其他节点进行通信;

  • ping:每个节点都会频繁给其他节点发送 ping,其中包含自己的状态还有自己维护的集群元数据,互相通过 ping 交换元数据(类似自己感知到的集群节点增加和移除,hash slot 信息等);

  • pong: 对 ping 和 meet 消息的返回,包含自己的状态和其他信息,也可以用于信息广播和更新;

  • fail: 某个节点判断另一个节点 fail 之后,就发送 fail 给其他节点,通知其他节点,指定的节点宕机了。

gossip通信的10000端口

每个节点都有一个专门用于节点间 gossip 通信的端口,就是自己提供服务的端口号 +10000,比如 7001,那么用于节点间通信的就是 17001 端口。 每个节点每隔一段时间都会往另外几个节点发送 ping 消息,同时其他几点接收到 ping 消息之后返回 pong 消息。

网络抖动

网络抖动–突然之间部分连接变得不可访问,然后很快又恢复正常。为解决这种问题,Redis Cluster 提供了一种选项 cluster-node-timeout,表示当某个节点持续 timeout 的时间失联时,才可以认定该节点出现故障,需要进行主从切换。如果没有这个选项,网络抖动会导致主从频繁切换 (数据的重新复制)。

Redis集群选举原理分析

当 slave 发现自己的 master 变为 FAIL 状态时,便尝试进行 Failover,以期成为新的 master。由于挂掉的 master 可能会有多个 slave,从而存在多个 slave 竞争成为 master 节点的过程, 其过程如下:

  1. slave 发现自己的 master 变为FAIL
  2. 将自己记录的集群 currentEpoch 加 1,并广播 FAILOVER_AUTH_REQUEST 信息
  3. 其他节点收到该信息,只有 maste r响应,判断请求者的合法性,并发送 FAILOVER_AUTH_ACK,对每一个 epoch 只发送一次 ack
  4. 尝试 failover 的 slave 收集 master 返回的 FAILOVER_AUTH_ACK
  5. slave 收到超过半数 master 的 ack 后变成新 Master(集群为什么至少需要三个主节点,如果只有两个,当其中一个挂了,只剩一个主节点是不能选举成功的)
  6. slave 广播 Pong 消息通知其他集群节点。

从节点并不是在主节点一进入 FAIL 状态就马上尝试发起选举,而是有一定延迟,一定的延迟确保我们等待 FAIL状态在集群中传播,slave 如果立即尝试选举,其它 masters 或许尚未意识到 FAIL 状态,可能会拒绝投票。

**延迟计算公式:**DELAY = 500ms + random(0 ~ 500ms) + SLAVE_RANK * 1000ms

SLAVE_RANK 表示此 slave 已经从 master 复制数据的总量的 Rank。Rank 越小代表已复制的数据越新。这种方式下,持有最新数据的slave将会首先发起选举(理论上)。

集群脑裂数据丢失问题

Redis 集群没有过半机制会有脑裂问题,网络分区导致脑裂后多个主节点对外提供写服务,一旦网络分区恢复,会将其中一个主节点变为从节点,这时会有大量数据丢失。规避方法可以在 Redis 配置里加上参数(这种方法不可能百分百避免数据丢失,参考集群 leader 选举机制):

min-replicas-to-write 1 //写数据成功最少同步的slave数量,这个数量可以模仿大于半数机制配置,比如集群总共三个节点可以配置1,加上leader就是2,超过了半数               

注意:这个配置在一定程度上会影响集群的可用性,比如 slave 要是少于1个,这个集群就算 leader 正常也不能提供服务了,需要具体场景权衡选择。

集群是否完整才能对外提供服务

当 redis.conf 的配置 cluster-require-full-coverage 为 no 时,表示当负责一个插槽的主库下线且没有相应的从库进行故障恢复时,集群仍然可用,如果为 yes 则集群不可用。

Redis集群为什么至少需要三个master节点,并且推荐节点数为奇数?

因为新 master 的选举需要大于半数的集群 master 节点同意才能选举成功,如果只有两个 master 节点,当其中一个挂了,是达不到选举新 master 的条件的。奇数个 master 节点可以在满足选举该条件的基础上节省一个节点,比如三个 master 节点和四个 master 节点的集群相比,大家如果都挂了一个 master 节点都能选举新master节点,如果都挂了两个 master 节点都没法选举新 master 节点了,所以奇数的 master 节点更多的是从节省机器资源角度出发说的。

Redis集群对批量操作命令的支持

对于类似 mset,mget 这样的多个 key 的原生批量操作命令,redis 集群只支持所有 key 落在同一 slot 的情况,如果有多个 key 一定要用 mset 命令在 redis 集群上操作,则可以在 key 的前面加上 {XX},这样参数数据分片 hash 计算的只会是大括号里的值,这样能确保不同的 key 能落到同一 slot 里去,示例如下:

  mset {user1}:1:name zhuge {user1}:1:age 18

假设 name 和 age 计算的 hash slot 值不一样,但是这条命令在集群下执行,Redis 只会用大括号里的 user1 做hash slot计算,所以算出来的slot值肯定相同,最后都能落在同一slot。

你可能感兴趣的:(Redis,redis,架构,数据库)