在web服务器中,高可用是指服务器可以正常访问的时间,衡量的标准是在多长时间内可以提供正常服务(99.9%、99.99%、99.999%等等)。
高可用的计算公式是1-(宕机时间)/(宕机时间+运行时间)有点类似与网络传输的参数误码率,我们用9的个数表示可用性:
2个9:99%,一年内宕机时长:1%×365天=3.6524天=87.6h
4个9:99.99%,一年内宕机时长:0.01%×365天=52.56min
5个9:99.999%,一年内宕机时长:0.001%*365天=5.265min
11个9:几乎一年宕机时间只有几秒钟
但是在Redis语境中,高可用的含义似乎要宽泛一些,除了保证提供正常服务(如主从分离、快速容灾技术),还需要考虑数据容量的扩展、数据安全不会丢失等。
在Redis中,实现高可用的技术主要包括持久化、主从复制、哨兵和cluster集群,下面分别说明它们的作用,以及解决了什么样的问题。
持久化: 持久化是最简单的高可用方法(有时甚至不被归为高可用的手段),主要作用是数据备份,即将数据存储在硬盘,保证数据不会因进程退出而丢失。
主从复制: 主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份(和同步),以及对于读操作的负载均衡和简单的故障恢复。
哨兵: 在主从复制的基础上,哨兵实现了自动化的故障恢复。(主挂了,找一个从成为新的主,哨兵节点进行监控)
Cluster集群: 通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。(6台起步,成双成对,3主3从)
主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master),后者称为从节点(slave);数据的复制是单向的,只能由主节点到从节点。
默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。
(1)若启动一个slave机器进程,则它会向Master机器发送一个sync command命令,请求同步连接。
(2)无论是第一次连接还是重新连接,Master机器都会启动一个后台进程,将数据快照保存到数据文件中(执行rdb操作),同时Master还会记录修改数据的所有命令并缓存在数据文件中.
(3)后台进程完成缓存操作之后,Master机器就会向slave机器发送数据文件,slave端机器将数据文件保存到硬盘上,然后将其加载到内存中,接着Master机器就会将修改数据的所有操作一并发送给slave端机器。若slave出现故障导致宕机,则恢复正常后会自动重新连接。
(4)Master机器收到slave端机器的连接后,将其完整的数据文件发送给slave端机器,如果Mater同时收到多个slave发来的同步请求,则Master会在后台启动一个进程以保存数据文件,然后将其发送给所有的slave端机器,确保所有的slave端机器都正常。
主从 | redis的版本号 | IP地址 |
---|---|---|
master | redis-5.0.7 | 192.168.73.105 |
slave1 | redis-5.0.7 | 192.168.73.106 |
slave2 | redis-5.0.7 | 192.168.73.107 |
实验前准备好三台源码编译安装好的redis虚拟机
vim /etc/redis/6379.conf
bind 0.0.0.0 #70行,修改监听地址为0.0.0.0(生产环境中,尤其是多网卡最好填写物理网卡的IP)
daemonize yes #137行,开启守护进程,后台启动
logfile /var/log/redis_6379.log #172行,指定日志文件存放目录
dir /var/lib/redis/6379 #264行,指定工作目录
appendonly yes #700行,开启AOF持久化功能
/etc/init.d/redis_6379 restart #重启redis服务
#修改slave1的配置文件
vim /etc/redis/6379.conf
bind 0.0.0.0 #70行,修改监听地址为0.0.0.0(生产环境中需要填写物理网卡的IP)
daemonize yes #137行,开启守护进程,后台启动
logfile /var/log/redis_6379.log #172行,指定日志文件目录
dir /var/lib/redis/6379 #264行,指定工作目录
replicaof 192.168.73.105 6379 #288行,指定要同步的Master节点的IP和端口
appendonly yes #700行,修改为yes,开启AOF持久化功能
#将配置文件传给slave2
scp /etc/redis/6379.conf 192.168.73.107:/etc/redis/
/etc/init.d/redis_6379 restart #重启redis
netstat -natp | grep redis #查看主从服务器是否已建立连接
127.0.0.1:6379> keys *
127.0.0.1:6379> set name zhangsan
127.0.0.1:6379> get name
主从切换技术的方法是:当服务器宕机后,需要手动一台从机切换为主机,这需要人工干预,不仅费时费力而且还会造成一段时间内服务不可用。为了解决主从复制的缺点,就有了哨兵机制。
哨兵的核心功能:在主从复制的基础上,哨兵引入了主节点的自动故障转移。
哨兵模式的组成:
哨兵节点: 哨兵系统由一个或多个哨兵节点组成,哨兵节点是特殊的redis节点,不存储数据。
数据节点: 主节点和从节点都是数据节点。
此外:哨兵节点也可以是单独独立在其他的主机上,并不需要一定安装redis主从复制的节点服务器上
1、由哨兵节点定期监控发现主节点是否出现了故障
每个哨兵节点每隔1秒会问主节点、从节点及其它哨兵节点发送一次ping命令做一次心检测。如果主节点在一定时间范围内不回复或者是回复一个错误消息,那么这个哨兵就会认为这个主节点主观下线了(单方面的)。当超过半数哨兵节点认为该主节点主观下线了,这样就客观下线了。
2、当主节点出现故障,此时哨兵节点会通过Raft算法(选举算法)实现选举机制共同选举出一个哨兵节点为leader,来负责处理主节点的故障转移和通知。所以整个运行哨兵的集群的数量不得少于3个节点。
3、由leader哨兵节点执行故障转移,过程如下:
需要特别注意的是,客观下线是主节点才有的概念;如果从节点和哨兵节点发生故障,被哨兵主观下线后,不会再有后续的客观下线和故障转移操作
1.过滤掉不健康的(己下线的),没有回复哨兵ping响应的从节点。
2.选择配置文件中从节点优先级配置最高的。(replica-priority,默认值为100)
3.选择复制偏移量最大,也就是复制最完整的从节点。
哨兵的启动依赖于主从模式,所以须把主从模式安装好的情况下再去做哨兵模式。
主从 | redis的版本号 | IP地址 | 哨兵点 |
---|---|---|---|
master | redis-5.0.7 | 192.168.73.105 | Sentinel 1 |
slave1 | redis-5.0.7 | 192.168.73.106 | Sentinel 2 |
slave2 | redis-5.0.7 | 192.168.73.107 | Sentinel 3 |
在redis主从复制的基础上进行哨兵模式的部署
哨兵的的配置文件是redis软件中自带的配置
vim /opt/redis-5.0.7/sentinel.conf
......
protected-mode no #17行,取消注释,关闭保护模式
port 26379 #21行,Redis哨兵默认的监听端口
daemonize yes #26行,指定sentinel为后台启动
logfile "/var/log/sentinel.log" #36行,指定日志文件存放路径
dir "/var/lib/redis/6379" #65行,指定数据库存放路径
sentinel monitor mymaster 192.168.73.105 6379 2 #84行,修改
#指定该哨兵节点监控192.168.73.105:6379这个主节点,该主节点的名称是mymaster。
#最后的2的含义与主节点的故障判定有关:至少需要2个哨兵节点同意,才能判定主节点故障并进行故障转移
sentinel down-after-milliseconds mymaster 3000 #113行,判定服务器down掉的时间周期,默认30000毫秒(30秒)
sentinel failover-timeout mymaster 180000 #146行,同一个sentinel对同一个master两次failover之间的间隔时间(180秒)
#传给两外2个哨兵节点
scp /opt/redis-5.0.7/sentinel.conf 192.168.73.106:/opt/redis-5.0.7/
scp /opt/redis-5.0.7/sentinel.conf 192.168.73.107:/opt/redis-5.0.7/
#启动三台哨兵
cd /opt/redis-5.0.7/
redis-sentinel sentinel.conf &
#在哨兵节点查看监控状态
[root@localhost ~]# redis-cli -p 26379 info Sentinel
#在Master 上查看redis-server进程号: [root@localhost ~]# ps -ef | grep redis #杀死 Master 节点上redis-server的进程号 [root@localhost ~]# kill -9 pid号 #Master节点上redis-server的进程号 [root@localhost ~]# netstat -natp | grep redis
[root@localhost redis-5.0.7]# tail -f /var/log/sentinel.log
#新master进行键值对的创建
[root@localhost redis-5.0.7]# redis-cli
127.0.0.1:6379> set newname lisi
OK
127.0.0.1:6379> get newname
"lisi"
127.0.0.1:6379>
集群,即Redis Cluster,是Redis3.0开始引入的分布式存储方案。
集群由多个节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点:只有主节点负责读写请求和集群信息的维护;从节点只进行主节点数据和状态信息的复制。
(1)数据分区: 数据分区(或称数据分片)是集群最核心的功能。
(2)高可用: 集群支持主从复制和主节点的自动故障转移(与哨兵类似);当任一节点发生故障时,集群仍然可以对外提供服务。
通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。
Redis集群引入了哈希槽的概念。
Redis集群有16384个哈希槽(编号0-16383)。
集群的每个节点负责一部分哈希槽。
每个Key通过CRC16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作。
以3个节点组成的集群为例:
真实生产环境中,redis的cluster集群至少需要六台服务器才能实现 ,如果因为电脑性能问题
可以尝试redis多实例部署
cd /opt/redis-5.0.7/
vim redis.conf
......
bind 192.168.73.105 #69行,修改为监听自己的物理网卡IP
protected-mode no #88行,修改为no,关闭保护模式
port 6379 #92行,redis默认监听端口
daemonize yes #136行,开启守护进程,以独立进程启动
appendonly yes #700行,修改为yes,开启AOF持久化
cluster-enabled yes #832行,取消注释,开启群集功能
cluster-config-file nodes-6379.conf #840行,取消注释,群集名称文件设置
cluster-node-timeout 15000 #846行,取消注释,群集超时时间设置
#将文件传给另外5个节点,之后每个节点要修改监听地址为主机本身的监听地址
[root@localhost redis-5.0.7]# scp redis.conf 192.168.73.106:`pwd`
[root@localhost redis-5.0.7]# scp redis.conf 192.168.73.107:`pwd`
[root@localhost redis-5.0.7]# scp redis.conf 192.168.73.109:`pwd`
[root@localhost redis-5.0.7]# scp redis.conf 192.168.73.110:`pwd`
[root@localhost redis-5.0.7]# scp redis.conf 192.168.73.111:`pwd`
集群模式启动时:注意 /etc/initid/redis_6379 不能启动(个体redis)
cd /opt/redis-5.0.7/
redis-server redis.conf #启动redis节点
##六个主机分为三组,三主三从,前面的做主节点后面的做从节点下免交互的时候需要输入yes才可以创建 "-replicas 1"表示每个主节点有一个从节点
#前三台为Master,后三台为Slave
redis-cli -h 192.168.73.105 --cluster create 192.168.73.105:6379 192.168.73.106:6379 192.168.73.107:6379 192.168.73.109:6379 192.168.73.110:6379 192.168.73.111:6379 --cluster-replicas 1
#集群模式要求用物理网卡登录
redis-cli -h 192.168.73.105 -c
#查看集群的hash槽和主从关系
cluster slots