其实主要是为了避免多线程的开销问题。为了避免多线程编程面临的共享资源的并发访问控制问题,锁的控制以及死锁问题导致的性能开销,为了系统代码的易调试性和可维护性。
Redis 是采用了多路复用机制,使其在网络 IO 操作中能并发处理大量的客户端请求,实现高吞吐率。
埋坑 Redis 的大部分操作在内存上完成,再加上它采用了高效的数据结构,例如哈希表和跳表,这是它实现高性能的一个重要原因。
redis值有五种数据类型,
String 类型的底层实现只有一种数据结构,简单动态字符串。Hash是当数据量较小时用压缩列表实现,较大时用哈希表实现并且不可逆就行了。
首先一个哈希表,其实就是一个数组,数组的每个元素称为一个哈希桶。一个哈希表是由多个哈希桶组成的,每个哈希桶中保存了键值对数据。
优点:O(1) 的时间复杂度快速查找到键值对
缺点:哈希表的冲突问题和 rehash 可能带来的操作阻塞。
如何解决?
首先 redis集合类型的底层数据结构主要有 5 种:整数数组、双向链表、哈希表、压缩列表和跳表。
zlbytes、zltail 和 zllen
,分别表示列表长度、列表尾的偏移量和列表中的 entry 个数;压缩列表在表尾还有一个 zlend
,表示列表结束。持久化就是把内存的数据写到磁盘中去,防止服务宕机了内存数据丢失。
Redis 的持久化主要有两大机制,即 AOF(Append Only File)日志和 RDB 快照。
与RDB相比可以简单描述为 改记录数据为记录数据产生的过程
记录键值对的最终状态,从而实现对某个键值对 重复操作后产生的多条操作记录压缩成一条的效果
。进而实现压缩AOF文件的大小。AOF手动重写方式
bgrewriteaof
,后台执行,并不是立马执行AOF自动重写方式
自动重写触发条件设置,比size大就自动重写,比自动重写百分比大就重写
auto-aof-rewrite-min-size size
auto-aof-rewrite-percentage percentage
自动重写触发比对参数( 运行指令info Persistence获取具体信息 ),aof_current_size 用于和size对比
aof_current_size
aof_base_size
和 AOF 日志由主线程写回不同,重写过程是由后台子进程 bgrewriteaof 来完成的,这也是为了避免阻塞主线程,导致数据库性能下降。
重写过程
每次执行重写时,主线程 fork 出后台的 bgrewriteaof 子进程。此时,fork 会把主线程的内存拷贝一份给 bgrewriteaof 子进程,这里面就包含了数据库的最新数据。然后,bgrewriteaof 子进程就可以在不影响主线程的情况下,逐一把拷贝的数据写成操作,记入重写日志。
数据不一致问题?
子进程在进行AOF重写期间,服务器进程还要继续处理命令请求,而新的命令可能对现有的数据进行修改,这会让当前数据库的数据和重写后的AOF文件中的数据不一致。
主进程
在执行完写命令之后,会同时将这个写命令追加到 AOF缓冲区
和 AOF重写缓冲区
完成AOF重写之后
:当子进程完成对AOF文件重写之后,它会向父进程发送一个完成信号,父进程接到该完成信号之后,会调用一个信号处理函数,该函数完成以下工作:
在整个AOF后台重写过程中,只有最后的 “主进程写入命令到AOF缓存”和“对新的AOF文件进行改名,覆盖原有的AOF文件。”
这两个步骤(信号处理函数执行期间)会造成主进程阻塞,在其他时候,AOF后台重写都不会对主进程造成阻塞,这将AOF重写对性能造成的影响降到最低。
appendonly yes|no
appendfsync always|everysec|no
appendfilename filename
优点:
1、数据安全,aof 持久化可以配置 appendfsync 属性,有 always,每进行一次 命令操作就记录到 aof 文件中一次。
2、通过 append 模式写文件,即使中途服务器宕机,可以通过 redis-check-aof 工具解决数据一致性问题。
3、AOF 机制的 rewrite 模式。AOF 文件没被 rewrite 之前(文件过大时会对命令 进行合并重写),可以删除其中的某些命令(比如误操作的 flushall))
缺点:
1、AOF 文件比 RDB 文件大,且恢复速度慢。
2、数据集大的时候,比 rdb 启动效率低。
和 AOF 相比,RDB 记录的是某一时刻的数据,并不是操作,所以,在做数据恢复时,我们可以直接把 RDB 文件读入内存,很快地完成恢复。
Redis 的数据都在内存中,为了提供所有数据的可靠性保证,它执行的是全量快照,也就是说,把内存中的所有数据都记录到磁盘中
通过bgsave命令在后台执行全量快照
优点:
缺点:
可以,Redis 就会借助操作系统提供的 写时复制技术
,在执行快照的同时,正常处理写操作。如果主线程要修改一块数据(例如图中的键值对 C),那么, 这块数据就会被复制一份
,生成该数据的副本(键值对 C’)。然后,主线程在这个数据副本上进行修改。同时,bgsave 子进程可以继续把原来的数据(键值对 C)写入 RDB 文件。
不行。如果频繁地执行全量快照,也会带来两方面的开销:
混合使用 AOF 日志和内存快照。
内存快照以一定的频率执行,在两次快照之间,使用 AOF 日志记录这期间的所有命令操作。既能享受到 RDB 文件快速恢复的好处,又能享受到 AOF 只记录操作命令的简单优势。
如果想达到高的数据安全性,你应该同时使用两种持久化功能。在这种情况下,当 Redis 重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
如果你非常关心你的性能, 但仍然可以承受数分钟以内的数据丢失,那么你可以只使用RDB持久化。
有很多用户都只使用AOF持久化everysec,但并不推荐这种方式,因为定时生成RDB快照非常便于进行数据库备份, 并且 RDB 恢复数据集的速度也要比AOF恢复的速度要快。
如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式。
Redis中有个设置时间过期的功能,即对存储在redis数据库中的值可以设置一个过期时间。
set key的时候,都可以给一个expire time,就是过期时间,通过过期时间就可以指定这个key可以存活的时间。
Redis是一种内存级数据库,所有数据均存放在内存中,内存中的数据可以通过TTL指令获取其状态
定时删除 、惰性删除
expireIfNeeded()
函数,检查数据是否过期,所有的get操作都与它绑定
定期删除
redis默认是每隔100ms就随机抽取一些设置了过期时间的key,检查其是否过期,如果过期就删除。注意这里是随机抽取的。为什么要随机呢?假如redis存了几十万个key,每隔100ms就遍历所有的设置过期时间的key的话,就会给CPU带来很大的负载。
执行流程:
W取值=ACTIVE_EXPIRE_CYCLE_LOOKUPS_PER_LOOP属性值
临时删除
一些数据为当前指令清理存储空间。清理数据的策略称为逐出算法。不进行数据淘汰的策略,只有 no-eviction 这一种,会引发错误OOM(Out Of Memory),内存泄漏
会进行淘汰的 7 种策略,我们可以再进一步根据淘汰候选数据集的范围把它们分成两类:
即挑选最近最少使用的数据淘汰(latest recently used,推荐设置)
即挑选最近使用次数最少的数据淘汰(latest frequently used)
事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。
事务是一个原子操作:事务中的命令要么全部被执行,要么全部都不执行。
满足以下要求:
redis事务就是一个命令执行的队列,将一系列预定义命令包装成一个整体(一个队列)。当执行时,一次性按照添加顺序依次执行,中间不会被打断或者干扰。
一个队列中,一次性、顺序性、排他性的执行一系列命令
分三个阶段:
事务执行过程中,如果服务端收到有EXEC、DISCARD、WATCH、MULTI之外的请求,将会把请求放入队列中排队。
WATCH命令可以监控一个或多个键,一旦其中有一个键被修改(或删除),之后的事务就不会执行。监控一直持续到EXEC命令(事务中的命令是在EXEC之后才执行的,所以在MULTI命令后可以修改WATCH监控的键值)
discard在使用中,如果multi开启事务,命令入队,直接discard的话,所有的命令都会回滚。
原子性
不保证原子性
;第一种情况是,在执行 EXEC 命令前,客户端发送的操作命令本身就有错误,在命令入队时就被 Redis 实例判断出来了。提交时Redis会拒绝执行。能保证。
第二种情况。事务操作入队时,命令有问题,但 Redis 实例没有检查出错误。但是,在执行完 EXEC 命令以后,Redis 实际执行这些事务操作时,就会报错。但还是会把正确的命令执行完。原子性就无法得到保证了。
(Redis 中并没有提供回滚机制。
)
第三种情况:在执行事务的 EXEC 命令时,Redis 实例发生了故障,导致事务执行失败。如果开启了 AOF 日志,那么只会有部分的事务操作被记录到 AOF 日志中。使用 redis-check-aof
工具检查 AOF 日志文件,把未完成的事务操作从 AOF 文件中去除,从而保证了原子性。 没开AOF就不保证。
一致性:
情况一:命令入队时就报错,不执行,保证。
情况二:命令入队时没报错,实际执行时报错,正确执行,错误不执行,保证。
情况三:EXEC 命令执行时实例发生故障,没开RDB和AOF数据为空保证,只开RDB不会在事务时执行快照保证,只开AOF是可以删的保证。
隔离性:
两种情况:
情况一:并发操作在 EXEC 命令前执行,此时,隔离性的保证要使用 WATCH 机制来实现,否则隔离性无法保证;
情况二:并发操作在 EXEC 命令后执行,此时,隔离性可以保证。
持久性:就得扯aof和rdb了
总结
Redis 的事务机制可以保证一致性和隔离性,但是无法保证持久性。不过,因为 Redis 本身是内存数据库,持久性并不是一个必须的属性,我们更加关注的还是原子性、一致性和隔离性这三个属性。原子性的情况比较复杂,只有当事务中使用的命令语法有误时,原子性得不到保证,在其它情况下,事务都可以原子性执行。
建议:严格按照 Redis 的命令规范进行程序开发,并且通过 code review 确保命令的正确性。
分布式锁其实就是,控制分布式系统不同进程共同访问共享资源的一种锁的实现。如果不同的系统或同一个系统的不同主机之间共享了某个临界资源,往往需要互斥来防止彼此干扰,以保证一致性。
即先用setnx来抢锁,如果抢到之后,再用expire给锁设置一个过期时间,防止锁忘记了释放。
SETNX 是SET IF NOT EXISTS的简写。日常命令格式是SETNX key value
。如果 key不存在,则SETNX成功返回1,如果这个key已经存在了,则返回0。
if(jedis.setnx(key_resource_id,lock_value) == 1){ //加锁
expire(key_resource_id,100); //设置过期时间
try {
do something //业务请求
}catch(){
}
finally {
jedis.del(key_resource_id); //释放锁
}
}
但是这个方案中,setnx和expire两个命令分开了, 「不是原子操作」
。如果执行完setnx加锁,正要执行expire设置过期时间时,进程crash或者要重启维护了,那么这个锁就别的线程就永远获取不到了。
long expires = System.currentTimeMillis() + expireTime; //系统时间+设置的过期时间
String expiresStr = String.valueOf(expires);
// 如果当前锁不存在,返回加锁成功
if (jedis.setnx(key_resource_id, expiresStr) == 1) {
return true;
}
// 如果锁已经存在,获取锁的过期时间
String currentValueStr = jedis.get(key_resource_id);
// 如果获取到的过期时间,小于系统当前时间,表示已经过期
if (currentValueStr != null && Long.parseLong(currentValueStr) < System.currentTimeMillis()) {
// 锁已过期,获取上一个锁的过期时间,并设置现在锁的过期时间
// 将给定 key 的值设为 value ,并返回 key 的旧值(old value)
String oldValueStr = jedis.getSet(key_resource_id, expiresStr);
if (oldValueStr != null && oldValueStr.equals(currentValueStr)) {
// 考虑多线程并发的情况,只有一个线程的设置值和当前值相同,它才可以加锁
return true;
}
}
//其他情况,均返回加锁失败
return false;
}
这个方案的优点是,巧妙移除expire单独设置过期时间的操作,把 过期时间放到setnx的value值
里面来。解决了方案一发生异常,锁得不到释放的问题。但是这个方案还有别的缺点:
必须要求分布式环境下,每个客户端的时间必须同步
。最终只能有一个客户端加锁成功,但是该客户端锁的过期时间,可能被别的客户端覆盖
。没有保存持有者的唯一标识
,可能被别的客户端 释放/解锁
。实际上,我们还可以使用Lua脚本来保证原子性(包含setnx和expire两条指令),lua脚本如下:
if redis.call('setnx',KEYS[1],ARGV[1]) == 1 then
redis.call('expire',KEYS[1],ARGV[2])
else
return 0
end;
加锁代码如下:
String lua_scripts = "if redis.call('setnx',KEYS[1],ARGV[1]) == 1 then" +
" redis.call('expire',KEYS[1],ARGV[2]) return 1 else return 0 end";
Object result = jedis.eval(lua_scripts, Collections.singletonList(key_resource_id), Collections.singletonList(values));
//判断是否成功
return result.equals(1L);
主从复制:指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master/Leader),后者称为从节点(Slave/Follower)。
Redis 提供了主从库模式,以保证数据副本的一致:
1、建立连接阶段(即准备阶段,slave连接master)
主库的 runID 和复制进度 offset 两个参数。
主库会在内存中用专门的 replication buffer(复制缓冲区),记录 RDB 文件生成后收到的所有写操作。
全量复制 与 增量复制(部分复制)
如果master数据量巨大,数据同步阶段应避开流量高峰期,避免造成master阻塞,影响业务正常执行
复制缓冲区大小设定不合理,会导致数据溢出。如进行全量复制周期太长,进行部分复制时发现数据已经存在丢失的情况,必须进行第二次全量复制,致使 slave陷入死循环状态
。
# 默认为1M
repl-backlog-size 1mb
master单机内存占用主机内存的比例不应过大,建议使用**50%-70%**的内存,留下30%-50%的内存 用于执行bgsave命令和创建复制缓冲区
。
从 Redis 2.8
开始,网络断了之后,主从库 会采用增量复制的方式
继续同步。增量复制只会把主从库网络断连期间主库收到的命令,同步给从库。
这里就会用到三个增量复制的实现细节:
复制积压缓冲区
:replication_backlog
对于复制偏移量:执行复制的双方,主从服务器都会维护一个复制偏移量,主服务器每次向从服务器传播n个字节的数据时,就将自己的肤质偏移量的值加上N,从服务器每次收到主服务器传播来的N个字节数据时,就将自己的复制偏移量的值加上N。
当主从库断连后,主库会把断连期间收到的写操作命令,写入 replication buffer
,同时也会把这些操作命令也写入 repl_backlog_buffer
这个缓冲区。
即同时主服务器进行命令传播期间(从服务器完成全量复制后,主服务器接受到写命令,会同时将命令传播到从服务器),不仅将写命令发送给所有服务器,还会将写命令写入复制积压缓冲区。
所以如果网络中断后,主从库的连接恢复之后,从库首先会给主库发送 psync 命令,并把自己当前的 slave_repl_offset 发给主库,主库会判断自己的 master_repl_offset 和 slave_repl_offset 之间的差距。
在网络断连阶段,主库可能会收到新的写操作命令,所以,一般来说,master_repl_offset 会大于 slave_repl_offset。此时,主库只用把 master_repl_offset 和 slave_repl_offset 之间的命令操作同步给从库就行。
repl_backlog_buffer 是一个环形缓冲区,主库会记录自己写到的位置,从库则会记录自己已经读到的位置。恢复时主库和从库之间相差的操作,在增量复制时,主库会把它们同步给从库。
问题:因为repl_backlog_buffer 是一个环形缓冲区,所以在缓冲区写满后,主库会继续写入,此时,就会覆盖掉之前写入的操作。
如果从库的读取速度比较慢,就有可能导致从库还未读取的操作被主库新写的操作覆盖了,这会导致主从库间的数据不一致。
解决:可以根据 Redis 所在服务器的内存资源再适当增加 repl_backlog_size 值, 比如说设置成缓冲空间大小的 4 倍
,另一方面,你可以考虑使用切片集群来分担单个主库的请求压力。
二者区别?
首先来说一下复制缓冲区。
导致复制缓冲区被写满而溢出
。一旦溢出
,主库就会关闭和从库的网络连接, 重新开始全量同步
。所以,我们可以通过调整 client-output-buffer-limit slave
这个配置项,来增加复制缓冲区的大小,以免复制缓冲区溢出。再来看看复制积压缓冲区。
时间过长
, 复制积压缓冲区可能被新写入的命令覆盖
。此时,从节点就没有办法和主节点进行增量复制了,而是 只能进行全量复制
。针对这个问题,应对的方法是调大复制积压缓冲区的大小REPLCONF ACK {offset}
哨兵(sentinel) 是一个分布式系统,用于对主从结构中的每台服务器进行监控,当出现故障时通过投票机制选择新的master并将所有slave连接到新的master。(监控和选择)
哨兵主要负责的就是三个任务:监控、选主(选择主库)和通知。
哨兵进程会使用 PING 命令检测它自己和主、从库的网络连接情况,用来判断实例的状态。如果哨兵发现主库或从库对 PING 命令的响应超时了,那么,哨兵就会先把它标记为“主观下线”。
通常会采用多实例组成的集群模式进行部署,这也被称为哨兵集群。引入多个哨兵实例一起来判断,就可以避免单个哨兵因为自身网络状况不好,而误判主库下线的情况。同时,多个哨兵的网络同时不稳定的概率较小,由它们一起做决策,误判率也能降低。
只有大多数的哨兵实例,都判断主库已经“主观下线”了,主库才会被标记为“客观下线”。
哨兵选择新主库的过程称为 “筛选 + 打分”
筛选:检查从库的当前在线状态,还要判断它之前的网络连接状态。如果从库总是和主库断连,而且断连次数超出了一定的阈值,我们就有理由相信,这个从库的网络状况并不是太好,就可以把这个从库筛掉了。
打分:依据从库优先级、从库复制进度以及从库 ID 号。
哨兵彼此之间建立连接形成集群:基于 pub/sub 机制(发布 / 订阅机制)的哨兵集群组成
就可以在主库上发布消息了
,比如说发布它自己的连接信息(IP 和端口)。同时,它也可以从主库上订阅消息,获得其他哨兵发布的连接信息
。当多个哨兵实例都在主库上做了发布和订阅操作后,它们之间就能知道彼此的 IP 地址和端口。只有订阅了同一个频道的应用,才能通过发布的消息进行信息交换。
把从库列表返回给哨兵
。接着,哨兵就可以根据从库列表中的连接信息,和每个从库建立连接,并在这个连接上持续地对从库进行监控。哨兵就是一个运行在特定模式下的 Redis 实例
,只不过它并不服务请求操作,只是完成监控、选主和通知的任务。所以,每个哨兵实例也提供 pub/sub 机制,客户端可以从哨兵订阅消息
。哨兵提供的消息订阅频道有很多,不同频道包含了主从库切换过程中的不同关键事件。哨兵集群在判断了主库“客观下线”后,经过 投票仲裁
,选举一个 Leader 出来,由它负责实际的主从切换,即由它来完成新主库的选择以及通知从库与客户端。
Redis Cluster采用虚拟槽分区方案,
实现思路:Redis集群 没用
一致性hash,而是引入了 哈希槽
的概念,Redis集群有16384个哈希槽, 每个key通过CRC16校验后对16384取模来决定放置哪个槽,集群的每个节点负责一部分hash槽。
优点:
是对16384取模
,而不是根据master数量
,这样原本在老的master上的数据不会因master的新增或减少而找不到。缺点:也就是集群功能限制的地方
key批量操作支持有限。
对于映射为不同slot值的key由于执行mset、mget等操作可能存在于多个节点上而不被支持。key事务操作支持有限。
多个key分布在不同节点上时无法使用事务功能。key作为数据分区的最小粒度,不能将一个大的键值对象如hash、list等映射到不同的节点。
不支持多数据库空间
。单机下Redis可以支持16个数据库,集群模式下只能使用一个数据库空间,即db0。复制结构只支持一层
,从节点只能复制主节点,不支持嵌套树状复制结构。Redis Cluster 实例以 Gossip 协议进行通信的机制:
Gossip 协议:
Gossip 协议可以保证在一段时间后,集群中的每一个实例都能获得其它所有实例的状态信息。
Redis集群 没用
一致性hash,而是引入了 哈希槽
的概念,Redis集群有16384个哈希槽, 每个key通过CRC16校验后对16384取模来决定放置哪个槽,集群的每个节点负责一部分hash槽。
CRC16校验:循环冗余校验码(Cyclic Redundancy Check)
节点取余分区方案:
一致性哈希分区方案
虚拟槽分区方案(Redis Cluster采用此方案)
简单点说就是使用常用的hash算法将key映射到一个具有232次方个桶空间中,即0-(232-1)的数字空间中。我们可以将其用一个首尾相连的闭合环形表示,如下图所示:
图中列出了一个虚拟的圆环,上面有0-232个节点位置。算法首先需要计算出存储节点在圆环上的位置。具体可以选择服务器的ip或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置。这一点是为了保证算法的分散性:节点的位置跟具体多少个节点没关系,只跟节点的内在特性有关系。
上图我们假设有4个节点:node1,node2,node3,node4。计算好他们的位置之后,接下来我们就需要就计算出各个不同的key的存储位置了:将key用同样的算法计算出hash值,从而确定其在数据环上的位置,然后从此位置沿着逆时针行走,遇到的第一个服务器就是该数据应该存储的节点。
Redis集群目前无法做数据库选择,默认在0数据库。
16384个
参考第四部分的redis过期数据删除策略
为了避免这种情况,建议是,在业务应用中使用 EXPIREAT/PEXPIREAT
命令,把数据的过期时间设置为具体的时间点,避免读到过期数据。
问题描述:
解决:缓存预热就是系统启动前,提前将相关的缓存数据直接加载到缓存系统。避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题!用户直接查询事先被预热的缓存数据!
问题描述:在一个 较短 的时间内,缓存中 较多 的key 集中过期,此周期内请求访问过期的数据,redis未命中,redis向数据库获取数据,数据库同时接收到大量的请求无法及时处理导致数据库崩溃。
解决方案:
setRedis(Key,value,time + Math.random() * 10000);
问题描述:Redis中某个key过期,该key访问量巨大,多个数据请求从服务器直接压到Redis后,均未命中Redis在短时间内发起了大量对数据库中同一数据的访问
解决方案:
问题描述:在正常的情况下,用户查询数据都是存在的,但是在异常情况下,缓存与数据都没有数据,但是用户不断发起请求,这样每次请求都会打到数据库上面去,这时的用户很可能是攻击者,攻击会导致数据库压力过大,严重会击垮数据库。
解决方案: