【Redis】Redis知识点阶段性总结

文章目录

  • 渐进式哈希
  • 数据结构
    • 压缩列表
    • 跳表
  • Redis为什么快
  • 持久化
    • AOF
    • RDB
  • 主从同步
    • 主从库间网络断了怎么办?
    • 哨兵机制
  • 切片集群
  • Redis内存碎片
  • Redis缓冲区
  • 内存淘汰
  • ACID
  • 删除策略
  • Redis Cluster
  • Redis6


对Redis中的一些知识点做的一些笔记总结

渐进式哈希

【Redis】Redis知识点阶段性总结_第1张图片

为了实现从键到值的快速访问,Redis 使用了一个哈希表来保存所有键值对。

【Redis】Redis知识点阶段性总结_第2张图片

你看,这个查找过程主要依赖于哈希计算,和数据量的多少并没有直接关系。也就是说,不管哈希表里有10 万个键还是100万个键,我们只需要一次计算就能找到相应的键。

当你往哈希表中写入更多数据时,哈希冲突是不可避免的问题。这里的哈希冲突,也就是指,两个key的哈希值和哈希桶计算对应关系时,正好落在了同一个哈希桶中。Redis 解决哈希冲突的方式,就是链式哈希。链式哈希也很容易理解,就是指同一个哈希桶中的多个元素用一个链表来保存,它们之间依次用指针连接。

但是,这里依然存在一个问题,哈希冲突链上的元素只能通过指针逐一查找再操作。如果哈希表里写入的数据越来越多,哈希冲突可能也会越来越多,这就会导致某些哈希冲突链过长,进而导致这个链上的元素查找耗时长,效率降低。对于追求“快”的 Redis 来说,这是不太能接受的。所以,Redis 会对哈希表做 rehash 操作。rehash 也就是增加现有的哈希桶数量,让逐渐增多的 entry 元素能在更多的桶之间分散保存,减少单个桶中的元素数量,从而减少单个桶中的冲突。

rehash过程涉及大量的数据拷贝,如果一次性把迁移完,会造成 Redis 线程阻塞,无法服务其他请求。此时,Redis 就无法快速访问数据了。
为了避免这个问题,Redis 采用了渐进式 rehash。

拷贝数据时,Redis 仍然正常处理客户端请求,每处理一个请求时,从哈希表 1中的第一个索引位置开始,顺带着将这个索引位置上的所有 entries 拷贝到哈希表 2 中;等处理下一个请求时,再顺带拷贝哈希表 1 中的下一个索引位置的
entries。

这样就巧妙地把一次性大量拷贝的开销,分摊到了多次处理请求的过程中,避免了耗时操作,保证了数据的快速访问。

数据结构

压缩列表

【Redis】Redis知识点阶段性总结_第3张图片

跳表

【Redis】Redis知识点阶段性总结_第4张图片

Redis为什么快

首先,我要和你理清楚一个事实,我们通常说,Redis 是单线程,主要是指 Redis 的网络 IO和键值对读写是由一个线程来完成的,这也是 Redis 对外提供键值存储服务的主要流程。但 Redis 的其他功能,比如持久化、异步删除、集群数据同步等,其实是由额外的线程执行的。

Linux 中的 IO 多路复用机制是指一个线程处理多个 IO 流,就是我们经常听到的select/epoll 机制。简单来说,在 Redis 只运行单线程的情况下,该机制允许内核中,同时存在多个监听套接字和已连接套接字。内核会一直监听这些套接字上的连接请求或数据请求。一旦有请求到达,就会交给 Redis 线程处理,这就实现了一个 Redis 线程处理多个
IO 流的效果。

正因为此,Redis 可以同时和多个客户端连接并处理请求,从而提升并发性。

为了在请求到达时能通知到 Redis 线程,select/epoll 提供了基于事件的回调机制,即针对不同事件的发生,调用相应的处理函数。

那么,回调机制是怎么工作的呢?其实,select/epoll 一旦监测到 FD 上有请求到达时,就会触发相应的事件。这些事件会被放进一个事件队列,Redis 单线程对该事件队列不断进行处理。这样一来,Redis 无需一直轮询是否有请求实际发生,这就可以避免造成 CPU 资源浪费。同时,Redis 在对事件队列中的事件进行处理时,会调用相应的处理函数,这就实现了基于事件的回调。因为 Redis 一直在对事件队列进行处理,所以能及时响应客户端请求,提升Redis 的响应性能。

【Redis】Redis知识点阶段性总结_第5张图片

持久化

AOF

AOF 日志记录是由主线程完成的

AOF是先执行命令,再写日志。因为这样不会阻塞当前的写操作。为了避免额外的检查开销,Redis 在向 AOF 里面记录日志的时候,并不会先去对这些命令进行语法检查。所以,如果先记日志再执行命令的话,日志中就有可能记录了错误的命令,Redis 在使用日志恢复数据时,就可能会出错。

而写后日志这种方式,就是先让系统执行命令,只有命令能执行成功,才会被记录到日志中,否则,系统就会直接向客户端报错。所以,Redis 使用写后日志这一方式的一大好处是,可以避免出现记录错误命令的情况。

如果刚执行完一个命令,还没有来得及记日志就宕机了。命令没有记入日志,就无法用日志进行恢复了。

AOF 重写机制

重写就是将多条命令 合并为了 一条。

AOF 重写并不会导致阻塞,和 AOF 日志由主线程写回不同,重写过程是由后台线程 bgrewriteaof 来完成的,这也是
为了避免阻塞主线程,导致数据库性能下降。

我把重写的过程总结为“一个拷贝,两处日志”。

【Redis】Redis知识点阶段性总结_第6张图片

【Redis】Redis知识点阶段性总结_第7张图片

RDB

和 AOF 相比,RDB 记录的是某一时刻的数据,并不是操作。

Redis 提供了两个命令来生成 RDB 文件,分别是 save 和 bgsave。

save:在主线程中执行,会导致阻塞;
bgsave:创建一个子进程,专门用于写入 RDB 文件,避免了主线程的阻塞,这也是Redis RDB 文件生成的默认配置。

Redis快照期间是可以处理写操作的。Redis 会借助操作系统提供的写时复制技术(Copy-On-Write, COW),在执行快照的同时,正常处理写操作。简单来说,bgsave 子进程是由主线程 fork 生成的,可以共享主线程的所有内存数据。bgsave 子进程运行后,开始读取主线程的内存数据,并把它们写入 RDB 文件。
此时,如果主线程对这些数据也都是读操作(例如图中的键值对 A),那么,主线程和bgsave 子进程相互不影响。但是,如果主线程要修改一块数据(例如图中的键值对 C),那么,这块数据就会被复制一份,生成该数据的副本。然后,bgsave 子进程会把这个副本数据写入 RDB 文件,而在这个过程中,主线程仍然可以直接修改原来的数据。

【Redis】Redis知识点阶段性总结_第8张图片

Redis 4.0 中提出了一个混合使用 AOF 日志和内存快照的方法。简单来说,内存快照以一定的频率执行,在两次快照之间,使用 AOF 日志记录这期间的所有命令操作。这样一来,快照不用很频繁地执行,这就避免了频繁 fork 对主线程的影响。而且,AOF日志也只用记录两次快照间的操作,也就是说,不需要记录所有操作了,因此,就不会出现文件过大的情况了,也可以避免重写开销。如下图所示,T1 和 T2 时刻的修改,用 AOF 日志记录,等到第二次做全量快照时,就可以清空 AOF 日志,因为此时的修改都已经记录到快照中了,恢复时就不再用日志了。
【Redis】Redis知识点阶段性总结_第9张图片

主从同步

Redis 提供了主从库模式,以保证数据副本的一致,主从库之间采用的是读写分离的方式

读操作:主库、从库都可以接收;
写操作:首先到主库执行,然后,主库将写操作同步给从库。

当我们启动多个 Redis 实例的时候,它们相互之间就可以通过 replicaof(Redis 5.0 之前使用 slaveof)命令形成主库和从库的关系,之后会按照三个阶段完成数据的第一次同步。

具体来说,从库给主库发送 psync 命令,表示要进行数据同步,主库根据这个命令的参数来启动复制。psync 命令包含了主库的 runID 和复制进度 offset 两个参数。

runID,是每个 Redis 实例启动时都会自动生成的一个随机 ID,用来唯一标记这个实例。当从库和主库第一次复制时,因为不知道主库的 runID,所以将 runID 设为“?”。offset,此时设为 -1,表示第一次复制。主库收到 psync 命令后,会用 FULLRESYNC 响应命令带上两个参数:主库 runID 和主库目前的复制进度 offset,返回给从库。从库收到响应后,会记录下这两个参数。这里有个地方需要注意,FULLRESYNC 响应表示第一次复制采用的全量复制,也就是说,
主库会把当前所有的数据都复制给从库。在第二阶段,主库将所有数据同步给从库。从库收到数据后,在本地完成数据加载。这个过程依赖于内存快照生成的 RDB 文件
【Redis】Redis知识点阶段性总结_第10张图片

主从级联模式分担全量复制时的主库压力

如果从库数量很多,而且都要和主库进行全量复制的话,就会导致主库忙于 fork 子进程生成 RDB 文件,进行数据全量同步。fork 这个操作会阻塞主线程处理正常请求,从而导致主库响应应用程序的请求速度变慢。此外,传输 RDB 文件也会占用主库的网络带宽,同样会给主库的资源使用带来压力。

可以使用“主 - 从 - 从”模式。缓解主库压力。

我们可以通过“主 - 从 - 从”模式将主库生成 RDB 和传输 RDB 的压力,
以级联的方式分散到从库上。
简单来说,我们在部署主从集群的时候,可以手动选择一个从库(比如选择内存资源配置较高的从库),用于级联其他的从库。然后,我们可以再选择一些从库(例如三分之一的从库),在这些从库上执行如下命令,让它们和刚才所选的从库,建立起主从关系。
【Redis】Redis知识点阶段性总结_第11张图片

主从库间网络断了怎么办?

刚开始的时候,主库和从库的写读位置在一起,这算是它们的起始位置。随着主库不断接
收新的写操作,它在缓冲区中的写位置会逐步偏离起始位置,我们通常用偏移量来衡量这
个偏移距离的大小,对主库来说,对应的偏移量就是 master_repl_offset。主库接收的新
写操作越多,这个值就会越大。
同样,从库在复制完写操作命令后,它在缓冲区中的读位置也开始逐步偏移刚才的起始位
置,此时,从库已复制的偏移量 slave_repl_offset 也在不断增加。正常情况下,这两个偏
移量基本相等。
【Redis】Redis知识点阶段性总结_第12张图片

主从库的连接恢复之后,从库首先会给主库发送 psync 命令,并把自己当前的
slave_repl_offset 发给主库,主库会判断自己的 master_repl_offset 和 slave_repl_offset
之间的差距。
在网络断连阶段,主库可能会收到新的写操作命令,所以,一般来说,master_repl_offset
会大于 slave_repl_offset。此时,主库只用把 master_repl_offset 和 slave_repl_offset
之间的命令操作同步给从库就行。
就像刚刚示意图的中间部分,主库和从库之间相差了 put d e 和 put d f 两个操作,在增量
复制时,主库只需要把它们同步给从库,就行了。

不过,有一个地方我要强调一下,因为 repl_backlog_buffer 是一个环形缓冲区,所以在缓冲区写满后,主库会继续写入,此时,就会覆盖掉之前写入的操作。如果从库的读取速度比较慢,就有可能导致从库还未读取的操作被主库新写的操作覆盖了,这时候就要全量复制了。
【Redis】Redis知识点阶段性总结_第13张图片

Redis 的主从集群可以提升数据可靠性,主节点在和从节点进行数据同步时,会使用两个缓冲区:复制缓冲区和复制积压缓冲区。
【Redis】Redis知识点阶段性总结_第14张图片
【Redis】Redis知识点阶段性总结_第15张图片

哨兵机制

哨兵进程在运行时,周期性地给所有的主从库发送 PING 命令,检测它们是否仍然在线运行。如果从库没有在规定时间内响应哨兵的 PING 命令,哨兵就会把它标记为“下线状态”;同样,如果主库也没有在规定时间内响应哨兵的 PING 命令,哨兵就会判定主库下线,然后开始自动切换主库的流程。

哨兵对主库的下线判断有“主观下线”和“客观下线”两种。

主从库切换时,新主库是由哨兵 Leader 来确定的,所以,哨兵集群需要先选出 Leader,再确定新主库。

哨兵 Leader 选举需要满足两个条件:一是要拿到半数以上的赞成票;二是,拿到的票数同时还需要大于等于哨兵配置文件中的 quorum 值

在判断主库是否下线时,不能由一个哨兵说了算,只有大多数的哨兵实例,都判断主库已经“主观下线”了,主库才会被标记为“客观下线”,这个叫法也是表明主库下线成为一个客观事实了。这个判断原则就是:少数服从多数。同时,这会进一步触发哨兵开始主从切换流程。

简单来说,“客观下线”的标准就是,当有 N 个哨兵实例时,最好要有 N/2 + 1 个实例判断主库为“主观下线”,才能最终判定主库为“客观下线”。这样一来,就可以减少误判的概率,也能避免误判带来的无谓的主从库切换。

我们可以分别按照三个规则依次进行三轮打分,这三个规则分别是从库优先级、从库复制进度以及从库 ID 号。

主从库同步时有个命令传播的过程。在这个过程中,主库会用master_repl_offset 记录当前的最新写操作在 repl_backlog_buffer 中的位置,而从库会用 slave_repl_offset 这个值记录当前的复制进度。有从库的 slave_repl_offset 最接近 master_repl_offset,那么它的得分就最高,可以作为新主库。
【Redis】Redis知识点阶段性总结_第16张图片

哨兵实例之间可以相互发现,要归功于 Redis 提供的 pub/sub 机制,也就是发布 / 订阅机制。

在主从集群中,主库上有一个名为“sentinel:hello”的频道,不同哨兵就是通过它来相互发现,实现互相通信的。

哨兵是如何知道从库的 IP 地址和端口的呢?

这是由哨兵向主库发送 INFO 命令来完成的。主库接受到这个命令后,就会把从库列表返回给哨兵。接着,哨兵就可以根据从库列表中的连接信息,和每个从库建立连接,并在这个连接上持续地对从库进行监控。

客户端可以从哨兵订阅消息。哨兵提供的消息订阅频道有很多,不同频道包含了主从库切换过程中的不同关键事件。

【Redis】Redis知识点阶段性总结_第17张图片
【Redis】Redis知识点阶段性总结_第18张图片
【Redis】Redis知识点阶段性总结_第19张图片

切片集群

Redis的键值对越多,响应的就会越慢。这跟 Redis 的持久化机制有关系。在使用 RDB 进行持久化时,Redis 会 fork 子进程来完成,fork 操作的用时和 Redis 的数据量是正相关的,而 fork 在执行时会阻塞主线程。数据量越大,fork 操作造成的主线程阻塞的时间越长。所以,在使用 RDB 对 25GB 的数据进行持久化时,数据量较大,后台运行的子进程在 fork 创建时阻塞了主线程,于是就导致Redis 响应变慢了。

具体的映射过程分为两大步:首先根据键值对的 key,按照 CRC16 算法计算一个 16 bit的值;然后,再用这个 16bit 值对 16384 取模,得到 0~16383 范围内的模数,每个模数代表一个相应编号的哈希槽。

Redis Cluster 方案提供了一种重定向机制,所谓的“重定向”,就是指,客户端给一个实例发送数据读写操作时,这个实例上并没有相应的数据,客户端要再给一个新实例发送操作命令。那客户端又是怎么知道重定向时的新实例的访问地址呢?当客户端把一个键值对的操作请求发给一个实例时,如果这个实例上并没有这个键值对映射的哈希槽,那么,这个实例就会给客户端返回下面的 MOVED 命令响应结果,这个结果中就包含了新实例的访问地址。

Redis内存碎片

Redis缓冲区

我们知道,Redis 是典型的 client-server 架构,所有的操作命令都需要通过客户端发送给服务器端。为了避免客户端和服务器端的请求发送和处理速度不匹配,服务器端给每个连接的客户端都设置了一个输入缓冲区和输出缓冲区,我们称之为客户端输入缓冲区和输出缓冲区。输入缓冲区会先把客户端发送过来的命令暂存起来,Redis 主线程再从输入缓冲区中读取命令,进行处理。当 Redis 主线程处理完数据后,会把结果写入到输出缓冲区,再通过输出缓冲区返回给客户端,如下图所示:

【Redis】Redis知识点阶段性总结_第20张图片

要查看和服务器端相连的每个客户端对输入缓冲区的使用情况,我们可以使用 CLIENT LIST 命令:
【Redis】Redis知识点阶段性总结_第21张图片

客户端输入缓冲区溢出的话,Redis 的处理办法就是把客户端连接关闭,结果就是业务程序无法进行数据存取了。
【Redis】Redis知识点阶段性总结_第22张图片

和输入缓冲区不同,我们可以通过 client-output-buffer-limit 配置项,来设置输出缓冲区的大小。

当我们给普通客户端设置缓冲区大小时,通常可以在 Redis 配置文件中进行这样的设置:

client-output-buffer-limit normal 0 0 0

其中,normal 表示当前设置的是普通客户端,第 1 个 0 设置的是缓冲区大小限制,第 2个 0 和第 3 个 0 分别表示缓冲区持续写入量限制和持续写入时间限制。

在全量复制过程中,主节点在向从节点传输 RDB 文件的同时,会继续接收客户端发送的写命令请求。这些写命令就会先保存在复制缓冲区中,等 RDB 文件传输完成后,再发送给从节点去执行。主节点上会为每个从节点都维护一个复制缓冲区,来保证主从节点间的数据同步。

我们可以使用 client-output-buffer-limit 配置项,来设置合理的复制缓冲区大小。设置的依据,就是主节点的数据量大小、主节点的写负载压力和主节点本身的内存大小。
我们通过一个具体的例子,来学习下具体怎么设置。在主节点执行如下命令:

config set client-output-buffer-limit slave 512mb 128mb 60

其中,slave 参数表明该配置项是针对复制缓冲区的。512mb 代表将缓冲区大小的上限设置为 512MB;128mb 和 60 代表的设置是,如果连续 60 秒内的写入量超过 128MB 的话,也会触发缓冲区溢出。

这个缓存区是用于全量同步的,增量同步用的是复制积压缓存区,要分清楚区别
【Redis】Redis知识点阶段性总结_第23张图片

复制积压缓冲区就是 repl_backlog_buffer

首先,复制积压缓冲区是一个大小有限的环形缓冲区。当主节点把复制积压缓冲区写满后,会覆盖缓冲区中的旧命令数据。如果从节点还没有同步这些旧命令数据,就会造成主从节点间重新开始执行全量复制。

内存淘汰

对于 Redis 来说,一旦确定了缓存最大容量,比如 4GB,你就可以使用下面这个命令来设定缓存的大小了:

CONFIG SET maxmemory 4gb

Redis 4.0 之前一共实现了 6 种内存淘汰策略,在 4.0 之后,又增加了 2 种策略。我们可以按照是否会进行数据淘汰把它们分成两类:

不进行数据淘汰的策略,只有 noeviction 这一种。会进行淘汰的 7 种其他策略。
【Redis】Redis知识点阶段性总结_第24张图片

我们再分析下 volatile-random、volatile-ttl、volatile-lru 和 volatile-lfu 这四种淘汰策略。它们筛选的候选数据范围,被限制在已经设置了过期时间的键值对上。也正因为此,即使缓存没有写满,这些数据如果过期了,也会被删除。
例如,我们使用 EXPIRE 命令对一批键值对设置了过期时间后,无论是这些键值对的过期时间是快到了,还是 Redis 的内存使用量达到了 maxmemory 阈值,Redis 都会进一步按照 volatile-ttl、volatile-random、volatile-lru、volatile-lfu 这四种策略的具体筛选规则进行淘汰。

volatile-ttl 在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除。
volatile-random 就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。
volatile-lru 会使用 LRU 算法筛选设置了过期时间的键值对。
volatile-lfu 会使用 LFU 算法选择设置了过期时间的键值对。

相对于 volatile-ttl、volatile-random、volatile-lru、volatile-lfu 这四种策略淘汰的是设置了过期时间的数据,allkeys-lru、allkeys-random、allkeys-lfu 这三种淘汰策略的备选淘汰数据范围,就扩大到了所有键值对,无论这些键值对是否设置了过期时间。它们筛选数据进行淘汰的规则是:

allkeys-random 策略,从所有键值对中随机选择并删除数据;
allkeys-lru 策略,使用 LRU 算法在所有数据中进行筛选。
allkeys-lfu 策略,使用 LFU 算法在所有数据中进行筛选。

这也就是说,如果一个键值对被删除策略选中了,即使它的过期时间还没到,也需要被删除。当然,如果它的过期时间到了但未被策略选中,同样也会被删除。

ACID

原子性

第一种情况是,在执行 EXEC 命令前,客户端发送的操作命令本身就有错误(比如语法错误,使用了不存在的命令),在命令入队时就被 Redis 实例判断出来了。对于这种情况,在命令入队时,Redis 就会报错并且记录下这个错误。此时,我们还能继续提交命令操作。等到执行了 EXEC 命令之后,Redis 就会拒绝执行所有提交的命令操作,返回事务失败的结果。这样一来,事务中的所有命令都不会再被执行了,保证了原子性。
【Redis】Redis知识点阶段性总结_第25张图片

第二种情况是,事务操作入队时,命令和操作的数据类型不匹配,但 Redis 实例没有检查出错误。但是,在执行完 EXEC 命令以后,Redis 实际执行这些事务操作时,就会报错。不过,需要注意的是,虽然 Redis 会对错误命令报错,但还是会把正确的命令执行完。在这种情况下,事务的原子性就无法得到保证了。

最后,我们再来看下第三种情况:在执行事务的 EXEC 命令时,Redis 实例发生了故障,导致事务执行失败。

在这种情况下,如果 Redis 开启了 AOF 日志,那么,只会有部分的事务操作被记录到AOF 日志中。我们需要使用 redis-check-aof 工具检查 AOF 日志文件,这个工具可以把已完成的事务操作从 AOF 文件中去除。这样一来,我们使用 AOF 恢复实例后,事务操作不会再被执行,从而保证了原子性。当然,如果 AOF 日志并没有开启,那么实例重启后,数据也都没法恢复了,此时,也就谈不上原子性了。

【Redis】Redis知识点阶段性总结_第26张图片

Redis 是保证一致性的。

隔离性

在这里插入图片描述
【Redis】Redis知识点阶段性总结_第27张图片

Redis本身就是缓存结构,是无法保证持久化的

删除策略

Redis 同时使用了两种策略来删除过期的数据,分别是惰性删除策略和定期删除策略。

【Redis】Redis知识点阶段性总结_第28张图片
【Redis】Redis知识点阶段性总结_第29张图片
【Redis】Redis知识点阶段性总结_第30张图片
【Redis】Redis知识点阶段性总结_第31张图片
【Redis】Redis知识点阶段性总结_第32张图片

Redis Cluster

客户端需要缓存哈希槽和实例的对应关系,无法直接通过哈希计算就知道数据在哪个实例,只能知道在哪个哈希槽

Redis 官方给出了 Redis Cluster 的规模上限,就是一个集群运行 1000 个实例。

实例间的通信开销会随着实例规模增加而增大,在集群超过一定规模时(比如 800 节点),集群吞吐量反而会下降。所以,集群的实际规模会受到限制。

为了让集群中的每个实例都知道其它所有实例的状态信息,实例之间会按照一定的规则进行通信。这个规则就是Gossip 协议。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kFeTvxbz-1664769104818)(https://secure2.wostatic.cn/static/daaPF7NnZaraur82Bvb6NG/image.png)]

Gossip 协议可以保证在一段时间后,集群中的每一个实例都能获得其它所有实例的状态信息。
这样一来,即使有新节点加入、节点故障、Slot 变更等事件发生,实例间也可以通过
PING、PONG 消息的传递,完成集群状态在每个实例上的同步。

经过刚刚的分析,我们可以很直观地看到,实例间使用 Gossip 协议进行通信时,通信开销受到通信消息大小和通信频率这两方面的影响,消息越大、频率越高,相应的通信开销也就越大。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-698UYo13-1664769104819)(https://secure2.wostatic.cn/static/iCxJCqr8GDz392BAw629x6/image.png)]

Redis6

在 Redis 6.0 中,非常受关注的第一个新特性就是多线程。

随着网络硬件的性能提升,Redis 的性能瓶颈有时会出现在网络 IO 的处理上,也就是说,单个主线程处理网络请求的速度跟不上底层网络硬件的速度。

Redis 的多 IO 线程只是用来处理网络请求的,对于读写命令,Redis 仍然使用单线程来处理。这是因为,Redis 处理请求时,网络处理经常是瓶颈,通过多个 IO 线程并行处理网络操作,可以提升实例的整体处理性能。而继续使用单线程执行命令操作,就不用为了保证 Lua 脚本、事务的原子性,额外开发多线程互斥机制了。这样一来,Redis 线程模型实现就简单了。

在 Redis 6.0 中,多线程机制默认是关闭的,如果需要使用多线程功能,需要在 redis.conf 中完成两个设置。

//设置 io-thread-do-reads 配置项为 yes,表示启用多线程。
io-threads-do-reads yes
//设置线程个数。一般来说,线程个数要小于 Redis 实例所在机器的 CPU 核个数,例
//如,对于一个 8 核的机器来说,Redis 官方建议配置 6 个 IO 线程。
io-threads 6

6.0 版本支持创建不同用户来使用 Redis。在 6.0 版本前,所有客户端可以使用同一个密码进行登录使用,但是没有用户的概念,而在 6.0 中,我们可以使用 ACL SETUSER命令创建用户。例如,我们可以执行下面的命令,创建并启用一个用户 normaluser,把它的密码设置为“abc”:

ACL SETUSER normaluser on > abc

【Redis】Redis知识点阶段性总结_第33张图片
【Redis】Redis知识点阶段性总结_第34张图片
【Redis】Redis知识点阶段性总结_第35张图片

你可能感兴趣的:(Redis,redis,缓存,数据库)