Redis:基于内存的键值存储系统,通常用作高性能的数据库、缓存和消息队列代理,是互联网广泛应用的存储中间件
特点:基于内存存储,读写性能高
Redis与MySQL区别
作为一款高性能的数据库,Redis适用的场景很多
Redis有5种基本常用数据类型:
单点(单节点)
单点Redis存在的主要缺陷
Redis中的持久化机制有两种
在Redis4.0支持RDB与AOF混合使用
RDB:Redis默认持久化机制,将内存中的数据以二进制格式快照的方式保存到硬盘的RDB文件中。
触发机制
执行指令,或者基于指定(默认)的时间间隔,指定修改次数触发。
1. save指令:输入save,立即执行一次RDB
save指令会导致主进程执行RDB,其他所有指令会被阻塞,适用于数据迁移。
2. bgsave指令:输入bgsave,开启异步RDB
3. Redis停机:在Redis停机之前,会自动执行一次save指令,实现持久化机制
4. 触发RDB条件:Redis的conf文件中可以修改RDB触发条件
# 900秒内,如果至少有1个key被修改,则执行bgsave , 如果是save "" 则表示禁用RDB
save 900 1
save 300 10
save 60 10000
优点
缺点
AOF:以日志的形式记录每个操作,将操作追加到文件末尾,类似事务日志
触发机制
可以配置为每个写操作或每秒触发一次
Redis中,AOF默认是关闭状态,需要手动修改conf配置文件来开启AOF
# 是否开启AOF功能,默认是no
appendonly yes
# AOF文件的名称
appendfilename "appendonly.aof"
AOF的指令记录评率也可以通过conf文件配置
# 表示每执行一次写命令,立即记录到AOF文件
appendfsync always
# 写命令执行完先放入AOF缓冲区,然后表示每隔1秒将缓冲区数据写到AOF文件,是默认方案
appendfsync everysec
# 写命令执行完先放入AOF缓冲区,由操作系统决定何时将缓冲区内容写回磁盘
appendfsync no
AOF文件重写
AOF会记录每一次操作,同时会出现一个问题:如果对同一个key多次写操作,存储量变大,造成资源浪费,只有最后一次写操作才会有意义。
通过bgrewriteaof指令,可以让AOF文件执行重写功能,达到存储最后一次写操作。
配置自动重写
在redis.conf中可以配置阈值,使Redis在触发阈值时自动重写AOF文件
# AOF文件比上次文件 增长超过多少百分比则触发重写
auto-aof-rewrite-percentage 100
# AOF文件体积最小多大以上才触发重写
auto-aof-rewrite-min-size 64mb
优点
缺点
主从:主从集群,提高Redis的可用性和扩展性
主从第一次建立连接时,会自动执行全量同步,将主节点(master)的所有数据都拷贝给从节点(slave)
主从集群数据同步具体实现流程
流程理解
最初的slave也是一个全新的集群(master),有自己的replid和offset,当它变成slave,与master建立起连接,发送自己的replid与offset到master。
这时master会对传来的replid和offset进行判断,如果和自己的不同,则说明它是一个全新的集群,就会将自己的replid和offset发送给新集群,并对其进行全量同步,然后新集群会将replid保存到本地,这样slave与master的replid一致了。
因此,master判断一个节点是否是第一次同步,判断的是replid是否一致。
知识点补充
Replication id:简写为replid,数据集的标记,id一致则说明是同一数据集。每一个master都有唯一的replid,slave则会继承master节点的replid。
offset: 偏移量,随着记录在repl_baklog中的数据增多而逐渐增大。slave完成同步时也会记录当前同步的offset。如果slave的offset小于master,说明slave数据落后于master,需要更新。
全量同步: 主从第一次连接所做的同步就是全量同步。master将完整数据生成RDB,发送到slave,后续指令则记录在repl_baklog,逐个发送给每个slave。
增量同步: 在现有的基础上,更新slave与master存在差异的部分数据,如下图所示
当主从集群的主节点故障(宕机)时,从节点可以自动选举出一个新的主节点。
从节点根据优先级、复制偏移量等因素选择新的主节点,当主节点恢复正常后,它将变为从节点,并同步新主节点的数据。
哨兵(Sentinel):哨兵集群,通过监控和自动故障转移来保证Redis的可靠性
组成
职责
哨兵存在意义就是为了监控Redis主从集群的运行情况,在master或slave宕机的时候,进行故障的恢复。
一旦发现master故障,Sentinel需要在slave中选择一个相近的作为新的master。
master选举流程
master切换流程
主从、哨兵解决了redis的高并发写,单点故障,但是还有两个常见的问题并没有解决:
这时就用到了一个新的集群:分片集群(cluster)
分片特征
cluster的存在意义是为了解决单点reids的存储与并发问题,因此需要把数据分散到各个master,类似数据库的分库。
cluster的分片策略有如下几种种:
哈希槽:redis集群会预先分好16384(0-16383)个插槽(hash slot),当需要在redis集群放置一个key-value时,会根据CRC16算法得到相应的值,再决定将这个key放置在哪个插槽中。
假设主节点的数量为3,将redis集群的16384个槽位按自定义的规则区分配这三个节点,每个master复制一份槽位。
节点1槽位:0 - 5460
节点2槽位:5461 - 10922
节点3槽位:10923 - 16383
数据中的key与插槽绑定,而不是与节点,redis会根据key的有效部分计算插槽值。
注意!!!
slave是没有槽位的,只有master才会有槽位。
cluster也相应的有自己的故障处理机制
当一个master节点宕机或下线,cluster会使用复制机制保证数据的安全,sentinel会复制主节点的数据,当master故障,slave会被提升为新的master,故障的master恢复后,变为新的slave,并同步新的master数据。
正常三节点cluster
7001、7002、7003都是master,现在让7002宕机
cluster允许动态添加或删除节点
什么是分布式锁?
分布式环境中,由于多个进程或节点之间的通信延迟、网络分区等因素影响,传统的单机锁机制已经无法满足分布式系统的需求,因此,分布式锁通常基于分布式存储系统或数据库等实现。
分布式锁核心:多个进程或节点同时访问共享的资源时,分布式锁能够确保只有一个进程或节点获取到锁(所有人用同一把锁),锁住线程,让程序串行执行,避免竞争冲突。
分布式锁的分类
MySQL锁:在数据库的层面,使用数据库的事务和行级锁来实现并发控制。
Redis锁与ZooKeeper锁:分布式储存系统层面:基本都基于它们的原子性操作和特性实现
注:
三种锁各有优缺,分布式系统存在CAP情况,任何一个分布式系统最多满足两种特效,无法同时满足三种特性。
Redis分布式锁:利用redis提供的原子操作和特性来实现的一种分布式锁机制,用于解决多个线程或者线程间的互斥访问问题。
Redis锁核心依旧是让多个线程使用同一把锁,防止资源共抢的情况。
Redis锁核心思路
获取锁
互斥特性:确保只能有一个线程获取锁
非阻塞特性:尝试一次,成功返回true,失败返回false
释放锁
SETNX命令锁:利用SETNX命令的原子性,通过判断返回值来确定是否成功获取到锁。
简单来说就是:插入key成功,表示获得锁,返回1;如果有人插入成功了,其他人则不能再次插入,必须等前面的人释放锁后才可继续插入,这时失败会返回0。
获取锁
# 添加锁,利用setnx的互斥特性
SETNX lock thread1
# 添加锁,NX是互斥,EX是设置超时时间
SET lock thread1 NX EX 10
释放锁
# 释放锁,删除即可
DEL Key
# 添加锁过期时间,避免服务宕机引起的死锁
EXPIRE lock 10
在Java中创建setnx锁
import org.springframework.data.redis.core.StringRedisTemplate;
import java.util.concurrent.TimeUnit;
/**
* 创建setnx锁
*/
public class RedisSetNxLock {
//定义锁的名称
private final String name;
private final StringRedisTemplate stringRedisTemplate;
public RedisSetNxLock(String name, StringRedisTemplate stringRedisTemplate) {
this.name = name;
this.stringRedisTemplate = stringRedisTemplate;
}
//定义当前key的前缀,大小写快捷键ctrl+shift+u
private static final String KEY_PREFIX="lock:";
/**
* 获取锁
*
* @param timeoutsec key的过期时间
* @return true表示拿到锁,false表示没有拿到锁
*/
public boolean tryLock(Long timeoutsec) {
//2.获取当前线程的id作为value值,保证唯一性
long threadId = Thread.currentThread().getId();
/**
* 1.获取锁
* setIfAbsent(K key, V value, long timeout, TimeUnit unit)
*
key –参数1表示redis中的key
value – 参数2表示redis中存储的值
timeout – 参数3表示key的过期时间
unit – 参数4表示时间单位
*/
Boolean flag = stringRedisTemplate.opsForValue().setIfAbsent(KEY_PREFIX + name, threadId + "", timeoutsec, TimeUnit.MINUTES);
/**
* 这个是为了防止类型的拆箱,如果返回值为null的话,boolean类型会报错
* 意思:如果相等于则返回true,不想等于返回false,如果flag=null的话,也是返回false;
*/
return Boolean.TRUE.equals(flag);
}
/**
* 释放锁
*
*/
public void unLock() {
//通过手动释放锁
stringRedisTemplate.delete(KEY_PREFIX+name);
}
}
redis锁的原子性问题
现在线程1持有锁,执行业务逻辑过程中,准备删锁,而且已经走到了条件判断的过程中,但此时他的锁到期了,也会接着执行,但此时线程2已经进来了,而恰巧线程1的卡顿结束后,执行删除锁,这样的话相当于条件判断并没有起到作用,这就是redis锁的原子性问题。
这种情况可以通过Lua脚本锁来解决。
Lua脚本锁:用lua去编写多条redis语句,确保多条命令执行时的原子性。
Lua脚本:一种轻量级的嵌入式脚本语言,常用于扩展应用程序的逻辑和功能。
RedLock算法锁:Redlock在redis实例集群上实现的一种分布式锁算法,使用多把锁来防止单节点redis分布式锁宕机的问题。
Redlock算法的思路
所以,Redlock算法与传统SETNX的区别是:在多数节点成功获取或解锁后才被认为有效,即使小部分的节点宕机,也不会影响到其他分布式锁的可用性。
SETNX锁的缺陷
重入问题是指获得锁的线程可以再次进入到相同的锁代码中,可重入锁的意义在于防止死锁。
比如HashTable这样的代码,它的方法都是使用synchronized修饰的:假设它在一个方法内,调用另一个方法,如果此时它不可重入,就死锁了,所以可重入锁的主要意义是防止死锁,synchronized和lock锁都是可重入的。
没有超时释放机制:SETNX锁是没有内置的超时机制的,即如果一个用户得到锁,在操作过程中宕机了,其他客户端就无法获取锁了,又导致了死锁,所以每次使用SETNX锁时,都需要自己手动设置锁过期时间。
锁释放异常:如果用户已经获取锁,在释放锁前异常宕机,其他客户端无法判断锁是否释放,导致其他线程阻塞。
例如:redis提供了master-slave,向集群写数据时,master要异步的将数据同步给slave,而同步之前万一master宕机,就会出现死锁。
为了解决这些问题,可以使用Redission框架
Redission:分布式对象存储和服务的框架,基于Redis实现。
Redission提供了多种分布式锁的实现方式
前置配置
创建Redis分布式锁
import org.redisson.Redisson;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.redisson.config.Config;
public class RedissonLockExample {
public static void main(String[] args) {
// 创建Redisson配置对象
Config config = new Config();
config.useSingleServer().setAddress("redis://127.0.0.1:6379");
// 创建Redisson客户端
RedissonClient redisson = Redisson.create(config);
// 获取锁对象
RLock lock = redisson.getLock("myLock");
try {
// 尝试获取锁,并设置锁的超时时间为10秒
boolean locked = lock.tryLock(10, TimeUnit.SECONDS);
if (locked) {
// 成功获取到锁,执行业务逻辑
System.out.println("获取到锁,开始执行业务逻辑");
Thread.sleep(5000); // 模拟业务逻辑处理时间
} else {
// 获取锁失败,执行相应的处理逻辑
System.out.println("获取锁失败,执行相应的处理逻辑");
}
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
// 释放锁
lock.unlock();
System.out.println("释放锁");
}
// 关闭Redisson客户端
redisson.shutdown();
}
}
创建RedLock分布式锁
import org.redisson.Redisson;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.redisson.config.Config;
import java.util.concurrent.TimeUnit;
public class RedissonLockExample {
public static void main(String[] args) {
// 创建Redisson配置对象
Config config1 = new Config();
config1.useSingleServer().setAddress("redis://127.0.0.1:6379");
Config config2 = new Config();
config2.useSingleServer().setAddress("redis://127.0.0.1:6380");
Config config3 = new Config();
config3.useSingleServer().setAddress("redis://127.0.0.1:6381");
// 创建Redisson客户端
RedissonClient redisson1 = Redisson.create(config1);
RedissonClient redisson2 = Redisson.create(config2);
RedissonClient redisson3 = Redisson.create(config3);
// 获取锁对象
RLock lock1 = redisson1.getLock("myLock");
RLock lock2 = redisson2.getLock("myLock");
RLock lock3 = redisson3.getLock("myLock");
// 尝试获取锁
try {
boolean locked = RedissonRedLock.tryLock(lock1, lock2, lock3, 10, TimeUnit.SECONDS);
if (locked) {
// 成功获取到锁,执行业务逻辑
System.out.println("获取到锁,开始执行业务逻辑");
Thread.sleep(5000); // 模拟业务逻辑处理时间
} else {
// 获取锁失败,执行相应的处理逻辑
System.out.println("获取锁失败,执行相应的处理逻辑");
}
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
// 释放锁
RedissonRedLock.unlock(lock1, lock2, lock3);
System.out.println("释放锁");
}
// 关闭Redisson客户端
redisson1.shutdown();
redisson2.shutdown();
redisson3.shutdown();
}
}
Watchdog(看门狗):Redis分布式锁中的一种机制机制,用于在分布式环境下对锁自动续期,以防止锁过期而被自动释放。
每个redis锁都有一个有效期,在锁的有效期内,有的线程会因为执行时间较长或遇到阻塞问题,可能会导致锁的持有时间超过了预期,从而造成其他线程在有效期内无法获取到锁,所以Redission优化了这一点,推出看门狗机制,定期延续锁期限,确保锁的延续。
机制
Redission的看门狗使用了Redis的PTTL
命令来获取锁的剩余有效期,并在适当的时候发送PEXPIRE
命令进行续期,默认续期时间是锁有效期的2/3,且续期操作在每次续期间隔的一半时间内执行,以此确保连续续期。
适用场景
分布式调度:通过watchdog延续锁,确保任务调度中,同一时刻只有一个节点执行任务,保持锁的有效性,防止任务执行时间过长导致锁被自动释放。
缓存预热:通过watchdog延续锁,确保在缓存预热过程中,锁的有效性,实现只有一个节点进行缓存数据的加载和初始化。
分布式限流:通过watchdog延续锁,确保在控制某个资源或服务并发访问量的时候,锁的有效性,防止因锁过期而导致并发访问超出限制。
分布式事务管理:通过watchdog延续锁,确保多个事务完成前多把锁保持有效,防止锁过期导致数据不一致。
Redis常用策略:
在使用redis的时候,通常会设置数据的过期时间,过了有效期,依旧留在redis内部,这样不断地累积,redis缓存过多,会导致性能降低,为了避免这种现象发生,redis提供了清除过期数据的策略。
redis的数据过期策略:
定时删除策略
通过设置键过期时间来控制数据生命周期,当键的过期时间到达,redis自动删除该键。
以Lettuce客户端为例
import io.lettuce.core.RedisClient;
import io.lettuce.core.api.StatefulRedisConnection;
import io.lettuce.core.api.sync.RedisCommands;
public class RedisExample {
public static void main(String[] args) {
// 创建RedisClient实例
RedisClient client = RedisClient.create("redis://localhost:6379");
// 创建Redis连接
try (StatefulRedisConnection<String, String> connection = client.connect()) {
// 获取同步的RedisCommands对象
RedisCommands<String, String> commands = connection.sync();
// 设置键的过期时间(以秒为单位)
String key = "myKey";
int seconds = 60; // 设置为60秒后过期
commands.expire(key, seconds);
} finally {
// 关闭RedisClient连接
client.shutdown();
}
}
}
惰性刪除策略
在访问键的时候检查其过期时间,并在需要时进行删除的策略。
以Lettuce客户端为例
connec
t方法建立redis连接RedisReactiveCommands
对象expire
命令设置键的过期时间(这里使用了Mono.when
和block
方法来合并和等待执行结果)。ttl
命令来获取键的剩余过期时间,通过map
操作将过期时间小于0的结果映射为true
,默认值设为true
,并返回Mono
类型,然后通过订阅该Mono
对象,在延迟一段时间后输出过期状态。Mono.when
和block
方法合并和等待删除命令的执行结果。import io.lettuce.core.RedisClient;
import io.lettuce.core.api.StatefulRedisConnection;
import io.lettuce.core.api.reactive.RedisReactiveCommands;
import reactor.core.publisher.Mono;
import java.time.Duration;
import java.util.concurrent.TimeUnit;
public class RedisExample {
public static void main(String[] args) throws InterruptedException {
// 创建RedisClient实例
RedisClient client = RedisClient.create("redis://localhost:6379");
// 创建Redis连接
try (StatefulRedisConnection<String, String> connection = client.connect()) {
// 获取响应式RedisReactiveCommands对象
RedisReactiveCommands<String, String> reactiveCommands = connection.reactive();
// 定义键和过期时间
String key = "myKey";
int expirationSeconds = 60; // 过期时间60秒
// 设置键
Mono<String> setCommand = reactiveCommands.set(key, "myValue");
// 设置过期时间并订阅结果
Mono<String> expireCommand = reactiveCommands.expire(key, expirationSeconds);
// 合并执行结果
Mono.when(setCommand, expireCommand).block();
// ... 执行其他操作 ...
// 检查键是否过期
Mono<Boolean> isExpired = reactiveCommands.ttl(key)
.map(expiration -> expiration < 0)
.defaultIfEmpty(true);
// 延迟一段时间后输出过期状态
Thread.sleep(Duration.ofSeconds(5).toMillis());
isExpired.subscribe(expired -> {
if (expired) {
System.out.println("Key has expired.");
} else {
System.out.println("Key has not expired yet.");
}
});
// 删除键
Mono<Long> delCommand = reactiveCommands.del(key);
// 合并执行结果
Mono.when(delCommand).block();
} finally {
// 关闭RedisClient连接
client.shutdown();
}
}
}
定期删除策略
每隔一段时间,随机检查一批Key是否过期,如果Key已过期,则redis会删除该键,保证过期键在读取时被删除,不会对未访问的键进行删除。
以Lettuce客户端为例
注意!
在使用Lettuce库中,异步操作通常会立即返回,需要通过await()方法来等待异步操作完成,或使用响应式编程模型来处理异步结果。在示例中,通过flushCommands().await(Duration.ofSeconds(1))来等待异步删除操作完成。
import io.lettuce.core.RedisClient;
import io.lettuce.core.api.StatefulRedisConnection;
import io.lettuce.core.api.async.RedisAsyncCommands;
import io.lettuce.core.api.reactive.RedisReactiveCommands;
import io.lettuce.core.api.sync.RedisCommands;
import io.lettuce.core.scan.ScanCursor;
import io.lettuce.core.scan.ScanIterator;
import java.time.Duration;
public class RedisExample {
public static void main(String[] args) {
// 创建RedisClient实例
RedisClient client = RedisClient.create("redis://localhost:6379");
// 创建连接
try (StatefulRedisConnection<String, String> connection = client.connect()) {
// 使用异步命令处理
RedisAsyncCommands<String, String> asyncCommands = connection.async();
// 定期删除过期键
ScanCursor scanCursor = ScanCursor.INITIAL;
ScanIterator<String> scanIterator = ScanIterator
.scan(asyncCommands, ScanArgs.Builder.matches("*").count(100).build());
while (scanIterator.hasNext()) {
scanCursor = scanIterator.next();
for (String key : scanIterator.getKeys()) {
// 检查是否过期
RedisCommands<String, String> syncCommands = connection.sync();
if (syncCommands.ttl(key) < 0) {
// 删除过期键
asyncCommands.del(key);
}
}
}
// 同步删除操作
asyncCommands.flushCommands().await(Duration.ofSeconds(1));
} finally {
// 关闭连接
client.shutdown();
}
}
}
延迟过期策略
当一个键到达有效期时,redis不会立即执行删除,而是将其标记为"待删除",等后台的异步任务定期清理这些待删除键。
在Redis中,没有内置的延迟过期策略,通过Scored Sorted Set(有序集合)来实现一种类似的延迟过期策略
以Lettuce客户端为例
使用一个有序集合delayedKeys来存储需要延迟过期的键。调用zadd方法将键添加到有序集合中,设置相关的过期时间。通过zadd命令,键的过期时间存储为成员的分数,使用当前时间戳加上延迟秒数计算得到,以毫秒为单位。
在执行其他操作时,可以使用zrank方法来检查键是否过期。如果返回值不等于-1,则表示键还未过期。如果返回值等于-1,则表示键已过期。
最后,在适当的时候可以使用del命令从Redis中删除键,并调用zrem命令从有序集合中移除该键。
import io.lettuce.core.RedisClient;
import io.lettuce.core.api.StatefulRedisConnection;
import io.lettuce.core.api.sync.RedisCommands;
import java.time.Duration;
public class RedisExample {
public static void main(String[] args) {
// 创建RedisClient实例
RedisClient client = RedisClient.create("redis://localhost:6379");
// 创建Redis连接
try (StatefulRedisConnection<String, String> connection = client.connect()) {
// 获取同步的RedisCommands对象
RedisCommands<String, String> commands = connection.sync();
// 定义键和过期时间
String key = "myKey";
int delayInSeconds = 60; // 延迟60秒过期
// 设置键并延迟过期
commands.zadd("delayedKeys", System.currentTimeMillis() + (delayInSeconds * 1000), key);
// ... 执行其他操作 ...
// 检查键是否过期
if (!commands.zrank("delayedKeys", key).equals(-1L)) {
// 键还未过期,执行相应操作
System.out.println("Key has not expired yet.");
} else {
// 键已过期,执行相应操作
System.out.println("Key has expired.");
}
// 删除过期键
commands.del(key);
// 在有序集合中移除该键
commands.zrem("delayedKeys", key);
} finally {
// 关闭RedisClient连接
client.shutdown();
}
}
}
当Redis的内存空间不足时,向Redis中添加新的Key,那么Redis就会按照某种规则将内存中的数据删除,以便新的数据存入进来,这种数据的删除规则就称为内存的淘汰策略。
常见的数据淘汰策略
淘汰具有过期时间的数据
淘汰全库数据
不淘汰
常见配置
maxmemory-policy noeviction # 配置淘汰策略
maxmemory ?mb # 最大可使用内存,即占用物理内存的比例,默认为0,表示不限制。生产环境通常设置在50%以上。
maxmemory-samples count # 设置redis需要检查key的个数
缓存穿透:指客户端请求的数据在缓存中和数据库中都不存在,请求穿过缓存,冲击数据库。
当客户端访问数据时,先请求redis,但redis此时并没有数据,那么请求就会继续访问到数据库,但此时数据库中也没有该数据,这个数据就穿透了缓存,直接访问数据库,而数据库承载的并发又远不如redis高,如果大量的请求同时访问这种不存在的数据,那么数据库受到的压力会非常大。
缓存穿透解决方案
解决方案 | 优点 | 缺点 |
---|---|---|
缓存空对象 | 实现简单,维护方便 | 额外的内存消耗,可能造成短期的不一致 |
布隆过滤器 | 内存占用较少,没有多余的key | 实现复杂,存在误判可能 |
当访问一个不存在的数据时,把数据存入到redis中,设置为null,这样下次访问到这个不存在的数据时,就会在redis中找到这个数据,防止请求进入数据库。
通过一个庞大的二进制数据,使用哈希思想去判断当前这个要查询的数据是否存在。
注意:布隆过滤器也会存在误判,因为它用的是哈希思想,可能会有哈希冲突的情况发生。
关于布隆过滤器
布隆过滤器(Bloom Filter)是 Redis 4.0 版本提供的新功能,它被作为插件加载到 Redis 服务器中,给 Redis 提供强大的去重功能
布隆过滤器(Bloom Filter)是一个高空间利用率的概率性数据结构,由二进制向量(即位数组)和一系列随机映射函数(即哈希函数)两部分组成。
布隆过滤器使用exists()
来判断某个元素是否存在于自身结构中。当布隆过滤器判定某个值存在时,其实这个值只是有可能存在;当它说某个值不存在时,那这个值肯定不存在,这个误判概率大约在 1% 左右。
缓存雪崩:指同一段时间内大量的缓存key同时失效(过期或者redis服务宕机),导致大量的请求直击数据库,给数据库造成巨大压力。
解决方案
缓存击穿:一个被高并发访问且缓存重建业务较为复杂的key突然失效,那么高并发请求就会瞬间直达数据库,这就叫缓存击穿。
如下图所示
假设:线程1在查询缓存没有命中,会去查数据库,然后将数据缓存到redis中,如果线程1走完了这个逻辑,那么其他线程再去执行的时候就会从缓存中加载这些数据了。
但假设,在线程1没有走完这些逻辑的时候,后续的线程2,3,4同时过来访问这个业务,那么此时线程2,3,4就不能从缓存中获取数据了,没有查询到缓存数据,那么同一时间去访问数据库,又对数据库造成了冲击。
假如线程1过来访问
但是此时线程2如果在线程1没有执行完业务之前来访问的话
那么此时,就形成了只能有一个线程来访问业务,也就是一个一个的访问数据库,从而避免了访问数据库的压力,但是这也会影响查询的性能,因为此时会让查询的性能从并行变成了串行,此时性能较差。
缓存击穿原因分析:
我们之所以会出现这个缓存击穿问题,主要原因是在于我们对key设置了过期时间,假设我们不设置过期时间,其实就不会有缓存击穿的问题,但是不设置过期时间,这样数据不就一直占用我们内存了吗,我们可以采用逻辑过期方案。
缓存击穿分案分析:
1、我们把过期时间设置在 redis的value中,注意:这个过期时间并不会直接作用于redis,而是我们后续通过逻辑去处理。
假如:线程1来访问
假如:此时线程3来访问(线程3访问的时机是线程2刚开启,还没有释放锁)
假如:此时线程4来访问,线程4访问的时机是线程2已经释放锁资源了,那么线程4就可以直接从缓存中获取最新数据(该数据,逻辑时间并未过期)
这种方案巧妙在于,异步的构建缓存,缺点在于在构建完缓存之前,返回的都是脏数据。
方案对比
互斥锁方案:由于保证了互斥性,所以数据一致,且实现简单,因为仅仅只需要加一把锁而已,也没其他的事情需要操心,所以没有额外的内存消耗,缺点在于有锁就有死锁问题的发生,且只能串行执行性能肯定受到影响。
逻辑过期方案: 线程读取过程中不需要等待,性能好,有一个额外的线程持有锁去进行重构数据,但是在重构数据完成前,其他的线程只能返回之前的数据,且实现起来麻烦。