你可以不用mysql,但不能不要redis
阅读完本文要搞懂的东西
使用场景 数据类型
在这里一次罗列所有知识点
分布式缓存
单节点redis存在的的问题
redis是基于内存的,难以满足海量数据存取需求
(主从集群)(分片集群存储到不同服务器,动态扩容)
redis数据在内存会丢失
(redis持久化)
故障恢复
(redis哨兵机制)
redis的分片服务器数量,三主三从
Redis的通用命令是不分数据类型的,都可以使用的命令:
Redis 中字符串类型常用命令:
Redis hash 是一个string类型的 field 和 value 的映射表,hash特别适合用于存储对象,常用命令:
Redis 列表是简单的字符串列表,按照插入顺序排序,常用命令:
Redis set 是string类型的无序集合。集合成员是唯一的,这就意味着集合中不能出现重复的数据,常用命令:
Redis有序集合是string类型元素的集合,且不允许有重复成员。每个元素都会关联一个double类型的分数。常用命令:
常用命令:
全称Redis Database Backup file (redis数据备份文件)简单来说就是在触发条件把数据库快照存到安装目录,连接到redis使用save命令会存到本地,但是redis是单线程的,这会使得执行快照时主线程会停止(此时所有资源用于执行save,无法再存储),建议在快关机的时候使用
另外一命令是bgsave,是由子进程bgsave执行的,不会使得数据库不可用
但是bgsave会使得fork主进程得到子进程,子进程共享主进程的内存数据。完成fork之前,主进程无法进行数据库操作,fork结束子进程运行才会进行操作
为了保证子进程和主进程读写一致,每当主进程出现修改会复制页表使得子进程读写的数据同步,子进程会重新进行bgsave(copyandwrite)。出现的问题是子进程每次复写的时候都会占用内存,比如原数据库16G,复写会占32G
(有空看看copyandwritelist,原理差不多)
redis有触发持久化机制,在redis.conf文件或者服务器停止时
也可以把文件保存在其他目录或压缩,推荐不压缩,因为磁盘不要钱
Append Only File(追加文件)。redis会把写的每一个命令记录在AOF文件,可以看作命令日志文件
当redis出现故障会把这个命令文件从头到尾读一遍,就做到了数据库恢复
默认这个机制是关闭的,需要修改redis.conf
记录频率也可以配置
AOF的弊端,覆盖相同key下的value的步骤在读取时会被重做,浪费资源
解决办法 执行bgrewriteaof命令
开启配置后在触发阈值时redis会自动执行该命令
工作中怎么去用
单点的redis并发能力有上限,所提需要搭建主从,5.0前从节点叫slave,以后叫replica
优点提高并发能力,缺点存储能力无法提高
从读写取(二八原则:访问80%是读20%是写)
如何判断从库是第一次访问主库
判断offset,当从库offset完全被主库覆盖则做全量同步
因此slave做数据同步,必须向master声明自己的replication和offset,master才能判断需要同步那些数据
流程总结如下
主从第一次是全量同步,但如果slave重启后同步则会进行增量同步
将offset理解成一个环,slave和master在offset差距的部分就是我们需要做增量同步的部分
repl_baklog大小有上限,写满后会覆盖最早的数据。如果slave断开时间过久,导致尚未备份的数据被覆盖,则无法基于log做增量同步,只能再次全量同步。
在master中配置repl-diskless-sync yes启用无磁盘复制,避免全量同步时的磁盘IO。
Redis单节点上的内存占用不要太大,减少RDB导致的过多磁盘IO
适当提高replbaklog的大小,发现slave宕机时尽快实现故障恢复,尽可能避免全量同步
限制一个master上的slave节点数量,如果实在是太多slave,则可以采用主-从-从链式结构,减少master压力
master节点宕机怎么办啊,啊啊啊啊要癫了
因此引入哨兵机制(实现主从集群自动故障恢复)
监控:Sentinel会不断检查你的master和slave是否按预期工作
自动故障恢复:如果master故障,Sentinel会将一个slave升级为master
通知:外部访问其实不知道访问的数据库节点,Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端
•主观下线:如果某sentinel节点发现某实例未在规定时间响应,则认为该实例主观下线。
•客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。quorum值最好超过Sentinel实例数量的一半。
一旦发现master故障,sentinel需要在salve中选择一个作为新的master,选择依据是这样的:
当选出一个新的master后,该如何实现切换呢?
流程如下:
主从很难做到高并发写,因此使用分片集群
这个是工作必用
集群中有多个master,每个master保存不同数据
每个master都可以有多个slave节点
master之间通过ping监测彼此健康状态(心跳机制)
客户端请求可以访问集群任意节点,最终都会被转发到正确节点
每一个小集群都是一个主从结构
如果是2.8版本的redis搭建集群会很繁琐,会使用到temproxy,现在的版本就不需要了
什么是心跳机制?
进入命令传播阶段候,master与slave间需要进行信息交换,使用心跳机制进行维护,实现双方连接保持在线
master心跳:
slave心跳任务
心跳阶段注意事项:
min-slaves-to-write 2
min-slaves-max-lag 8
slave数量少于2个,或者所有slave的延迟都大于等于8秒时,强制关闭master写功能,停止数据同步
slave数量由slave发送REPLCONF ACK命令做确认
slave延迟由slave发送REPLCONF ACK命令做确认
Redis分片式会把每一个master节点映射到0~16383共16384个插槽(hash slot)上,无论你是三主三从还是五主五从都是一样的16384(固定不变),插槽平均分配每台服务器,查看集群信息时就能看到:
数据key不是与节点绑定,而是与插槽绑定。redis会根据key的有效部分计算插槽值,分两种情况:
例如:key是num,那么就根据num计算,如果是{itcast}num,则根据itcast计算。计算方式是利用CRC16算法得到一个hash值,然后对16384取余,得到的结果就是slot值。
集群启动redis-cil切记使用-c参数,这代表集群模式
如何将同一类数据固定的保存在同一个Redis实例?
集群进入不可用状态
不满足插槽总数(一个集群的机器全宕机了,一部分插槽无法访问)
两台master同时被发现宕机
Redis是一种内存级数数据库,所有数据都存在内存中,内存中的数据可以通过TTL获取其状态,TTL根据值的表现不同返回以下的状态
正数:代表该数据在内存中还能存活的时间
-1:永久有效的数据
-2:已经删除、过期或者不存在的数据
事实上不是所有删除方式都会把数据从redis完全删除(所以有状态-2),因为redis集群会出现同步不完全的问题
过期数据是一块独立的存储空间,Hash结构,field是内存地址,value是过期时间,保存了所有key的过期描述,在最终进行过期处理的时候,对该空间的数据进行检测, 当时间到期之后通过field找到内存该地址处的数据,然后进行相关操作。
创建一个定时器,当key设置有过期时间,且过期时间到达时,由定时器任务立即执行对键的删除操作
数据到达过期时间,不做处理。等下次访问该数据时,我们需要判断
定时删除和惰性删除这两种方案都是走的极端,那有没有折中方案?
我们来讲redis的定期删除方案:
Redis启动服务器初始化时,读取配置server.hz的值,默认为10
每秒钟执行server.hz次serverCron()-------->databasesCron()--------->activeExpireCycle()
**activeExpireCycle()**对每个expires[*]逐一进行检测,每次执行耗时:250ms/server.hz
对某个expires[*]检测时,随机挑选W个key检测
如果key超时,删除key
如果一轮中删除的key的数量>W*25%,循环该过程
如果一轮中删除的key的数量≤W*25%,检查下一个expires[*],0-15循环
W取值=ACTIVE_EXPIRE_CYCLE_LOOKUPS_PER_LOOP属性值
参数current_db用于记录activeExpireCycle() 进入哪个expires[*] 执行
如果activeExpireCycle()执行时间到期,下次从current_db继续向下执行
总的来说:定期删除就是周期性轮询redis库中的时效性数据,采用随机抽取的策略,利用过期数据占比的方式控制删除频度
当redis内存使用达到预期值的70%左右就会触发清理,清理之后发现仍旧不满足需求,redis就会返回错误
(error) OOM command not allowed when used memory >'maxmemory'
当然这个预期值可设置
影响数据淘汰的相关配置如下:
1:最大可使用内存,即占用物理内存的比例,默认值为0,表示不限制。生产环境中根据需求设定,通常设置在50%以上
maxmemory ?mb
2:每次选取待删除数据的个数,采用随机获取数据的方式作为待检测删除数据
maxmemory-samples count
3:对数据进行删除的选择策略
maxmemory-policy policy
那数据删除的策略policy到底有几种呢?一共是3类8种
第一类:检测易失数据(可能会过期的数据集server.db[i].expires )
volatile-lru:挑选最近最少使用的数据淘汰
volatile-lfu:挑选最近使用次数最少的数据淘汰
volatile-ttl:挑选将要过期的数据淘汰
volatile-random:任意选择数据淘汰
第二类:检测全库数据(所有数据集server.db[i].dict )
allkeys-lru:挑选最近最少使用的数据淘汰
allkeLyRs-lfu::挑选最近使用次数最少的数据淘汰
allkeys-random:任意选择数据淘汰,相当于随机
第三类:放弃数据驱逐
no-enviction(驱逐):禁止驱逐数据(redis4.0中默认策略),会引发OOM(Out Of Memory)
注意:这些策略是配置到哪个属性上?怎么配置?如下所示
maxmemory-policy volatile-lru
数据淘汰策略配置依据
使用INFO命令输出监控信息,查询缓存 hit 和 miss 的次数,根据业务需求调优Redis配置
缓存命中率算法HitRate=keyspace_hits/(keyspace_hits+keyspace_misses)
关于哨兵机制也是
场景:“宕机”
服务器启动后迅速宕机
问题排查:
1.请求数量较高,大量的请求过来之后都需要去从缓存中获取数据,但是缓存中又没有,此时从数据库中查找数据然后将数据再存入缓存,造成了短期内对redis的高强度操作从而导致问题
2.主从之间数据吞吐量较大,数据同步操作频度较高
解决方案:
1.日常例行统计数据访问记录,统计访问频度较高的热点数据
2.利用LRU数据删除策略,构建数据留存队列例如:storm与kafka配合
1.将统计结果中的数据分类,根据级别,redis优先加载级别较高的热点数据
2.利用分布式多服务器同时进行数据读取,提速数据加载过程
3.热点数据主从同时预热
4.使用脚本程序固定触发数据预热过程
5.如果条件允许,使用了CDN(内容分发网络),效果会更好
总的来说:缓存预热就是系统启动前,提前将相关的缓存数据直接加载到缓存系统。避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题!用户直接查询事先被预热的缓存数据!
场景**:数据库服务器崩溃,一连串的场景会随之儿来
1.系统平稳运行过程中,忽然数据库连接量激增
2.应用服务器无法及时处理请求
3.大量408,500错误页面出现
4.客户反复刷新页面获取数据
5.数据库崩溃
6.应用服务器崩溃
7.重启应用服务器无效
8.Redis服务器崩溃
9.Redis集群崩溃
10.重启数据库后再次被瞬间流量放倒
问题排查:
1.在一个较短的时间内,缓存中较多的key集中过期
2.此周期内请求访问过期的数据,redis未命中,redis向数据库获取数据
3.数据库同时接收到大量的请求无法及时处理
4.Redis大量请求被积压,开始出现超时现象
5.数据库流量激增,数据库崩溃
6.重启后仍然面对缓存中无数据可用
7.Redis服务器资源被严重占用,Redis服务器崩溃
8.Redis集群呈现崩塌,集群瓦解
9.应用服务器无法及时得到数据响应请求,来自客户端的请求数量越来越多,应用服务器崩溃
10.应用服务器,redis,数据库全部重启,效果不理想
总而言之就两点:短时间范围内,大量key集中过期
解决方案
1.更多的页面静态化处理
2.构建多级缓存架构
Nginx缓存+redis缓存+ehcache缓存
3.检测Mysql严重耗时业务进行优化
对数据库的瓶颈排查:例如超时查询、耗时较高事务等
4.灾难预警机制
监控redis服务器性能指标
CPU占用、CPU使用率
内存容量
查询平均响应时间
线程数
5.限流、降级
短时间范围内牺牲一些客户体验,限制一部分请求访问,降低应用服务器压力,待业务低速运转后再逐步放开访问
1.LRU与LFU切换
2.数据有效期策略调整
根据业务数据有效期进行分类错峰,A类90分钟,B类80分钟,C类70分钟
过期时间使用固定时间+随机值的形式,稀释集中到期的key的数量
3.超热数据使用永久key
4.定期维护(自动+人工)
对即将过期数据做访问量分析,确认是否延时,配合访问量统计,做热点数据的延时
5.加锁:慎用!
总的来说:缓存雪崩就是瞬间过期数据量太大,导致对数据库服务器造成压力。如能够有效避免过期时间集中,可以有效解决雪崩现象的 出现(约40%),配合其他策略一起使用,并监控服务器的运行数据,根据运行记录做快速调整。
场景**:还是数据库服务器崩溃,但是跟之前的场景有点不太一样
1.系统平稳运行过程中
2.数据库连接量瞬间激增
3.Redis服务器无大量key过期
4.Redis内存平稳,无波动
5.Redis服务器CPU正常
6.数据库崩溃
问题排查:
1.Redis中某个key过期,该key访问量巨大
2.多个数据请求从服务器直接压到Redis后,均未命中
3.Redis在短时间内发起了大量对数据库中同一数据的访问
总而言之就两点:单个key高热数据,key过期
解决方案:
1.预先设定
以电商为例,每个商家根据店铺等级,指定若干款主打商品,在购物节期间,加大此类信息key的过期时长 注意:购物节不仅仅指当天,以及后续若干天,访问峰值呈现逐渐降低的趋势
2.现场调整
监控访问量,对自然流量激增的数据延长过期时间或设置为永久性key
3.后台刷新数据
启动定时任务,高峰期来临之前,刷新数据有效期,确保不丢失
4.二级缓存
设置不同的失效时间,保障不会被同时淘汰就行
5.加锁
分布式锁,防止被击穿,但是要注意也是性能瓶颈,慎重!
总的来说:缓存击穿就是单个高热数据过期的瞬间,数据访问量较大,未命中redis后,发起了大量对同一数据的数据库访问,导致对数 据库服务器造成压力。应对策略应该在业务数据分析与预防方面进行,配合运行监控测试与即时调整策略,毕竟单个key的过 期监控难度较高,配合雪崩处理策略即可。
场景**:数据库服务器又崩溃了,跟之前的一样吗?
1.系统平稳运行过程中
2.应用服务器流量随时间增量较大
3.Redis服务器命中率随时间逐步降低
4.Redis内存平稳,内存无压力
5.Redis服务器CPU占用激增
6.数据库服务器压力激增
7.数据库崩溃
问题排查:
1.Redis中大面积出现未命中
2.出现非正常URL访问
问题分析:
解决方案:
1.缓存null
对查询结果为null的数据进行缓存(长期使用,定期清理),设定短时限,例如30-60秒,最高5分钟
2.白名单策略
提前预热各种分类数据id对应的bitmaps,id作为bitmaps的offset,相当于设置了数据白名单。当加载正常数据时放行,加载异常数据时直接拦截(效率偏低)
使用布隆过滤器(有关布隆过滤器的命中问题<即hash冲突使得本来存在的key被爆没有或者因为其他key计算的hash和当前判断的key不存在的hash一致使得该key被误判,解决办法具体看绝活篇>对当前状况可以忽略)
2.实施监控
实时监控redis命中率(业务正常范围时,通常会有一个波动值)与null数据的占比
非活动时段波动:通常检测3-5倍,超过5倍纳入重点排查对象
活动时段波动:通常检测10-50倍,超过50倍纳入重点排查对象
根据倍数不同,启动不同的排查流程。然后使用黑名单进行防控(运营)
4.key加密
问题出现后,临时启动防灾业务key,对key进行业务层传输加密服务,设定校验程序,过来的key校验
例如每天随机分配60个加密串,挑选2到3个,混淆到页面数据id中,发现访问key不满足规则,驳回数据访问
总的来说:缓存击穿是指访问了不存在的数据,跳过了合法数据的redis数据缓存阶段,每次访问数据库,导致对数据库服务器造成压力。通常此类数据的出现量是一个较低的值,当出现此类情况以毒攻毒,并及时报警。应对策略应该在临时预案防范方面多做文章。
无论是黑名单还是白名单,都是对整体系统的压力,警报解除后尽快移除。
redis中的监控指标如下:
响应请求的平均时间:
latency
平均每秒处理请求总数
instantaneous_ops_per_sec
缓存查询命中率(通过查询总次数与查询得到非nil数据总次数计算而来)
hit_rate(calculated)
当前内存使用量
used_memory
内存碎片率(关系到是否进行碎片整理)
mem_fragmentation_ratio
为避免内存溢出删除的key的总数量
evicted_keys
基于阻塞操作(BLPOP等)影响的客户端数量
blocked_clients
当前客户端连接总数
connected_clients
当前连接slave总数
connected_slaves
最后一次主从信息交换距现在的秒
master_last_io_seconds_ago
key的总数
keyspace
当前服务器最后一次RDB持久化的时间
rdb_last_save_time
当前服务器最后一次RDB持久化后数据变化总量
rdb_changes_since_last_save
被拒绝连接的客户端总数(基于达到最大连接值的因素)
rejected_connections
key未命中的总次数
keyspace_misses
主从断开的秒数
master_link_down_since_seconds
要对redis的相关指标进行监控,我们可以采用一些用具:
也有一些命令工具:
测试当前服务器的并发性能
redis-benchmark [-h ] [-p ] [-c ] [-n
[-k ] 范例1:50个连接,10000次请求对应的性能
redis-benchmark
范例2:100个连接,5000次请求对应的性能
redis-benchmark -c 100 -n 5000
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7yW1bBvk-1681608508851)(img/29.png)]
redis-cli
monitor:启动服务器调试信息
monitor
slowlog:慢日志
获取慢查询日志
slowlog [operator]
get :获取慢查询日志信息
len :获取慢查询日志条目数
reset :重置慢查询日志
相关配置
slowlog-log-slower-than 1000 #设置慢查询的时间下线,单位:微妙 slowlog-max-len 100 #设置慢查询命令对应的日志显示长度,单位:命令数
key未命中的总次数
keyspace_misses
主从断开的秒数
master_link_down_since_seconds
要对redis的相关指标进行监控,我们可以采用一些用具:
也有一些命令工具:
测试当前服务器的并发性能
redis-benchmark [-h ] [-p ] [-c ] [-n
[-k ] 范例1:50个连接,10000次请求对应的性能
redis-benchmark
范例2:100个连接,5000次请求对应的性能
redis-benchmark -c 100 -n 5000
[外链图片转存中…(img-7yW1bBvk-1681608508851)]
redis-cli
monitor:启动服务器调试信息
monitor
slowlog:慢日志
获取慢查询日志
slowlog [operator]
get :获取慢查询日志信息
len :获取慢查询日志条目数
reset :重置慢查询日志
相关配置
slowlog-log-slower-than 1000 #设置慢查询的时间下线,单位:微妙 slowlog-max-len 100 #设置慢查询命令对应的日志显示长度,单位:命令数