如果 Redis 中的部署,采用的是切片集群,数据是会按照一定的规则分散到不同的实例中保存,比如,使用 Redis Cluster
或 Codis
。
数据倾斜会有下面两种情况:
1、数据量倾斜:在某些情况下,实例上的数据分布不均衡,某个实例上的数据特别多。
2、数据访问倾斜:虽然每个集群实例上的数据量相差不大,但是某个实例上的数据是热点数据,被访问得非常频繁。
发生了数据倾斜,会造成那些数据量大的和访问高的实例节点,系统的负载升高,响应速度变慢。严重的情况造成内存资源耗尽,引起系统崩溃。
数据量倾斜,也就是实例上的数据分布不均衡,某个实例中的数据分布的特别多 。
数据量的倾斜,主要有下面三种情况:
1、bigkey导致倾斜;
2、Slot分配不均衡导致倾斜;
3、Hash Tag导致倾斜。
下面来一一的分析下
什么是 bigkey
:我们将含有较大数据或含有大量成员、列表数的 Key 称之为大Key。
一个 STRING 类型的 Key,它的值为 5MB(数据过大)
一个 LIST 类型的 Key,它的列表数量为 20000 个(列表数量过多)
一个 ZSET 类型的 Key,它的成员数量为 10000 个(成员数量过多)
一个 HASH 格式的 Key,它的成员数量虽然只有 1000 个但这些成员的 value 总大小为 100MB(成员体积过大)
如果某个实例中保存了 bigkey
,那么就有可能导致集群的数据倾斜。
bigkey
存在问题
内存空间不均匀:如果采用切片集群的部署方案,容易造成某些实例节点的内存分配不均匀;
造成网络拥塞:读取 bigkey 意味着需要消耗更多的网络流量,可能会对 Redis 服务器造成影响;
过期删除:bigkey 不单读写慢,删除也慢,删除过期 bigkey 也比较耗时;
迁移困难:由于数据庞大,备份和还原也容易造成阻塞,操作失败;
如何避免
对于bigkey
可以从以下两个方面进行处理
1、合理优化数据结构
1、对较大的数据进行压缩处理;
2、拆分集合:将大的集合拆分成小集合(如以时间进行分片)或者单个的数据。
2、选择其他的技术来存储 bigkey
;
例如在 Redis Cluster
通过 Slot 来给数据分配实例
1、Redis Cluster
方案采用哈希槽来处理 KEY 在不同实例中的分布,一个切片集群共有 16384 个哈希槽,这些哈希槽类似于数据分区,每个键值对都会根据它的 key,被映射到一个哈希槽中;
2、一个 KEY ,首先会根据 CRC16 算法计算一个16 bit的值;然后,再用这个 16bit 值对 16384 取模,得到 0~16383 范围内的模数,每个模数代表一个相应编号的哈希槽。
3、然后把哈希槽分配到所有的实例中,例如,如果集群中有N个实例,那么,每个实例上的槽个数为16384/N个。
如果 Slot 分配的不均衡,就会导致某几个实例中数据量偏大,进而导致数据倾斜的发生。
出现这种问题,我们就可以使用迁移命令把这些 Slot 迁移到其它实例上,即可。
Hash Tag
用于 redis 集群中,其作用是将具有某一固定特征的数据存储到同一台实例上。其实现方式为在 key 中加个 {}
,例如 test{1}
。
使用 Hash Tag
后客户端在计算 key 的 crc16 时,只计算 {}
中数据。如果没使用 Hash Tag
,客户端会对整个 key 进行 crc16 计算。
数据key | 哈希计算 | 对应的Slot |
---|---|---|
user:info:{3231} | CRC16(‘3231’) mod 16384 | 1024 |
user:info:{5328} | CRC16(‘5328’) mod 16384 | 3210 |
user:order:{3231} | CRC16(‘3231’) mod 16384 | 1024 |
user:order:{5328} | CRC16(‘5328’) mod 16384 | 3210 |
这样通过 Hash Tag
就可以将某一固定特征数据存储到一台实例上,避免逐个查询集群中实例。
栗如:如果我们进行事务操作或者数据的范围查询,因为Redis Cluster
和 Codis 本身并不支持跨实例的事务操作和范围查询,当业务应用有这些需求时,就只能先把这些数据读取到业务层进行事务处理,或者是逐个查询每个实例,得到范围查询的结果。
Hash Tag
潜在的问题就是,可能存在大量数据被映射到同一个实例的情况出现,导致集群的数据倾斜,集群中的负载不均衡。
所有当我使用 Hash Tag
的时候就做好评估,我们的业务诉求如果不使用 Hash Tag
可以解决吗,如果不可避免的使用,我们需要评估好数据量,尽量避免数据倾斜的出现。
虽然每个集群实例上的数据量相差不大,但是某个实例上的数据是热点数据,被访问得非常频繁,这就是数据访问倾斜。
数据量访问倾斜的罪魁祸首就是 Hot Key
切片集群中的 Key 最终会存储到集群中的一个固定的 Redis 实例中。某一个 Key 在一段时间内访问远高于其它的 Key,也就是该 Key 对应的 Redis 实例,会收到过大的流量请求,该实例容易出现过载和卡顿现象,甚至还会被打挂掉。
常见引发热点 Key 的情况:
1、新闻中的热点事件;
2、秒杀活动中的,性价比高的商品;
根据业务经验进行提前预判;
通过在客户端增加命令的采集,来统计发现热点 Key;
使用monitor命令统计热点key(不推荐,高并发条件下会有造成redis 内存爆掉的隐患);
hotkeys参数,redis 4.0.3提供了redis-cli的热点key发现功能,执行redis-cli时加上–hotkeys选项即可。但是该参数在执行的时候,如果key比较多,执行起来比较慢。
如果集群架构引入了 proxy,可以在 proxy 中做统计
Redis客户端使用TCP协议与服务端进行交互,通信协议采用的是RESP。自己写程序监听端口,按照RESP协议规则解析数据,进行分析。缺点就是开发成本高,维护困难,有丢包可能性。
知道了Hot Key
如何来应对呢
举个栗子
有一个热 Key 名字为Hot-key-test
,可以将其分散为Hot-key-test1
,Hot-key-test2
…然后将这些 Key 分散到多个实例节点中,当客户端进行访问的时候,随机一个下标的 Key 进行访问,这样就能将流量分散到不同的实例中了,避免了一个缓存节点的过载。
一般来讲,可以通过添加后缀或者前缀,把一个 hotkey 的数量变成 redis 实例个数 N 的倍数 M,从而由访问一个redis key
变成访问N * M
个redis key。 N*M
个redis key
经过分片分布到不同的实例上,将访问量均摊到所有实例。
const M = N * 2
//生成随机数
random = GenRandom(0, M)
//构造备份新key
bakHotKey = hotKey + “_” + random
data = redis.GET(bakHotKey)
if data == NULL {
data = GetFromDB()
redis.SET(bakHotKey, expireTime + GenRandom(0,5))
}
业务端还可以使用本地缓存,将这些热 key 记录在本地缓存,来减少对远程缓存的冲击。
这里,有个地方需要注意下,热点数据多副本方法只能针对只读的热点数据。如果热点数据是有读有写的话,就不适合采用多副本方法了,因为要保证多副本间的数据一致性,会带来额外的开销。
对于有读有写的热点数据,我们就要给实例本身增加资源了,例如使用配置更高的机器,来应对大量的访问压力。
1、数据倾斜会有下面两种情况;
1、数据量倾斜:在某些情况下,实例上的数据分布不均衡,某个实例上的数据特别多。
2、数据访问倾斜:虽然每个集群实例上的数据量相差不大,但是某个实例上的数据是热点数据,被访问得非常频繁。
2、数据量的倾斜,主要有下面三种情况;
1、bigkey导致倾斜;
2、Slot分配不均衡导致倾斜;
3、Hash Tag导致倾斜。
3、数据访问倾斜,原因就是 Hot Key
造成的,出现Hot Key
,一般下面有下面两种方式去解决;
1、对 Key 进行分散处理;
2、使用本地缓存;
【Redis核心技术与实战】https://time.geekbang.org/column/intro/100056701
【Redis设计与实现】https://book.douban.com/subject/25900156/
【Redis 的学习笔记】https://github.com/boilingfrog/Go-POINT/tree/master/redis
【Redis中的切片集群】https://boilingfrog.github.io/2022/02/20/redis%E4%B8%AD%E5%B8%B8%E8%A7%81%E7%9A%84%E9%9B%86%E7%BE%A4%E9%83%A8%E7%BD%B2%E6%96%B9%E6%A1%88/#%E5%88%87%E7%89%87%E9%9B%86%E7%BE%A4
【Redis 切片集群的数据倾斜分析】https://boilingfrog.github.io/2022/06/22/Redis%E5%88%87%E7%89%87%E9%9B%86%E7%BE%A4%E7%9A%84%E6%95%B0%E6%8D%AE%E5%80%BE%E6%96%9C%E5%88%86%E6%9E%90/