整理自:https://nicky-chen.github.io/2018/08/07/cache-redis-optimize/
详细解析
【强制】:拒绝 bigkey(防止网卡流量、慢查询)
string 类型控制在 10KB 以内,hash、list、set、zset 元素个数不要超过 5000。
反例:一个包含 200 万个元素的 list。
非字符串的 bigkey,不要使用 del 删除,使用 hscan、sscan、zscan 方式渐进式删除,同时要注意防止 bigkey 过期时间自动删除问题 (例如一个 200 万的 zset 设置 1 小时过期,会触发 del 操作,造成阻塞,而且该操作不会不出现在慢查询中 (latency 可查))。
【推荐】:选择适合的数据类型。
例如:实体类型 (要合理控制和使用数据结构内存编码优化配置, 例如 ziplist,但也要注意节省内存和性能之间的平衡)
反例:
set user:1:name tom
set user:1:age 19
set user:1:favor football
正例:
hmset user:1 name tom age 19 favor football
【推荐】:控制 key 的生命周期,redis 不是垃圾桶。
建议使用 expire 设置过期时间 (条件允许可以打散过期时间,防止集中过期),不过期的数据重点关注 idletime。
【推荐】:hash,set,zset,list 存储过多的元素优化 可以将这些元素分拆。
通过hash取模的方式 正常存取流程是 hget(hashKey, field) ; hset(hashKey, field, value) 现在,固定一个桶的数量,比如 100, 每次存取的时候,先在本地计算field的hash值,模除 100, 确定了该field落在哪个key上。
newHashKey = hashKey + hash(field) % 10000;
hset (newHashKey, field, value) ;
hget(newHashKey, field)
例如 hgetall、lrange、smembers、zrange、sinter 等并非不能使用,但是需要明确 N 的值。有遍历的需求可以使用 hscan、sscan、zscan 代替。Redis的命令时间复杂度可以看这里Redis复杂度O(N)
【推荐】:禁用命令
禁止线上使用 keys、flushall、flushdb 等,通过 redis 的 rename 机制禁掉命令,或者使用 scan 的方式渐进式处理。
【推荐】合理使用 select
redis 的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。
【推荐】使用批量操作提高效率
原生命令:例如 mget、mset。
非原生命令:可以使用 pipeline 提高效率。
但要注意控制一次批量操作的元素个数(例如 500 以内,实际也和元素字节数有关)。
注意两者不同:
【建议】Redis 事务功能较弱,不建议过多使用
Redis 的事务功能较弱 (不支持回滚),而且集群版本 (自研和官方) 要求一次事务操作的 key 必须在一个 slot 上 (可以使用 hashtag 功能解决) hashtag的解决方案:可以使用twitter的 twemproxy
7.【建议】必要情况下使用 monitor 命令时,要注意不要长时间使用。
maxclients 限制同时连接的客户数量。当连接数超过这个值时, redis 将不再接收其他连接请求,客户端尝试连接时将收到 error 信息。特殊值”0”表示没有限制。
timeout 设置客户端连接时的超时时间,单位为秒。当客户端在这段时间内没有发出任何指令,那么关闭该连接,默认为0则表示没有超时时间,如果设定了超时时间,需要注意客户端redis连接池的timeout问题
client-output-buffer-limit
config set client-output-buffer-limit ‘slave 256mb 64mb 60’
这里对是客服端是slave的做限制 256mb 是一个硬性限制,当output-buffer的大小大于256mb之后就会断开连接。64mb 60 是一个软限制,当output-buffer的大小大于64mb并且超过了60秒的时候就会断开连接,所以当预估有bigkeys的时候需要进行调试
lua-time-limit 限制脚本的最长运行时间,默认为5秒钟。当脚本运行时间超过这一限制后,Redis将开始接受其他命令但不会执行(以确保脚本的原子性,因为此时脚本并没有被终止),而是会返回“BUSY”错误,避免redis阻塞情况
memory-policy 查询内存溢出策略 默认策略是volatile-lru,即超过最大内存后,在过期键中使用lru算法进行key的剔除,保证不过期数据不被删除,但是可能会出现OOM问题。 >maxmemory-policy 六种方式
首先要知道一个概念叫缓存无底洞问题,该问题由 facebook 的工作人员提出的, facebook 在 2010 年左右,memcached 节点就已经达3000 个,缓存数千 G 内容。他们发现了一个问题—memcached 连接频率,效率下降了,于是加 memcached 节点,添加了后,发现因为连接频率导致的问题,仍然存在,并没有好转,称之为”无底洞现象”。
为什么会出现这个现象,请对比下面两张图片,图一是多IO版本,也就是说当存在的节点异常多的时候,IO的代价已经超过数据传输,上文提到的facebook的节点已经超过3000个,在这种情况下再增加节点已经没法再提高效率了。
图二 单IO版本
redis引入cluster模式后,批量获取操作mget也面临同样的问题。redis是传统的key-value的存储模式,RedisCluster将数据按key哈希到16384个slot上,每个redis node负责一部分的slot。mget需要执行的操作就是从redis node获取所有的key-value值,然后进行merge然后返回。
其实IO的优化思路都比较通用,无非就是提高命令本身效率,串行改并行,单个转批量。摘录一段网上的IO优化思路总结:
(1) 命令本身的效率:例如sql优化,命令优化
(2) 网络次数:减少通信次数
(3) 降低接入成本:长连/连接池,NIO等 (4) IO访问合并:O(n)到O(1)过程:批量接口(mget)
具体方案
①串行命令:由于n个key是比较均匀地分布在Redis Cluster的各个节点上,因此无法使用mget命令一次性获取,所以通常来讲要获取n个key的值,最简单的方法就是逐次执行n个get命令,这种操作时间复杂度较高,它的操作时间=n次网络时间+n次命令时间,网络次数是n。很显然这种方案不是最优的,但是实现起来比较简单。
List serialMGet (List keys) {
//结果集
List values - new ArrayList();
//n次串行get
for (String key : keys) {
String value = jediscluster.get (key);values.add (value);
}
return values;
②串行IO:Redis Cluster使用CRC16算法计算出散列值,再取对16383的余数就可以算出slot值,同时Smart客户端会保存slot和节点的对应关系,有了这两个数据就可以将属于同一个节点的key进行归档,得到每个节点的key子列表,之后对每个节点执行mget或者Pipeline操作,它的操作时间=node次网络时间+n次命令时间,网络次数是node的个数,整个过程如下图所示,很明显这种方案比第一种要好很多,但是如果节点数太多,还是有一定的性能问题。
Map serialIOMget (List keys) {
// 结果集
Map keyValueMap = new HashMap<>();
// 属于各个节点的key列表,JedisPool要提供基于ip和port的hashcode方法
Map> nodeKeyListMap= new HashMap<>();
// 遍历所有的key
for (String key : keys) {
// 使用CRC16本地计算每个key的slot
int slot = JedisClusterCRC16.getSlot(key);
//通过iediscluster本地slot->node映射获取slot对应的node
JedisPool jedisPool = jedisCluster.getConnectionHandler().getJedisPoolFromSlot(slot);
// 归档
if (nodeKeyListMap.containsKey(jedisPool)) {
nodeKeyListMap.get(jedisPool).add(key);
} else {
List list = new ArrayList();
list.add(key);
nodeKeyListMap.put(jedisPool, list);
}
}
// 从每个节点上批量获取,这里使用mget也可以使用pipeline
for (Map.Entry> entry : nodeKeyListMap.entrySet()) {
JedisPool jedisPool = entry.getKey();
List nodeKeyList = entry.getValue();
// 列表变为数组
String[] nodeKeyArray = nodeKeyList.toArray(new String[nodeKeyList.size()]);
// 批量获取,可以使用mget或者Pipeline
List nodeValueList = jedisPool.getResource().mget(nodeKeyArray);
// 归档
for (int i = 0; i < nodeKeyList.size(); i++) {
keyValueMap.put(nodeKeyList.get(i), nodeValueList.get(i));
}
}
return keyValueMap;
}
③并行IO:此方案是将方案2中的最后一步改为多线程执行,网络次数虽然还是节点个数,但由于使用多线程网络时间变为O(1),这种方案会增加编程的复杂度。
④hash_tag实现:Redis Cluster的hash_tag功能,它可以将多个key强制分配到一个节点上,它的操作时间=1次网络时间+n次命令时间。
redis间数据同步可以使用:redis-port
redis大key搜索工具
facebook的redis-faina
Jedis常见异常汇总 和 JedisPool资源池优化
数据库技术丛书 REDIS开发与运维 阿里云Redis开发规范
1.【推荐】
避免多个应用使用一个 Redis 实例
正例:不相干的业务拆分,公共数据做服务化。
使用带有连接池的数据库,可以有效控制连接,同时提高效率,标准使用方式:
执行命令如下:
Jedis jedis = null;
try {
jedis = jedisPool.getResource();
// 具体的命令
jedis.executeCommand()
} catch (Exception e) {
logger.error("op key {} error: " + e.getMessage(), key, e);
} finally {
// 注意这里不是关闭连接,在 JedisPool 模式下,Jedis 会被归还给资源池。
if (jedis != null)
jedis.close();
}
下面是 JedisPool 优化方法的文章:
Jedis 常见异常汇总
JedisPool 资源池优化
3.【建议】
高并发下建议客户端添加熔断功能 (例如 netflix hystrix)
4.【推荐】
设置合理的密码,如有必要可以使用 SSL 加密访问(阿里云 Redis 支持)
5.【建议】
根据自身业务类型,选好 maxmemory-policy(最大内存淘汰策略),设置好过期时间。
默认策略是 volatile-lru,即超过最大内存后,在过期键中使用 lru 算法进行 key 的剔除,保证不过期数据不被删除,但是可能会出现 OOM 问题。
其他策略如下:
allkeys-lru:根据 LRU 算法删除键,不管数据有没有设置超时属性,直到腾出足够空间为止。
allkeys-random:随机删除所有键,直到腾出足够空间为止。
volatile-random: 随机删除过期键,直到腾出足够空间为止。
volatile-ttl:根据键值对象的 ttl 属性,删除最近将要过期数据。如果没有,回退到 noeviction 策略。
noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息 “(error) OOM command not allowed when used memory”,此时 Redis 只响应读操作。
public void delBigHash(String host, int port, String password, String bigHashKey) {
Jedis jedis = new Jedis(host, port);
if (password != null && !"".equals(password)) {
jedis.auth(password);
}
ScanParams scanParams = new ScanParams().count(100);
String cursor = "0";
do {
ScanResult> scanResult = jedis.hscan(bigHashKey, cursor, scanParams);
List> entryList = scanResult.getResult();
if (entryList != null && !entryList.isEmpty()) {
for (Entry entry : entryList) {
jedis.hdel(bigHashKey, entry.getKey());
}
}
cursor = scanResult.getStringCursor();
} while (!"0".equals(cursor));
// 删除 bigkey
jedis.del(bigHashKey);
}
public void delBigList(String host, int port, String password, String bigListKey) {
Jedis jedis = new Jedis(host, port);
if (password != null && !"".equals(password)) {
jedis.auth(password);
}
long llen = jedis.llen(bigListKey);
int counter = 0;
int left = 100;
while (counter < llen) {
// 每次从左侧截掉 100 个
jedis.ltrim(bigListKey, left, llen);
counter += left;
}
// 最终删除 key
jedis.del(bigListKey);
}
public void delBigSet(String host, int port, String password, String bigSetKey) {
Jedis jedis = new Jedis(host, port);
if (password != null && !"".equals(password)) {
jedis.auth(password);
}
ScanParams scanParams = new ScanParams().count(100);
String cursor = "0";
do {
ScanResult scanResult = jedis.sscan(bigSetKey, cursor, scanParams);
List memberList = scanResult.getResult();
if (memberList != null && !memberList.isEmpty()) {
for (String member : memberList) {
jedis.srem(bigSetKey, member);
}
}
cursor = scanResult.getStringCursor();
} while (!"0".equals(cursor));
// 删除 bigkey
jedis.del(bigSetKey);
}
public void delBigZset(String host, int port, String password, String bigZsetKey) {
Jedis jedis = new Jedis(host, port);
if (password != null && !"".equals(password)) {
jedis.auth(password);
}
ScanParams scanParams = new ScanParams().count(100);
String cursor = "0";
do {
ScanResult scanResult = jedis.zscan(bigZsetKey, cursor, scanParams);
List tupleList = scanResult.getResult();
if (tupleList != null && !tupleList.isEmpty()) {
for (Tuple tuple : tupleList) {
jedis.zrem(bigZsetKey, tuple.getElement());
}
}
cursor = scanResult.getStringCursor();
} while (!"0".equals(cursor));
// 删除 bigkey
jedis.del(bigZsetKey);
}