我们使用的库为redisson。
添加元素到队列很简单,用RStream.add方法即可。
如何从队列获取元素?由于我们打算实现kafka那样的consumer group机制,所以,读操作要用RStream.readGroup函数(XREADGROUP命令),该命令有阻塞和非阻塞版本,简单起见,我们使用非阻塞版本(不带BLOCK参数),由应用层来定时轮询。Id参数我们设置为StreamReadGroupArgs.neverDelivered(),相当于redis命令里的>,每次只取最新的消息。相关的代码样例如下:
public List<Record> poll(String groupName, String consumerName) {
return toConsumerRecords(redisMsgQueue.readGroup(groupName, consumerName, StreamReadGroupArgs.neverDelivered()));
}
追求可靠性,则须封装XACK命令。引入ACK之后,自然要考虑对那些ACK超时的消息如何补救。为此,我们要结合XPENDING和XCLAIM两条命令,利用前者查出目前尚未ACK的消息集M(术语叫PEL,pending entry list),利用后者将M中已超时的那部分(通过min-idle-time参数过滤)分配给其它存活的consumer去做补救处理。为何XPENDING出来之后要做XCLAIM呢?主要是我们希望做补救处理的consumer只能有一位,XCLAIM命令在多consumer竞争时能保证独占性,从而避免消息的多次处理。XPENDING遍历PEL也是有技巧的,一是要分批获取,二是由于XPENDING的startId和endId是闭区间, 需将用于遍历的cursor Id转成开区间(参考redis的streamId说明,具体做法是将streamId的sequence部分加1)。参考实现如下:
public List<Record> fetchNotAck(String groupName, String consumerName, long ackTimeout) {
PendingResult pr = redisMsgQueue.getPendingInfo(groupName);
if (pr.getTotal() == 0) {
return Collections.emptyList();
}
StreamMessageId curId = pr.getLowestId();
StreamMessageId maxId = pr.getHighestId();
List<Record> totalRecs = new ArrayList<>();
while (true) {
List<PendingEntry> entries = redisMsgQueue.listPending(groupName, curId, maxId, 100);
if (entries.isEmpty()) {
break;
}
curId = makeExclusive(entries.get(entries.size() - 1).getId());
Map<StreamMessageId, Map<String, T> > rawRes = redisMsgQueue.claim(groupName, consumerName, ackTimeout, TimeUnit.SECONDS, entries.stream.map(PendingEntry::getId).toArray(StreamMessageId[]::new));
totalRecs.addAll(toConsumerRecords(rawRes));
}
return totalRecs;
}
private StreamMessageId makeExclusive(StreamMessageId id) {
return new StreamMessageId(id.getId0(), id.getId1() + 1);
}
最后,stream的定时清理动作,解决内存占用过大的问题,使用lua脚本包装XTRIM命令,根据上一次清理时的stream size,计算本次要保留的元素个数。这里还有一个特殊点,如果一条未ACK消息被XTRIM或XDEL从stream里删除,其并不会从PEL里同步删除,用XCLAIM也获取不了它,这就成了一条PEL垃圾数据,据说redis7.0会解决该问题。stream清理算法如下:
private static final String SHRINK_SCRIPT = "local nowSz = redis.call('XLEN', KEYS[1]);redis.call('XTRIM', KEYS[1], 'MAXLEN', nowSz - ARGV[1]); local leftSz = redis.call('XLEN', KEYS[1]); redis.call('HSET', KEYS[2], KEYS[1], leftSz);return leftSz;";
public long shrinkByLastSize(long lastSize, String queueSizeMapName) {
RScript rScript = getRedissonClient().getScript(LongCodec.INSTANCE);
return rScript.eval(RScript.Mode.READ_WRITE, SHRINK_SCRIPT, RScript.ReturnType.INTEGER,
Arrays.asList(this.streamName, queueSizeMapName), lastSize);
}
其中,queueSizeMap是一个redis hash,用于存储每个stream上次清理后的size。size的设置和stream的XTRIM操作必须是原子操作,所以放一个lua脚本里。另外,stream 和queueSizeMap有可能不在一个slot里(redis cluster下),要考虑在名字里加{}确保这俩在一起,否则lua脚本会报错。