2017.02.24 11:41* 字数 2279 阅读 7306评论 7喜欢 24赞赏 1
在互联网公司工作的RD们,对消息中间件最为熟悉不过了,如今随着分布式系统架构的盛行。一个高可用、高并发的消息中间件对我们来说尤为重要。在公司快速增长时期,是没有精力去研发这种基础中间件。所以如何选择就成了一个问题?这个问题也需要我们深入了解各个消息中间件的特性。我们就当前比较热门的消息中间件淘宝开源的RocketMQ和linkin开源的kafka做一个横向对比。就互联网目前应用场景划分。kafka更多的应用在日志传输上。但是对于交易、订单、充值等对消息高要求的情况下有诸多特性不满足。淘宝在借鉴kafka的原理的基础上使用java开发了RocketMQ(kafka使用scala编程)。虽然RocketMQ定位于非日志可靠消息传输,但对日志场景也是支持的。目前阿里集团也被广泛应用在订单、交易、充值、流计算,消息推送,日志流处理,binglog分发等场景。我们从系统性能、消息机制、后期维护三个大的方面总结一下。一共16个特性。
A:RocketMQ支持异步刷盘,同步刷盘,同步Replication,异步Replication
B:kafka使用异步刷盘方式,异步Replication
备注:RocketMQ的同步刷盘在单机可靠性上比Kafka更高,不会因为操作系统Crash,导致数据丢失。 同时同步Replication也比Kafka异步Replication更可靠,数据完全无单点。另外Kafka的Replication以topic为单位,支持主机宕机,备机自动切换,但是这里有个问题,由于是异步Replication,那么切换后会有数据丢失,同时Leader如果重启后,会与已经存在的Leader产生数据冲突。开源版本的RocketMQ不支持Master宕机,Slave自动切换为Master,阿里云版本的RocketMQ支持自动切换特性。
A:Kafka单机写入TPS约在百万条/秒,消息大小10个字节
B:RocketMQ单机写入TPS单实例约7万条/秒,单机部署3个Broker,可以跑到最高12万条/秒,消息大小10个字节
备注:Kafka的TPS跑到单机百万,主要是由于Producer端将多个小消息合并,批量发向Broker。
RocketMQ为什么没有这么做?
Producer通常使用Java语言,缓存过多消息,GC是个很严重的问题
Producer调用发送消息接口,消息未发送到Broker,向业务返回成功,此时Producer宕机,会导致消息丢失,业务出错
Producer通常为分布式系统,且每台机器都是多线程发送,我们认为线上的系统单个Producer每秒产生的数据量有限,不可能上万。
缓存的功能完全可以由上层业务完成。
Kafka单机超过64个队列/分区,Load会发生明显的飙高现象,队列越多,load越高,发送消息响应时间变长
RocketMQ单机支持最高5万个队列,Load不会发生明显变化
队列多有什么好处?
单机可以创建更多Topic,因为每个Topic都是由一批队列组成
Consumer的集群规模和队列数成正比,队列越多,Consumer集群可以越大
A:Kafka使用短轮询方式,实时性取决于轮询间隔时间
B:RocketMQ使用长轮询,同Push方式实时性一致,消息的投递延时通常在几个毫秒。
A:Kafka消费失败不支持重试
B:RocketMQ消费失败支持定时重试,每次重试间隔时间顺延
备注:例如充值类应用,当前时刻调用运营商网关,充值失败,可能是对方压力过多,稍后在调用就会成功,如支付宝到银行扣款也是类似需求。
这里的重试需要可靠的重试,即失败重试的消息不因为Consumer宕机导致丢失。
A:Kafka支持消息顺序,但是一台Broker宕机后,就会产生消息乱序
B:RocketMQ支持严格的消息顺序,在顺序消息场景下,一台Broker宕机后,发送消息会失败,但是不会乱序
Mysql Binlog分发需要严格的消息顺序
A:Kafka不支持定时消息
B:RocketMQ支持两类定时消息
开源版本RocketMQ仅支持定时Level
阿里云ONS支持定时Level,以及指定的毫秒级别的延时时间
A:Kafka不支持分布式事务消息
B:阿里云ONS支持分布式定时消息,未来开源版本的RocketMQ也有计划支持分布式事务消息
A:Kafka不支持消息查询
B:RocketMQ支持根据Message Id查询消息,也支持根据消息内容查询消息(发送消息时指定一个Message Key,任意字符串,例如指定为订单Id)
备注:消息查询对于定位消息丢失问题非常有帮助,例如某个订单处理失败,是消息没收到还是收到处理出错了。
A:Kafka理论上可以按照Offset来回溯消息
B:RocketMQ支持按照时间来回溯消息,精度毫秒,例如从一天之前的某时某分某秒开始重新消费消息
备注:典型业务场景如consumer做订单分析,但是由于程序逻辑或者依赖的系统发生故障等原因,导致今天消费的消息全部无效,需要重新从昨天零点开始消费,那么以时间为起点的消息重放功能对于业务非常有帮助。
A:Kafka的消费并行度依赖Topic配置的分区数,如分区数为10,那么最多10台机器来并行消费(每台机器只能开启一个线程),或者一台机器消费(10个线程并行消费)。即消费并行度和分区数一致。
B:RocketMQ消费并行度分两种情况
顺序消费方式并行度同Kafka完全一致
乱序方式并行度取决于Consumer的线程数,如Topic配置10个队列,10台机器消费,每台机器100个线程,那么并行度为1000。
A:Kafka不支持消息轨迹
B:阿里云ONS支持消息轨迹
A:Kafka不支持Broker端的消息过滤
B:RocketMQ支持两种Broker端消息过滤方式
根据Message Tag来过滤,相当于子topic概念
向服务器上传一段Java代码,可以对消息做任意形式的过滤,甚至可以做Message Body的过滤拆分。
消息堆积能力
理论上Kafka要比RocketMQ的堆积能力更强,不过RocketMQ单机也可以支持亿级的消息堆积能力,我们认为这个堆积能力已经完全可以满足业务需求。
后期维护
A:Kafka社区更新较慢
B:RocketMQ的github社区有250个个人、公司用户登记了联系方式,QQ群超过1000人。
A:Kafka原开发团队成立新公司,目前暂没有相关产品看到
B:RocketMQ在阿里云上已经开放公测近半年,目前以云服务形式免费供大家商用,并向用户承诺99.99%的可靠性,同时彻底解决了用户自己搭建MQ产品的运维复杂性问题
A:Kafka在日志领域比较成熟
B:RocketMQ在阿里集团内部有大量的应用在使用,每天都产生海量的消息,并且顺利支持了多次天猫双十一海量消息考验,是数据削峰填谷的利器。
你的赞赏,就是最大认可,感谢你。