RabbitMQ是采用Erlang语言实现AMQP(Advanced Message Queuing Protocol,高级消息队列协议),AMQP是一个应用层协议的开放标准,解决消息中间件的需求和拓扑问题。标准仅解决了如何实现的问题,RabbitMQ是解决了怎么实现的问题。
话不多说,我们开始RabbitMq架构之旅。
我们先来看下整体架构。
Producer,消息生产者,即消息的发布方。
Connect,客户端与Broker间的TCP连接。
Channel,信道,每个连接采用多路复用,包含多个信道。producer与broker间采用信道传递数据。
Broker,Rabbit服务节点。
Vhost,虚机机,一个节点下包含多个vhost,vhost间的exchange,queue相互隔离。就好比一台物理机上(broker)部署多台虚机(vhost),虚拟机采用不同的用户名密码登录,实现多租户。
Exchange,交换机,消息首先会传递到交换机,由交换机匹配路由键(RoutingKey)决定投递到哪个queue。类比邮政局。
Queue,队列,存储消息的数据结构。类比小区的快递柜。
Binding,绑定,交换机与队列间通过路由键(RoutingKey)进行绑定起来。RoutingKey类比目的地址。
Consumer,消费者,即消息的接受方。
生产者生产的消息,首先发布到指定的交换机上,交换机通过路由键(RoutingKey)的匹配,选择对应的队列进行投递。消息者订阅队列,消费队列的消息。
下面我们进行详细分析。
生产者创建和启动信道连接,声明交换机机,队列,路由键等信息,消息封装成帧,通过信道发送到broker。
一个应用程序(生产者)与RabbitMQ服务节点,维护一个TCP连接(Connect),在这个连接中可以创建多个信道用于信息的传递,各个信道间相互隔离。这样做的目的就是避免在多线程的情况下,频繁开启和关闭多个TCP连接,带来的性能消耗(每个TCP经历三次握手,四次挥手),实际就是TCP的多路复用,类似HTTP2.0的原理。
当我们写下下面两句代码
Connection connection = factory.newConnection() ; //创建连接
Channel channel = connection.createChannel() ; //创建信道
生产者与broker之间完成了8次交互,分别为Connect的启动,调整,打开以及Channel的开启,最终打开信道。
后续所有与Broker通讯都是基于该信道,从代码层面看,都是基于channel对象操作。
生产者将消息发送到交换机,交换机根据路由键,投递到对应的目的队列保存。这个过程和邮件信息非常类似,寄件人将信件送到邮政局,邮政局根据信件的地址投递到目的地的邮箱中。
有同学会问,交换机,队列是Broker的模块,不应该是预先定义好的么,为何要在生产的时候创建,比如kafka的Topic,Partition都是定义好的,生产者只是调用而已。
其实,RabbitMq也同时提供了通过管理平台或者命名行预先创建交换机和队列。采用预先定义还是客户端创建,就看业务的需要,比如我们对交互机以及队列预先做了充分的规划,那就采用预先创建;如果需要创建一些临时的交换机或者队列,客户端创建更适合。
要想创建一个可用的交互机和队列,需要完成以下步骤
以java客户端为例,调用exchangeDeclare方法。
exchangeDeclare(String exchange ,String type , boolean durable ,boolean autoDelete , boolean internal ,Map
该方法有很多重载的方法,我们不一一介绍,只介绍下几个重要的参数
exchange,定义该交换器的名称
type,定义该交换器的路由类型,分类fanout,direct,topic,headers等(后面我们重点介绍)
autoDelete,是否自动删除,当设置为true,所有与这个交换器绑定的队列或者交换器都与此解绑,就会自动删除。
以java客户端为例,调用exchangeDeclare方法。
queueDeclare (String queue , boolean durable , boolean exclusive,boolean autoDelete, Map
其中重要的参数如下:
queue,队列名称
durable,队列是否持久化(注意,与消息是否持久化不是一回事,后面再介绍)
exclusive,是否排他(后面介绍)
autoDelete,是否自动删除,当设置为true,所有与这个队列连接的消费者都断开时,才会自动删除。
交换机和队列创建好了,接下来就需要将队列绑定到交换机上,告诉交换机,什么样的消息需要投递给我。
queueBind(String queue , String exchange , String routingKey)
queue,待绑定的队列名。
exchange,需要绑定到的交换机。
routingKey,用来绑定队列和交换机的路由键(有些地方为了区别发送的时候的路由键,将绑定时候的键称之为绑定键Bindkey)
如果交换机和队列已经存在,再次声明,broker不会重新创建,直接返回成功。
rabbit的消息分为消息头与消息体,类似http协议的消息结构。
消息头定了消息的相关属性,主要的有以下:
content-type,传输消息体的MIMEl类型,比如:application/json
content-encoding,消息体的编码,如gzip
expiration,消息的过期时间
delivery-mode,消息是否持久化到磁盘,1表示非持久化,2表示持久化。
priority,消息的优先级,数值越大表示该消息的优先级越高,优先消费。
消息体主要是用户自定的消息,可以是json,也可以是xml,通过序列化成二进制数据。
以java客户端为例,
exchangeName,交换机的名称
routingKey,路由键
mandatory,immediate,这两个参数后面再介绍。
客户端会将消息封装方法帧,消息头帧,消息体帧。
每个消息体帧最大是131Kb,如果超过需要分割成多个。所以一个完整消息,至少需要三个帧(方法帧,消息头帧,消息体帧)。
当生产者将消息发送到交换机后,交互机是否将消息正确路由,并存入队列呢?对于可靠性要求高的系统,这个信息对于生产者很重要。RabbitMq提供了两种方式,事务和生产确认机制(pulisher comfirm)。这里我们介绍下生产者确认机制,事务放到后面介绍。
生产者将信道设置成comfirm模式,所有通过该信道发送的消息都会被分配一个唯一的ID,一旦消息被投送到正确的队列后,将会返回确认信息(Basic.Ack),生产者接受信息后确认消息已发布成功;当然,如果投送失败,会返回Basic.Nack信息,生产者根据业务场景判断是否需要重发。
确认信息是通过异步回调返回,不会阻塞生产者发送其他消息,这种模式性能较高,但是在重试的情况下,无法确保消息的顺序写入。
消息发送到节点的交换机后,交换机需要通过路由键投递到对应的队列上,前面介绍过交换机有四种路由类型,分别为direct,fanout,topic,headers。
任何绑定在交换机的队列,只要它的路由键和发布消息的路邮建一致,就能收到消息。一般用于需要将一个消息投递到一个或者多个确定的目标队列。
所有发往fanout交换机的消息被投递到所有绑定到该交换机的队列中,这个应用于"广播"模式,该模式下,路由键不起作用。
4、headers
在队列绑定时,定义匹配headers的参数的值,并设置x-match参数。发布消息时,定义header的属性值,当x-match设置为all表示所有的消息的header属性值都匹配才能路由到队列,设置为any表示,任何一个header的属性值匹配就可以路由到队列。
headers类型的灵活性以及效率都要比其他的类型差,所以用的比较少。
前面介绍,交换机投递到队列上,那么队列是不是就是消息保存的物理位置呢?
队列其实还是个逻辑概念,它包含rabbit_amqqueue_process(队列进程)和backing_queue(维护5个状态栈)。通过rabbit_amqqueue_process负责接受生产者发布的消息,向消费者交付消息,处理消息的确认等;backing_queue是消息存储的具体形式和引擎,并向rabbit_amqqueue_process提供相关的接口。
那消息到底存储在什么位置,在讲消息属性的时候提到delivery-mode参数,1表示非持久化,2表示持久化。非持久化的消息置于内存,当内存达到设定阀值(vm memory high watermark paging ratio ),逐步写入磁盘;持久化消息则直接写入磁盘。磁盘的写入速度要远小于内存(都是顺序写入的前提下),并且需要等待落盘后才返回生产者确认信息,所以持久化模式的吞吐量要低于非持久化模式,但是可靠性强。
对于非持久化需要注意一点,如果大量的消息堆积内存,来不及进行落盘释放内存,一旦达到内存的告警阀值(vffi memory high watermark),就会产生告警,为确保节点的可用性,会阻塞所有生产者的连接,直到内存恢复到正常状态,这种情况下,会严重影响吞吐的。
持久化层分为两部分,队列索引(rabbit_queue_index)和消息存储(rabbit_msg_store)。队列索引负责维护队列中落盘消息的信息,包 括消息的存储地点、是否己被交付给消费者、是否己被消费者 ack 等,每个队列都有一个对应的队列索引,以".idx"为文件后缀。消息存储以键值队的形式存储消息,被所有的队列共享,每个节点有且只有一个,以".rdq"为文件后缀,顺序写入。
除了消息可以设置持久化,交换机和队列也可以设置持久化,三者需要同时设置,才能确保真正的持久化。如果队列没有设置持久化,消息是持久化的,那么就会导致队列删除了,但是消息还在,无法消费。
创建消息的时候,可以通过消息头的expiration设置消息的过期时间,如果消息到达了过期时间,没有被消息,将会被投递到死信队列(后面介绍)
消息存储时,会在ETS(Erlang Term Storage)表中记录消息在文件中的位置映射和文件的相关信息。消息被正确的消费后,即会被删除,首先删除该表的记录,但是不会立即删除文件,而是仅标记待删除数据,待一个文件都是垃圾数据时可以将这个文件删除。
与生产者一样,消费者需要与节点建立连接,打开信道,实现通讯。消费者需要订阅队列进行消费,消费的模式分为推(push)和拉(pull)两种.
这个模式Rabbitmq推荐的,队列会将消息推送给消费者,流程如下:
消费者获取消息后,可以设置不回复确认,自动回复确认,以及手动回复确认三种模式。
1、不回复确认,队列会默认发出去的消息都会被正确的处理,无需等待确认,这个方式吞吐最高,但是可靠性性最差。
2、自动回复确认,有可能消息没有正确处理,也被回复,队列无法识别,导致消息丢失。
3、手动回复确认,可以根据业务处理的逻辑,把握回复的时机,会带来一定的业务复杂度,但是可靠性最好。
对于设置Qos,可以进行批量回复,无需单次回复,这个也是提高吞吐的重要手段。
消息者也可以拒绝消息,比如消息解析错误等情况,通过设置requeue,来告诉队列是否需要重新投递还是丢弃该消息(如果配置了死信队列,那么丢失的消息会进入死信队列,等待处理)。
如果选择了重新投递,那么消费的顺序是无法得到保证的。
队列负责消息的交付,正常情况下,一个队列可以被多个消费者订阅消费,这也是我们期望的,多个消费者可以加快消费的速度。队列会轮询发送消息信息,当消费者设置回复模式,队列一直等待消费者的回复,直到连接关闭(不会设置超时时间),期间不会发送新的消息,所以消费者及时回复非常重要。消息被确认消费后,会标记位已投递(待删除),确保消息不会重复被消费。
集群节点间呈网状连接,节点间相互通讯,每个节点上保留所有的元数据,包括:
1、交换机,交换机的名称和属性。
2、队列元数据,队列的的名称和属性。
3、绑定关系,交换机与交换机以及交换机与队列的绑定关系元数据。
4、vhost,vhost内的队列,交换机和绑定的命名空间以及安全属性。
所有节点全量保留元数据,会有以下的影响:
1、当客户端连接某个节点创建这些元数据的时候(比如队列,交换机),需要同步到所有节点上,并等待所有的节点的完成后,才答复成功,所以会有一定的延迟。
2、客户端连接其中某个节点,都能获取到所有的元数据(这点和kafka类似)。
消息内容会不会所有节点都备份呢?答案是否。因为这会造成大量的空间浪费(镜像队列除外,后面介绍)。如果一个生产者(消费者)连接到某个节点发布(消费)队列消息,但该队列不在该节点上,那需要通过该节点路由。如下:
消息的发布和消费链路加长,会导致延迟加长,吞吐量降低,为了减少影响,集群的节点建议部署到在一个汇聚下,不要跨可用区部署(后面会介绍跨可用区的方法)。我们希望客户端对接的节点上部署所需要的队列,这个需要规划得当。
在多节点情况下,客户端的请求通过负载均衡,将流量均匀分摊到各节点,RabbitMq集群可以通过HAProxy,LVS+keepalived等LB实现,如下图所示。
集群多节点能确保整体服务的可用性,但是对于单个队列来说,如果做不了多节点部署,还是有单节点故障的可能,ActiveMQ中采用主从模式保证了高可用,在RabbitMq中,也有类似机制,称之为镜像队列(或者HA队列)。
在创建队列时,通过ha-mode,ha-params,ha-sync-mode来定义镜像队列个数,分布,以及同步模式。
ha-mode,有效值为,all,exactly,nodes。alls表示在所有的节点上创建镜像队列,exactly表示指定个数的节点上创建,ha-params设置个数;nodes指定在哪些节点上创建,ha-params指定节点名。
ha-sync-mode,有效值为automatic,manual。automatic表示新节点加入时,默认自动同步镜像队列消息;manual表示新节点加入时,不会自动同步镜像队列消息。因为同步操作会导致队列的阻塞,建议使用manual模式。
镜像队列有一个master和多个slave组成,创建完成后,直接连接的节点上的队列为master,其他的为slave。
,生产者发布消息,需要同时向所有镜像队列发布。
可以认为有个隐藏的fanout交换机,向所有的镜像队列进行广播(这里与kafka不大一样,它是通过follower向master请求同步内容)。当所有的镜像队列确认完成后,才向发布者回复publish-comfirm(所以镜像个数不能太多,否则影响发布吞吐量,一般2-3个为宜),这样能确保所有的镜像队列的消息都是同步的。
除了发布需要向master和slave同时投递消息,其他的都是由master负责向slave同步,包括消费,ack等。我们看下消费的过程
如果消息者连接master队列所在的节点(如消费者2),则消息队列信息即可;如果消费者连接的是slave队列所在的节点(如消费者1),slave节点需要将消费指令发送给master节点,master节点将数据准备好,发送给到slave节点,再投递给消费者。slave队列为何不类似于mysql提供读服务呢,这个和kafka的设计类似,RabbitMq的负载粒度在队列上,而不是整个节点,只需要将master队列均衡分布,就是平衡整个节点的压力。
如图,节点1,节点2,节点3分别分担队列1,队列2,队列3的压力。
当slave所在节点挂掉后,除了与slave相连的客户端全部断开连接,其他的没有影响。但是当master所在的节点宕机后,就会产生连锁反应。
(1)与master节点所有的客户端连接断开。
(2)选举最老的slave节点为master节点,因为最老的slave与master之间的同步状态是最好的,但是也存在未同步的信息丢失。
(3)新的master节点重续入队所有unack信息。消费者获取信息进行消费,还没来得及ack,或者ack信息没有同步到新的master上,新master无法确认这部分消息是否被正确消费,为了安全起见,所有的unack都重新入队,此时客户端会有重复消费的可能。
(4)如果消费端直连master所在节点(如上图中的消费者2),master节点宕机后,TCP连接断开,重入附加并监听新的master节点;如果是连接slave所在节点(如上图中的消费者1),就无法感知master节点宕机了,只认为队列没有消息。此时,在basicComsume消费时需要指定x-cancel-on-ha-failover参数,监听master节点断开的通知,接受到通知后重入附加并监听新的master。这点非常重要,否则会导致消息大量积压,但是消息端又无消息消费的问题。这个问题在kafka中是不存在的,分区选举的结果保存在所有的节点上,客户端通过元数据更新,获取最新分区leader信息。
现在大型的网站系统,为了实现异地容灾,一般采用多机房或者混合云部署。我们来讨论下单个集群在这种场景下的集中方案
1、仅部署一个机房
单个集群仅部署在北京机房,南京机房的发布者和消费者跨机房访问。这个方案有以下几个问题。
(1)、无法做到容灾,一旦北京机房挂了,整个集群不可用。
(2)、降低吞吐量,南京机房的客户端发送请求后,会阻塞住,直到节点回复确认,由于两个机房的存在延迟(假设北京到南京机房的RTT在30ms),导致每次请求时间增加,降低了吞吐量。
2、延展机房部署
单个集群跨机房部署,节点1,节点2部署到北京机房,节点3部署到南京机房。这个方案通过镜像队列在节点1,节点2与节点3间互备,能做到部分的容灾。但是也有如下问题:
(1)跨机房请求,部分消费者和发布者还是需要跨机房请求,与方案1类似,导致请求时间增加,降低了吞吐量。
(2)脑裂,异地间的网络环境复杂,网络波动会导致分区,进而"脑裂",单个集群是无法做到跨可用区的。
单个集群是无法满足跨机房场景,需要采用多集群部署解决这个问题,跨集群间的"桥接"可以通过Federation,Shovel两种方式。
Federation,可以翻译为"联邦"。Federation 可以通过AMQP 协议让原本发送到某个Broker(或集群)中的交换器(或队列)上的消息能够转发到另一个Broker(或集群)中的交换器(或队列)上,两方的交换器(或队列〉看起来是以一种"联邦"的形式在运作。又分为联邦交换机和联邦队列两种模式。
1、联邦交换机
假设发布者1位于北京机房,需要发布消息到南京机房的broker2节点上,首先在broker2节点的ExchangeA上建立到broker1节点的federation link,broker1上会建立一个同名的交互机ExchangeA,同时建立一个内部的交换机ExchangeA->broker2, 并通过路由键"rkA"将这两个交换器绑定,同时,还会创建一个Exchange->broker2队列,并与Exchange->broker2交换机绑定,Federation插件会在broker1的ExchangeA->broker2队列与broker2的ExchangeA建立AMQP连接,实时消费Exchange->broker2队列的消息。发布者1仅需要把消息发送了ExchangeA上,保存到队列ExchangeA->broker2上即可,剩下的时就交由Federation插件搞定。
2、联邦队列
联邦交换机是在两个节点的交换机间建立连接,联邦队列就是在两个队列间建立连接
联邦队列可以看做互为扩展队列,如图中的Queue1与Queue3建立联邦队列,当Queue3有消息堆积,消费者1优先将Queue3的消费完,此时则会从Queue1拉取消息;反之亦然,如果Queue1的队列消费完成,将会从Queue3中拉取消息,消费者1继续消息,所以Queue1与Queue3间的消息是可以"漂移"的。联邦队列会让消费能力强的一侧多消费些,确保队列间的平衡。
联邦交换机的消息流向是单向的,联邦队列消息流向是双向。
以broker1的Queue为源,broker2的Exchange为目标,建立shovel link,发布者发送的Msg1消息,存入queue,Shovel消费后存入broker2的queue。当broker1的queue产生消息堆积时,通过shovel link转移消息到其他集群进行消息,减少broke1的压力。
可靠性是衡量消息组件的重要因素,但可靠性都是相对的,没有任何组件确保百分百可靠。我们看下RabbitMq有哪些措施保证高可靠,将整个消息的生命周期分为四个阶段来逐一分析
前面介绍了生产者确认的机制,通过对信道设置comfirm,对于每条投递的消息,都会返回确认信息。除此之外,生产者还可以通过事务机制确保消息投递的可靠性。
生产者通过二阶段提交方式,确报批量消息的事务一致性。
1、客户端发送Tx.select,将信道置为事务模式。
2、Broker回复Tx.selectOk,确认已将信道置为事务模式。
3、客户端发送批量消息。
4、根据结果(捕获异常),客户端确定是否提交还是回滚。
5、Broker确认提交或者回滚指令。
事务机制能确保批量消息投递的一致性,由于其同步操作,导致性能大大下降。事务与生产者确认机制是互斥的,一般情况下我们采用轻量级的生产者确认机制。
当消息发送到交换机,有可能由于路由配置错误,导致消息无法正确投递。此时,有两种处理方式,一种是直接丢弃,一种是反馈给生产者。第一章节在介绍调用publish的时候,说到mandatory参数,该参数如果设置为true,会回调生产端的监听接口,返回 消息;如果设置为false,则直接丢弃。显然设置为true,将提升可靠性。
有时我们并不想丢弃这些路由错误的消息,那么就可以设置备份交换机,路由失败的消息会丢到备份交换机,保存到特定的队列。通过该队列监控路由错误的消息。
消息存储阶段,我们前面介绍了以下几种可靠性机制
1、持久化,队列和消息设置为持久化,写入到磁盘,确保broker宕机重启后,消息不丢失。但是消息先写入页面缓存,再批量写入磁盘,如果在这期间宕机,还是会存在丢失风险。
2、镜像队列,采用msater-slave多副本机制,最大程度确保可用性。
接下来我们介绍死信队列。
死信队列是一种特殊队列,存储死信消息,有以下几种情况下的消息会变成死信消息。
1、消息被拒绝(Basic.reject,并设置request为false)
2、消息过期(超过expiration时间)
3、队列达到最大长度。
任何队列都可以设置一个死信交换机,将符合条件的消息路由到死信队列。死信队列也是一个普通队列,里面的消息也可被订阅。
监控死信队列,及时处理死信消息,确保消息的可靠性。
消费者获取消息后,通过手动确认,能最大程度消息消费的可靠性,也可以拒绝消息,并设置request为true,该消息会重新入队。
高可用,高吞吐在有些场景中是互斥的,所以需要根据自身的业务进行抉择,我们分析下提高吞吐率的一些措施。
1、生产者不设置信道确认,能大幅提高吞吐量,但是可靠性较差,可以用在允许部分消息丢失的场景,比如统计用户点击量。
2、按照业务规则将队列拆分多个,分布到不同的节点上。
3、一个节点上设置合理的队列个数,一个队列对应一个线程,在一个多核的节点,使用多个队列与消费者可以获得更好的吞吐量,将队列数量设置为等于服务器cpu核数将获得最佳吞吐量。
4、限制队列的大小,设置TTL或者max-length限制队列大小。
5、自动删除不需要的队列,设置队列的TTL,配置auto-delete以及排它队列,删除无用的队列。
6、设置尽可能大的预取个数,不过这个是需要综合网络带宽,客户端缓存,消息处理速度等各方面的因素评估。
本文首先介绍了RabbitMq的工作原理,发布者将消息发送到交换机,交换机根据路由的方式和路由键,投递消息到队列,消费者通过推或拉两种方式消费信息。
RabbitMq支持集群部署,设置镜像队列实现队列的高可用。
在异地多机房情况下,需要采用跨级群部署,使用Federation,Shovel插件实现跨级群通讯。
分析了高可靠性,高吞吐的影响因素以及相关方法。
附录:
架构决策之消息中间件MQ系列一-开篇
架构决策之消息中间件MQ系列二-ActiveMQ
架构决策之消息中间件MQ系列三-RabbitMQ
架构决策之消息中间件MQ系列四-Kafka
架构决策之消息中间件MQ系列五-RocketMQ
架构决策之消息中间件MQ系列六-Pulsar
架构决策之消息中间件MQ系列七-总结