消息队列在使用过程中,面临着很多实际问题需要思考:
消息从发送,到消费者接收,会经历多个过程:
消息从生产者发送到 exchange,再到 queue,再到消费者,有哪些导致消息丢失的可能性?
针对这些问题,RabbitMQ 分别给出了解决方案:
RabbitMQ 提供了 publisher confirm
机制来避免消息发送到 MQ 过程中丢失。这种机制必须给每个消息指定一个唯一 ID。消息发送到 MQ 以后,会返回一个结果给发送者,表示消息是否处理成功。返回结果有两种方式:
ack
nack
ack
及路由失败原因。注意:确认机制发送消息时,需要给每个消息设置一个全局唯一 id,以区分不同的消息,避免 ack 冲突。
手动创建队列
首先,修改 publisher 服务中的 application.yml 文件,添加下面内容:
spring:
rabbitmq:
publisher-confirm-type: correlated
publisher-returns: true
template:
mandatory: true
publish-confirm-type
:开启 publisher-confirm,这里支持两种类型:
simple
:同步等待 confirm 结果,直到超时correlated
:异步回调,定义 ConfirmCallback,MQ 返回结果时会回调这个 ConfirmCallbackpublish-returns
:开启 publish-return 功能,同样是基于 callback 机制,不过是定义 ReturnCallbacktemplate.mandatory
:定义消息路由到队列失败时的策略。true 则调用 ReturnCallback,false 则直接丢弃消息Return 是指消息到达交换机了,但是在路由到队列的过程中失败了
每个 RabbitTemplate 只能配置一个 ReturnCallback,因此需要在项目加载时配置:
在 publisher 服务的 cn.itcast.mq.config
包下,添加一个配置类:
@Slf4j
@Configuration
public class CommonConfig implements ApplicationContextAware {
@Override
public void setApplicationContext(ApplicationContext applicationContext) throws BeansException {
// 获取RabbitTemplate对象
RabbitTemplate rabbitTemplate = applicationContext.getBean(RabbitTemplate.class);
// 配置ReturnCallback
rabbitTemplate.setReturnCallback((message, replyCode, replyText, exchange, routingKey) -> {
log.error("消息发送到队列失败,响应码:{},失败原因:{},交换机:{},路由key:{},消息:{}", replyCode, replyText, exchange, routingKey, message.toString());
// 如果有业务需要,这里可以重发消息
});
}
}
手动将交换机与队列进行绑定
Confirm 指的是消息没有达到交换机
ConfirmCallback 可以在发送消息时指定,因为每个业务处理 confirm 成功或失败的逻辑不一定相同。
在 publisher 服务的 cn.itcast.mq.spring.SpringAmqpTest
类中,定义一个单元测试方法:
@Test
public void testSendMessage2SimpleQueue() throws InterruptedException {
// 1、准备消息
String message = "hello, spring amqp!";
// 2、准备CorrelationData
// 2.1、消息ID
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
// 2.2、准备ConfirmCallback
correlationData.getFuture().addCallback(
// 成功的回调,表示接收到了回执
result -> {
if (result.isAck()) {
// ack,消息成功投递到交换机
log.debug("消息成功投递到交换机!ID:{}", correlationData.getId());
} else {
// nack,消息没有投递到交换机
log.error("消息投递到交换机失败!ID:{},原因{}", correlationData.getId(), result.getReason());
// 如果有业务需要,这里可以重发消息
}
},
// 失败的回调,表示没有收到回执
ex -> {
// 记录日志
log.error("消息发送异常,ID:{},原因{}", correlationData.getId(), ex.getMessage());
// 如果有业务需要,这里可以重发消息
});
// 3、发送消息(交换机名称、路由key、消息体)
rabbitTemplate.convertAndSend("amq.topic", "simple.test", message, correlationData);
}
消息成功投递到交换机:
直接运行上面的代码:
消息投递到交换机失败:
消息成功投递到交换机,但是发送到队列时失败:
SpringAMQP 中处理消息确认的几种情况:
生产者确认可以确保消息投递到 RabbitMQ 的队列中,但是消息发送到 RabbitMQ 以后,如果突然宕机,也可能导致消息丢失。
要想确保消息在 RabbitMQ 中安全保存,必须开启消息持久化机制。
RabbitMQ 中交换机默认是非持久化的,mq重启后就会丢失。
SpringAMQP 中可以通过代码指定交换机持久化:
@Bean
public DirectExchange simpleExchange(){
// 三个参数:交换机名称、是否持久化、当没有queue与其绑定时是否自动删除
return new DirectExchange("simple.direct", true, false);
}
事实上,默认情况下,由 SpringAMQP 声明的交换机都是持久化的。
可以在 RabbitMQ 控制台看到持久化的交换机都会带上 D
的标示:
RabbitMQ 中队列默认是非持久化的,mq 重启后就会丢失。
SpringAMQP 中可以通过代码指定队列持久化:
@Bean
public Queue simpleQueue(){
// 使用QueueBuilder构建队列,durable就是持久化的
return QueueBuilder.durable("simple.queue").build();
}
事实上,默认情况下,由 SpringAMQP 声明的队列都是持久化的。
可以在 RabbitMQ 控制台看到持久化的队列都会带上 D
的标示:
SpringAMQP 中的的消息默认是持久的,可以通过 MessageProperties 中的 DeliveryMode 来指定:
@Test
public void testDurableMessage() {
// 1、创建消息
Message message = MessageBuilder.withBody("hello,spring".getBytes(StandardCharsets.UTF_8))
// 设置为持久的
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
// 构建
.build();
// 2、发送消息
rabbitTemplate.convertAndSend("simple.queue", message);
}
RabbitMQ 是阅后即焚机制,RabbitMQ 确认消息被消费者消费后会立刻删除。
而 RabbitMQ 是通过消费者回执来确认消费者是否成功处理消息的:消费者获取消息后,应该向 RabbitMQ 发送 ACK 回执,表明自己已经处理消息。
设想这样的场景:
这样,消息就丢失了。因此消费者返回ACK的时机非常重要。
SpringAMQP 允许配置三种确认模式:
由此可知:
一般我们都是使用默认的 auto 即可。
修改 consumer 服务的 application.yml 文件,添加下面内容:
spring:
rabbitmq:
listener:
simple:
prefetch: 1
acknowledge-mode: none # 关闭ack
修改 consumer 服务的 SpringRabbitListener 类中的方法,模拟一个消息处理异常:
@RabbitListener(queues = "simple.queue") // 监听的队列名称
public void listenSimpleQueue(String msg) {
System.out.println("消费者接收到simple.queue的消息:【" + msg + "】");
System.out.println(1 / 0);
log.info("消费者处理消息成功!");
}
测试可以发现,当消息处理抛出异常时,消息依然被 RabbitMQ 删除了。
再次把确认机制修改为 auto:
spring:
rabbitmq:
listener:
simple:
prefetch: 1
acknowledge-mode: auto
在异常位置打断点,再次发送消息,程序卡在断点时,可以发现此时消息状态为 Unacked
(未确定状态):
抛出异常后,因为 Spring 会自动返回 unack,所以消息恢复至 Ready 状态,并且没有被 RabbitMQ 删除:
当消费者出现异常后,消息会不断 requeue(重入队)到队列,再重新发送给消费者,然后再次异常,再次 requeue,无限循环,导致 mq 的消息处理飙升,带来不必要的压力:
我们可以利用 Spring 的 retry 机制,在消费者出现异常时利用本地重试,而不是无限制的 requeue 到 mq 队列。
修改 consumer 服务的 application.yml 文件,添加内容:
spring:
rabbitmq:
listener:
simple:
retry:
enabled: true # 开启消费者失败重试
initial-interval: 1000 # 初始的失败等待时长为1秒
multiplier: 3 # 失败的等待时长倍数,下次等待时长 = multiplier * last-interval
max-attempts: 4 # 最大重试次数
stateless: true # true无状态;false有状态。如果业务中包含事务,这里改为false
重启 consumer 服务,重复之前的测试。可以发现:
结论:
在之前的测试中,达到最大重试次数后,消息会被丢弃,这是由 Spring 内部机制决定的。
在开启重试模式后,重试次数耗尽,如果消息依然失败,则需要有 MessageRecovery
接口来处理,它包含三种不同的实现:
比较优雅的一种处理方案是 RepublishMessageRecoverer,失败后将消息投递到一个指定的、专门存放异常消息的队列,后续由人工进行集中处理。
1、在 consumer 服务中定义处理失败消息的交换机和队列
@Bean
public DirectExchange errorMessageExchange() {
return new DirectExchange("error.direct");
}
@Bean
public Queue errorQueue() {
return new Queue("error.queue");
}
@Bean
public Binding errorBinding(Queue errorQueue, DirectExchange errorMessageExchange) {
return BindingBuilder.bind(errorQueue).to(errorMessageExchange).with("error"); // 指定路由key
}
2、定义一个 RepublishMessageRecoverer,关联队列和交换机
@Bean
public MessageRecoverer republishMessageRecoverer(RabbitTemplate rabbitTemplate) {
/**
* 第一个参数:发送消息的AmqpTemplate对象
* 第二个参数:交换机
* 第三个参数:路由key
*/
return new RepublishMessageRecoverer(rabbitTemplate, "error.direct", "error");
}
3、完整代码
@Configuration
public class ErrorMessageConfig {
@Bean
public DirectExchange errorMessageExchange() {
return new DirectExchange("error.direct");
}
@Bean
public Queue errorQueue() {
return new Queue("error.queue");
}
@Bean
public Binding errorBinding(Queue errorQueue, DirectExchange errorMessageExchange) {
return BindingBuilder.bind(errorQueue).to(errorMessageExchange).with("error"); // 指定路由key
}
@Bean
public MessageRecoverer republishMessageRecoverer(RabbitTemplate rabbitTemplate) {
/**
* 第一个参数:发送消息的AmqpTemplate对象
* 第二个参数:交换机
* 第三个参数:路由key
*/
return new RepublishMessageRecoverer(rabbitTemplate, "error.direct", "error");
}
}
如何确保 RabbitMQ 消息的可靠性?
什么是死信?
当一个队列中的消息满足下列情况之一时,可以成为死信(dead letter):
basic.reject
或 basic.nack 声明消费失败,并且消息的 requeue 参数设置为 false如果这个包含死信的队列配置了 dead-letter-exchange
属性,指定了一个交换机,那么队列中的死信就会投递到这个交换机中,而这个交换机就称为死信交换机(Dead Letter Exchange,简称 DLX)。
如图,一个消息被消费者拒绝,变成了死信:
因为 simple.queue 绑定了死信交换机 dl.direct,因此死信会投递给这个交换机:
如果这个死信交换机也绑定了一个队列,则消息最终会进入这个存放死信的队列:
另外,simple.queue 队列将死信投递给死信交换机时,必须知道两个信息:
这样才能确保投递的消息能到达死信交换机,并且能正确的路由到死信队列。
在失败重试策略中,默认的 RejectAndDontRequeueRecoverer 会在本地重试次数耗尽后,发送 reject 给 RabbitMQ,消息变成死信,被丢弃。
我们可以给 simple.queue 添加一个死信交换机,给死信交换机绑定一个死信队列。这样消息变成死信后也不会丢弃,而是最终投递到死信交换机,路由到与死信交换机绑定的死信队列。
我们在 consumer 服务中,定义一组死信交换机和死信队列:
/**
* 声明普通的simple.queue2队列,并且为其指定死信交换机:dl.direct
*
* @return
*/
@Bean
public Queue simpleQueue2() {
return QueueBuilder.durable("simple.queue2") // 指定队列名称,并持久化
// 指定死信交换机
.deadLetterExchange("dl.direct")
// 指定死信交换机与死信队列绑定的RoutingKey
.deadLetterRoutingKey("dl")
// 构建
.build();
}
/**
* 声明死信交换机 dl.direct
*
* @return
*/
@Bean
public DirectExchange dlExchange() {
return new DirectExchange("dl.direct");
}
/**
* 声明存储死信的队列 dl.queue
*
* @return
*/
@Bean
public Queue dlQueue() {
return new Queue("dl.queue");
}
/**
* 将死信队列与死信交换机进行绑定
*
* @return
*/
@Bean
public Binding dlBinding() {
return BindingBuilder.bind(dlQueue()).to(dlExchange()).with("dl");
}
什么样的消息会成为死信?
如何给队列绑定死信交换机?
死信交换机的使用场景是什么?
一个队列中的消息如果超时未消费,则会变成死信,超时分为两种情况:
注意:如果消息所在的队列和消息本身都设置了超时时间,那么会以较小数值的为准。
在 consumer 服务的 SpringRabbitListener 中,定义一个新的消费者,并且声明死信交换机和死信队列,基于注解的方式:
@RabbitListener(bindings = @QueueBinding(
// 指定死信队列名称,并持久化
value = @Queue(name = "dl.queue", durable = "true"),
// 指定死信交换机名称
exchange = @Exchange(name = "dl.direct"),
// 指定要获取的RoutingKey
key = "dl"))
public void listenDlQueue(String msg) {
log.info("消费者接收到了dl.queue的延迟消息");
}
在 consumer 服务的 TTLMessageConfig
类中,声明一个队列。
要给队列设置超时时间,需要在声明队列时配置 x-message-ttl
属性:
@Configuration
public class TTLMessageConfig {
/**
* 声明一个交换机
*
* @return
*/
@Bean
public DirectExchange ttlDirectExchange() {
return new DirectExchange("ttl.direct");
}
/**
* 声明一个队列
*
* @return
*/
@Bean
public Queue ttlQueue() {
return QueueBuilder
// 指定队列名称,并持久化
.durable("ttl.queue")
// 设置队列的超时时间,10秒
.ttl(10000)
// 指定死信交换机
.deadLetterExchange("dl.direct")
// 指定死信交换机与死信队列绑定的RoutingKey
.deadLetterRoutingKey("dl")
// 构建
.build();
}
/**
* 将队列与交换机进行绑定
*
* @return
*/
@Bean
public Binding ttlBinding() {
return BindingBuilder.bind(ttlQueue()).to(ttlDirectExchange()).with("ttl");
}
}
发送消息,但是不要指定 TTL:
@Test
public void testTTLMessage() {
// 1、创建消息
Message message = MessageBuilder.withBody("hello,TTL Message".getBytes(StandardCharsets.UTF_8))
// 设置为持久的
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
// 构建
.build();
// 2、发送消息
rabbitTemplate.convertAndSend("ttl.direct", "ttl", message);
// 3、记录日志
log.info("消息已经成功发送!");
}
发送消息的日志:
接收消息的日志:
因为队列的 TTL 值是 10000ms,也就是10秒。可以看到消息发送与接收之间的时差刚好是 10 秒。
在发送消息时,给消息本身设置超时时间:
@Test
public void testTTLMessage() {
// 1、创建消息
Message message = MessageBuilder.withBody("hello,TTL Message".getBytes(StandardCharsets.UTF_8))
// 设置为持久的
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
// 设置消息的超时时间为5秒
.setExpiration("5000")
// 构建
.build();
// 2、发送消息
rabbitTemplate.convertAndSend("ttl.direct", "ttl", message);
// 3、记录日志
log.info("消息已经成功发送!");
}
发送消息的日志:
接收消息的日志:
这次,发送与接收的延迟只有5秒。说明当队列、消息都设置了 TTL 时,任意一个到期都会成为死信。
消息超时的两种方式是什么?
如何实现发送一个消息 20 秒后消费者才收到消息?
利用 TTL 结合死信交换机,我们实现了消息发出后,消费者延迟收到消息的效果。这种消息模式就称为延迟队列(Delay Queue)模式。
延迟队列的使用场景包括:
因为延迟队列的需求非常多,所以 RabbitMQ 的官方也推出了一个插件,原生支持延迟队列效果。这个插件就是 DelayExchange
插件。
官方的安装指南地址为:https://blog.rabbitmq.com/posts/2015/04/scheduling-messages-with-rabbitmq
上述文档是基于 linux 原生安装 RabbitMQ,然后安装插件。
因为我们之前是基于 Docker 安装 RabbitMQ,所以下面我们会讲解基于 Docker 来安装 RabbitMQ 插件。
1、下载插件
RabbitMQ 有一个官方的插件社区,地址为:https://www.rabbitmq.com/community-plugins.html
其中包含各种各样的插件,包括我们要使用的 DelayExchange 插件:
大家可以去对应的 GitHub 页面下载 3.9.0
版本的插件,地址为 https://github.com/rabbitmq/rabbitmq-delayed-message-exchange/releases/tag/3.8.9,
这个对应 RabbitMQ 的 3.8.5
以上版本。
2、重新安装 MQ 容器
docker run \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=283619 \
-v mq-plugins:/plugins \
--name mq \
--hostname mq1 \
-p 15672:15672 \
-p 5672:5672 \
-d \
rabbitmq:3.8-management
3、上传插件
因为我们是基于 Docker 安装,所以需要先查看 RabbitMQ 的插件目录对应的数据卷。
我们设定的 RabbitMQ 的数据卷名称为 mq-plugins
,所以我们使用下面命令查看数据卷:
docker volume inspect mq-plugins
接下来,将插件上传到这个目录即可:
4、安装插件
最后就是安装了,需要进入 MQ 容器内部来执行安装。我的容器名为 mq
,所以执行下面命令:
docker exec -it mq bash
执行时,请将其中的 -it
后面的 mq
替换为你自己的容器名。
进入容器内部后,执行下面命令开启插件:
rabbitmq-plugins enable rabbitmq_delayed_message_exchange
5、使用插件
DelayExchange 插件的原理是对官方原生的 Exchange 做了功能的升级:
在 RabbitMQ 的管理平台声明一个 DelayExchange:
消息的延迟时间需要在发送消息的时候指定:
插件的使用也非常简单:声明一个交换机,交换机的类型可以是任意类型,只需要设定 delayed 属性为 true 即可,然后声明队列与其绑定即可。
1、声明DelayExchange交换机
基于注解方式(推荐):
基于 java 代码的方式:
2、发送消息
发送消息时,一定要携带 x-delay
属性,指定延迟的时间,单位为毫秒:
延迟队列插件的使用步骤包括哪些?
x-delay
头,值为超时时间当生产者发送消息的速度超过了消费者处理消息的速度,就会导致队列中的消息堆积,直到队列存储消息达到上限。最早接收到的消息,可能就会成为死信而被丢弃,这就是消息堆积问题。
解决消息堆积有三种思路:
从 RabbitMQ 的 3.6.0 版本开始,就增加了 Lazy Queues 的概念,也就是惰性队列。惰性队列的特征如下:
而要设置一个队列为惰性队列,只需要在声明队列时,指定 x-queue-mode
属性为 lazy
即可。可以通过命令行将一个运行中的队列修改为惰性队列:
rabbitmqctl set_policy Lazy "^lazy-queue$" '{"queue-mode":"lazy"}' --apply-to queues
rabbitmqctl
:RabbitMQ 的命令行工具set_policy
:添加一个策略Lazy
:策略名称,可以自定义"^lazy-queue$"
:用正则表达式匹配队列的名字'{"queue-mode":"lazy"}'
:设置队列模式为 lazy 模式-apply-to queues
:策略的作用对象,是所有的队列在 consumer 服务新建一个类:
@Configuration
public class LazyConfig {
/**
* 声明一个惰性队列
*
* @return
*/
@Bean
public Queue lazyQueue() {
return QueueBuilder.durable("lazy.queue")
// 声明该队列为惰性队列
.lazy()
// 构建
.build();
}
/**
* 声明一个普通队列
*
* @return
*/
@Bean
public Queue normalQueue() {
return QueueBuilder.durable("normal.queue")
// 构建
.build();
}
}
在 publisher 服务的 SpringAmqpTest
类中发送消息:
/**
* 累计发送一百万条消息到惰性队列
*
* @throws InterruptedException
*/
@Test
public void testLazyQueue() throws InterruptedException {
for (int i = 0; i < 1000000; i++) {
// 1、创建消息
Message message = MessageBuilder.withBody("hello,Spring".getBytes(StandardCharsets.UTF_8))
// 设置为非持久化的
.setDeliveryMode(MessageDeliveryMode.NON_PERSISTENT)
// 构建
.build();
// 2、发送消息(队列名称、消息体)
rabbitTemplate.convertAndSend("lazy.queue", message);
}
}
/**
* 累计发送一百万条消息到普通队列
*
* @throws InterruptedException
*/
@Test
public void testNormalQueue() throws InterruptedException {
for (int i = 0; i < 1000000; i++) {
// 1、创建消息
Message message = MessageBuilder.withBody("hello,Spring".getBytes(StandardCharsets.UTF_8))
// 设置为非持久化的
.setDeliveryMode(MessageDeliveryMode.NON_PERSISTENT)
// 构建
.build();
// 2、发送消息(队列名称、消息体)
rabbitTemplate.convertAndSend("normal.queue", message);
}
}
消息堆积问题的解决方案?
惰性队列的优点有哪些?
惰性队列的缺点有哪些?
RabbitMQ 是基于 Erlang 语言编写的,而 Erlang 又是一个面向并发的语言,天然支持集群模式。RabbitMQ 的集群有两种模式:
镜像集群虽然支持主从,但主从同步并不是强一致的,某些情况下可能有数据丢失的风险。因此在 RabbitMQ 的 3.8 版本以后,推出了新的功能:用仲裁队列来代替镜像集群,底层采用 Raft 协议确保主从的数据一致性。
普通集群,也叫标准集群(classic cluster),具备下列特征:
在 RabbitMQ 的官方文档中,讲述了两种集群的配置方式:
先来看普通模式集群,我们的计划是部署 3 节点的 mq 集群:
主机名 | 控制台端口 | amqp通信端口 |
---|---|---|
mq1 | 8081 —> 15672 | 8071 —> 5672 |
mq2 | 8082 —> 15672 | 8072 —> 5672 |
mq3 | 8083 —> 15672 | 8073 —> 5672 |
集群中的节点标识默认都是:rabbit@[hostname]
,因此以上三个节点的名称分别为:
RabbitMQ 底层依赖于 Erlang,而 Erlang 虚拟机就是一个面向分布式的语言,默认就支持集群模式。集群模式中的每个 RabbitMQ 节点使用 cookie 来确定它们是否被允许相互通信。
要使两个节点能够进行通信,它们必须具有相同的共享秘密,称为 Erlang cookie。cookie 只是一串最多 255 个字符的字母数字字符。
每个集群节点必须具有相同的 cookie。实例之间也需要它来相互通信。
1、我们先在之前启动的 mq 容器中获取一个 cookie 值,作为集群的 cookie。执行下面的命令:
docker exec -it mq cat /var/lib/rabbitmq/.erlang.cookie
可以看到 cookie 值如下:
BJMMQJBVANPNPATQXDLM
2、接下来,停止并删除当前的 mq 容器,我们重新搭建集群。
docker rm -f mq
在 /opt 目录下新建一个配置文件 rabbitmq.conf:
cd /opt
# 创建文件
vim rabbitmq.conf
文件内容如下:
loopback_users.guest = false
listeners.tcp.default = 5672
cluster_formation.peer_discovery_backend = rabbit_peer_discovery_classic_config
cluster_formation.classic_config.nodes.1 = rabbit@mq1
cluster_formation.classic_config.nodes.2 = rabbit@mq2
cluster_formation.classic_config.nodes.3 = rabbit@mq3
再创建一个文件,记录 cookie:
cd /opt
# 创建cookie文件
touch .erlang.cookie
# 写入cookie
echo "BJMMQJBVANPNPATQXDLM" > .erlang.cookie
# 修改cookie文件的权限
chmod 600 .erlang.cookie
准备三个目录,mq1、mq2、mq3:
cd /opt
# 创建目录
mkdir mq1 mq2 mq3
然后拷贝 rabbitmq.conf、cookie 文件到mq1、mq2、mq3:
# 进入/opt
cd /opt
# 拷贝
cp rabbitmq.conf mq1
cp rabbitmq.conf mq2
cp rabbitmq.conf mq3
cp .erlang.cookie mq1
cp .erlang.cookie mq2
cp .erlang.cookie mq3
创建一个网络:
docker network create mq-net
运行命令:
docker run -d --net mq-net \
-v ${PWD}/mq1/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=283619 \
--name mq1 \
--hostname mq1 \
-p 8071:5672 \
-p 8081:15672 \
rabbitmq:3.8-management
docker run -d --net mq-net \
-v ${PWD}/mq2/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=283619 \
--name mq2 \
--hostname mq2 \
-p 8072:5672 \
-p 8082:15672 \
rabbitmq:3.8-management
docker run -d --net mq-net \
-v ${PWD}/mq3/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=283619 \
--name mq3 \
--hostname mq3 \
-p 8073:5672 \
-p 8083:15672 \
rabbitmq:3.8-management
在 mq1 这个节点上添加一个队列:
如图,在 mq2 和 mq3 两个控制台也都能看到:
数据共享测试
在 mq1 节点上点击这个队列,进入管理页面:
然后利用控制台发送一条消息到这个队列:
结果在 mq2、mq3 上都能看到这条消息:
可用性测试
我们让其中一台节点 mq1 宕机:
docker stop mq1
然后登录 mq2 或 mq3 的控制台,发现 simple.queue 也不可用了:
说明数据并没有拷贝到mq2和mq3。
在刚刚的案例中,一旦创建队列的主机宕机,队列就会不可用。不具备高可用能力。如果要解决这个问题,必须使用官方提供的镜像集群方案。
官方文档地址:https://www.rabbitmq.com/ha.html
默认情况下,队列只保存在创建该队列的节点上。而镜像模式下,创建队列的节点被称为该队列的主节点,队列还会拷贝到集群中的其它节点,也叫做该队列的镜像节点。
但是,不同队列可以在集群中的任意节点上创建,因此不同队列的主节点可以不同。甚至,一个队列的主节点可能是另一个队列的镜像节点。
用户发送给队列的一切请求,例如发送消息、消息回执默认都会在主节点完成,如果是从节点接收到请求,也会路由到主节点去完成。镜像节点仅仅起到备份数据的作用。
当主节点接收到消费者的 ACK 时,所有镜像节点都会删除相关的数据。
总结:
结构如图:
镜像模式的配置有3种模式:
ha-mode | ha-params | 效果 |
---|---|---|
准确模式 exactly | 队列的副本量 count | 集群中队列副本(主服务器和镜像服务器之和)的数量。count 如果为 1 意味着单个副本:即队列主节点。count 值为 2 表示 2 个副本:1个队列主和1个队列镜像。换句话说:count = 镜像数量 + 1。如果集群中的节点数少于 count,则该队列将镜像到所有节点。如果有集群总数大于 count + 1,并且包含镜像的节点出现故障,则将在另一个节点上创建一个新的镜像。 |
all | (none) | 队列在群集中的所有节点之间进行镜像。队列将镜像到任何新加入的节点。镜像到所有节点将对所有群集节点施加额外的压力,包括网络 I / O,磁盘 I / O 和磁盘空间使用情况。推荐使用 exactly,设置副本数为(N / 2 +1)。 |
nodes | node names | 指定队列创建到哪些节点,如果指定的节点全部不存在,则会出现异常。如果指定的节点在集群中存在,但是暂时不可用,会创建节点到当前客户端连接到的节点。 |
这里我们以 rabbitmqctl 命令作为案例来讲解配置语法。
1、exactly模式
rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
rabbitmqctl set_policy
:固定写法ha-two
:策略名称,自定义"^two\."
:匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以 two.
开头的队列名称'{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
:策略内容
"ha-mode":"exactly"
:策略模式,此处是 exactly 模式,指定副本数量"ha-params":2
:策略参数,这里是2,就是副本数量为2,1主1镜像"ha-sync-mode":"automatic"
:同步策略,默认是 manual,即新加入的镜像节点不会同步旧的消息。如果设置为 automatic,则新加入的镜像节点会把主节点中所有消息都同步,会带来额外的网络开销2、all模式
rabbitmqctl set_policy ha-all "^all\." '{"ha-mode":"all"}'
ha-all
:策略名称,自定义"^all\."
:匹配所有以 all.
开头的队列名'{"ha-mode":"all"}'
:策略内容
"ha-mode":"all"
:策略模式,此处是 all 模式,即所有节点都会称为镜像节点3、nodes模式
rabbitmqctl set_policy ha-nodes "^nodes\." '{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}'
rabbitmqctl set_policy
:固定写法ha-nodes
:策略名称,自定义"^nodes\."
:匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以 nodes.
开头的队列名称'{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}'
:策略内容
"ha-mode":"nodes"
:策略模式,此处是 nodes 模式"ha-params":["rabbit@mq1", "rabbit@mq2"]
:策略参数,这里指定副本所在节点名称我们使用 exactly 模式的镜像,因为集群节点数量为3,因此镜像数量就设置为2
运行下面的命令:
docker exec -it mq1 bash
rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
下面,我们在 mq1 节点上创建一个新的队列:
在任意一个 mq 控制台查看队列:
测试数据共享
给 two.queue 发送一条消息:
然后在 mq1、mq2、mq3 的任意控制台查看消息:
测试高可用
现在,我们让 two.queue 的主节点 mq1 宕机:
docker stop mq1
查看集群状态:
查看队列状态:
发现依然是健康的!并且其主节点切换到了rabbit@mq3 上
仲裁队列是 RabbitMQ 3.8 版本以后才有的新功能,用来替代镜像队列,具备下列特征:
1、在任意控制台添加一个队列,一定要选择队列类型为 Quorum 类型:
2、在任意控制台查看队列:
可以看到,仲裁队列的 +2
字样。代表这个队列有 2 个镜像节点。
因为仲裁队列默认的镜像数为 5。如果你的集群有 7 个节点,那么镜像数肯定是 5;而我们集群只有 3 个节点,因此镜像数量就是 3。
修改 application.yml 配置文件,这里用 address 代替 host、port 方式:
spring:
rabbitmq:
addresses: 1.117.74.26:8071, 1.117.74.26:8072, 1.117.74.26:8073
username: admin
password: 283619
virtual-host: /
在 consumer 服务新建一个类:
@Configuration
public class QuorumConfig {
/**
* 声明一个仲裁队列
*
* @return
*/
@Bean
public Queue quorumQueue() {
return QueueBuilder.durable("quorum.queue2") // 持久化
// 仲裁队列
.quorum()
// 构建
.build();
}
}