本文章笔记整理来自尚硅谷视频 https://www.bilibili.com/video/BV1cb4y1o7zz(视频中的文档内容大多翻译自 RabbitMQ 官方文档,具体可见 RabbitMQ Tutorials),本文对此进行了一些扩充和整理。此外,相关资料可在评论区进行获取。
MQ(message queue),从字面意思上看,意为消息队列,其本质上是个队列(FIFO 先进先出),只不过队列中存放的内容是 message 而已,还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ 是一种非常常见的上下游“逻辑解耦+物理解耦”的消息通信服务。使用了 MQ 之后,消息发送上游只需要依赖 MQ,不用依赖其他服务。
(1)流量消峰
举个例子,如果订单系统最多能处理一万次订单,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好。
(2)应用解耦
以电商应用为例,应用中有订单系统、库存系统、物流系统、支付系统。用户创建订单后,如果耦合调用库存系统、物流系统、支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可,中单用户感受不到物流系统的故障,提升系统的可用性。
(3)异步处理
有些服务间调用是异步的,例如 A 调用 B,B 需要花费很长时间执行,但是 A 需要知道 B 什么时候可以执行完,以前一般有两种方式,A 过一段时间去调用 B 的查询 api 查询。或者 A 提供一个 callback api, B 执行完之后调用 api 通知 A 服务。这两种方式都不是很优雅,使用消息总线,可以很方便解决这个问题,A 调用 B 服务后,只需要监听 B 处理完成的消息,当 B 处理完成后,会发送一条消息给 MQ,MQ 会将此消息转发给 A 服务。这样 A 服务既不用循环调用 B 的查询 api,也不用提供 callback api。同样 B 服务也不用做这些操作。A 服务还能及时的得到异步处理成功的消息。
(1)ActiveMQ
优点 | 单机吞吐量万级,时效性 ms 级,可用性高,基于主从架构实现高可用性,消息可靠性较低的概率丢失数据 |
---|---|
缺点 | 官方社区现在对 ActiveMQ 5.x 维护越来越少,高吞吐量场景较少使用 |
(2)Kafka
大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开 Kafka,这款为大数据而生的消息中间件,以其百万级 TPS 的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输、存储的过程中发挥着举足轻重的作用。目前已经被 LinkedIn,Uber, Twitter, Netflix 等大公司所采纳。
(3)RocketMQ
RocketMQ 出自阿里巴巴的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进。被阿里巴巴广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理,binglog 分发等场景。
优点 | 单机吞吐量十万级,可用性非常高,分布式架构,消息可以做到 0 丢失,MQ 功能较为完善,还是分布式的,扩展性好,支持 10 亿级别的消息堆积,不会因为堆积导致性能下降,源码是 java 我们可以自己阅读源码,定制自己公司的 MQ |
---|---|
缺点 | 支持的客户端语言不多,目前是 java 及 c++,其中 c++不成熟;社区活跃度一般,没有在 MQ核心中去实现 JMS 等接口,有些系统要迁移需要修改大量代码 |
(4)RabbitMQ
2007 年发布,是一个在 AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
优点 | 由于 erlang 语言的高并发特性,性能较好;吞吐量到万级,MQ 功能比较完备,健壮、稳定、易用、跨平台、支持多种语言 如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持 AJAX 文档齐全;开源提供的管理界面非常棒,用起来很好用,社区活跃度高;更新频率相当高 |
---|---|
缺点 | 商业版需要收费,学习成本较高 |
(1)Kafka
Kafka 主要特点是基于 Pull 的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。大型公司建议可以选用,如果有日志采集功能,肯定是首选 kafka 了。
(2)RocketMQ
天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。RoketMQ 在稳定性上可能更值得信赖,这些业务场景在阿里双 11 已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择 RocketMQ。
(3)RabbitMQ
结合 erlang 语言本身的并发优势,性能好时效性微秒级,社区活跃度也比较高,管理界面用起来十分方便,如果你的数据量没有那么大,中小型公司优先选择功能比较完备的 RabbitMQ。
RabbitMQ 是一个消息中间件:它接受并转发消息。你可以把它当做一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递站,快递员最终会把你的快递送到收件人那里,按照这种逻辑 RabbitMQ 是一个快递站,一个快递员帮你传递快件。RabbitMQ 与快递站的主要区别在于,它不处理快件而是接收,存储和转发消息数据。
(1)生产者
产生数据发送消息的程序是生产者
(2)交换机
交换机是 RabbitMQ 非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息推送到队列中。交换机必须确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推送到多个队列,亦或者是把消息丢弃,这个由交换机类型决定。
(3)队列
队列是 RabbitMQ 内部使用的一种数据结构,尽管消息流经 RabbitMQ 和应用程序,但它们只能存储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式。
(4)消费者
消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者。
Broker | 接收和分发消息的应用,RabbitMQ Server 就是 Message Broker。 |
---|---|
Virtual host | 出于多租户和安全因素设计的,把 AMQP 的基本组件划分到一个虚拟的分组中,类似于网络中的 namespace 概念。当多个不同的用户使用同一个 RabbitMQ server 提供的服务时,可以划分出多个 vhost,每个用户在自己的 vhost 创建 exchange/queue 等。 |
Connection | publisher/consumer 和 broker 之间的 TCP 连接 |
Channel | 如果每一次访问 RabbitMQ 都建立一个 Connection,在消息量大的时候建立 TCP Connection 的开销将是巨大的,效率也较低。Channel 是在 connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个 thread 创建单独的 channel 进行通讯,AMQP method 包含了 channel id 帮助客户端和 message broker 识别 channel,所以 channel 之间是完全隔离的。Channel 作为轻量级的Connection 极大减少了操作系统建立 TCP connection 的开销。 |
Exchange | message 到达 broker 的第一站,根据分发规则,匹配查询表中的 routing key,分发消息到 queue 中去。常用的类型有:direct (point-to-point), topic (publish-subscribe) and fanout (multicast)。 |
Queue | 消息最终被送到这里等待 consumer 取走。 |
Binding | exchange 和 queue 之间的虚拟连接,binding 中可以包含 routing key,Binding 信息被保存到 exchange 中的查询表中,用于 message 的分发依据。 |
下载与安装RabbitMQ。我这里选择在 CentOS 7.7 上进行安装。
由于 RabbitMQ 依赖于 erlang,所以在安装 RabbitMQ 之前需要安装 erlang,并且还要注意它们版本之间的匹配。需要注意的是,如果是将软件从 windows 直接复制到 CentOS 上,那么在安装过程中可能会出现安装失败的情况!所以最好通过专门的 FTP (File Transfer Protocol) 软件来进行传输(例如 FileZilla,具体安装使用方法可以自行搜索)。
这里我将软件放到 /opt/RabbitMQ 目录下。
rpm -ivh erlang-21.3-1.el7.x86_64.rpm
yum install socat -y
rpm -ivh rabbitmq-server-3.8.8-1.el7.noarch.rpm
① 添加开机启动 RabbitMQ 服务
chkconfig rabbitmq-server on
② 启动服务
/sbin/service rabbitmq-server start
③ 查看服务状态
/sbin/service rabbitmq-server status
/sbin/service rabbitmq-server stop
⑤ 开启 web 管理插件(先关闭 RabbitMQ 服务,开启后再打开)
rabbitmq-plugins enable rabbitmq_management
(1)web 管理插件开启以及 RabbitMQ 服务打开后,在浏览器中输入Linux IP:15672,即可进行访问。例如,在 Linux 中通过命令 ipconfig 查看本机的 IP 地址为 192.168.88.16,那么在浏览器中应输入192.168.88.16:15672。
注:如果遇到该页面访问不了的情况,则可能是 Linux 中防火墙开启导致的,解决办法通常由以下两种:
① 直接关闭防火墙(在实际项目中不推荐,安全性会降低);
② 开放 15672 端口;
由于这里只是在本地使用 RabbitMQ,并没有应用于真实的项目中,所以可以选择直接关闭防火墙,命令如下:
# 查看防火墙状态
systemctl status firewalld
# 关闭防火墙
systemctl stop firewalld
# 永久关闭防火墙
systemctl disable firewalld
(2)输入初始用户名和密码(均为 guest),此时发现不能登录。解决办法是添加一个新的用户并设置相应权限。
(3)添加新用户的相关设置命令
# 查看用户和角色
rabbitmqctl list_users
# 创建用户
rabbitmqctl add_user [用户名] [密码],例如:rabbitmqctl add_user admin 123
# 设置用户角色
rabbitmqctl set_user_tags [用户名] [角色],例如:rabbitmqctl set_user_tags admin administrator
# 设置用户权限
rabbitmqctl set_permissions [-p ] <write>
例如:rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
这样用户 user_admin 具有/vhost1 这个 virtual host 中所有资源的配置、写、读权限(之前的 guest 用户无法登录就是因为没有这样设置)
# 关闭应用
rabbitmqctl srop_app
# 清除
rabbitmqctl reset
# 重新启动
rabbitmqctl start_app
(4)再次登录,用户名和密码分别为 admin、123,登录成功后的界面如下图所示,具体如何使用该 web 端,后面章节会慢慢介绍。
本节将用 Java 编写两个程序。发送单个消息的生产者和接收消息并打印出来的消费者。我们将介绍 Java API 中的一些细节。在下图中,“ P”是生产者,“ C”是消费者。中间的框是一个队列—— RabbitMQ 代表使用者保留的消息缓冲区。
(1)打开 IDEA,这里的版本的是 2019.3.3,不同版本之间的操作可能有些区别。
(2)此处先创建一个空项目,方便后序加入不同的模块。
(3)创建新的模块(需要提前安装好 Maven)。
将以下依赖导入到 pom.xml 文件中。
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.pluginsgroupId>
<artifactId>maven-compiler-pluginartifactId>
<configuration>
<source>8source>
<target>8target>
configuration>
plugin>
plugins>
build>
<dependencies>
<dependency>
<groupId>com.rabbitmqgroupId>
<artifactId>amqp-clientartifactId>
<version>5.8.0version>
dependency>
<dependency>
<groupId>commons-iogroupId>
<artifactId>commons-ioartifactId>
<version>2.6version>
dependency>
dependencies>
package com.atguigu.rabbitmq.one;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.Connection;
import com.rabbitmq.client.ConnectionFactory;
import java.io.IOException;
import java.util.concurrent.TimeoutException;
//生产者:发消息
public class Producer {
//队列名称
private final static String QUEUE_NAME = "Hello";
public static void main(String[] args) throws IOException, TimeoutException {
//创建一个连接工厂
ConnectionFactory factory = new ConnectionFactory();
factory.setHost("192.168.88.16");
//设置用户名
factory.setUsername("admin");
//设置密码
factory.setPassword("123");
//创建连接
Connection connection = factory.newConnection();
//获取信道
Channel channel = connection.createChannel();
/**
* Declare a queue
* @param queue the name of the queue
* @param durable true if we are declaring a durable queue (the queue will survive a server restart)
* @param exclusive true if we are declaring an exclusive queue (restricted to this connection)
* @param autoDelete true if we are declaring an autodelete queue (server will delete it when no longer in use)
* @param arguments other properties (construction arguments) for the queue
* @return a declaration-confirm method to indicate the queue was successfully declared
* @throws java.io.IOException if an error is encountered
*/
channel.queueDeclare(QUEUE_NAME, false, false, false, null);
//要发送的消息
String message = "hello world";
/**
* Publish a message.
* Publishing to a non-existent exchange will result in a channel-level
* protocol exception, which closes the channel.
* Invocations of Channel#basicPublish
will eventually block if a
* resource-driven alarm is in effect.
* @see com.rabbitmq.client.AMQP.Basic.Publish
* @see Resource-driven alarms
* @param exchange the exchange to publish the message to
* @param routingKey the routing key
* @param props other properties for the message - routing headers etc
* @param body the message body
* @throws java.io.IOException if an error is encountered
*/
channel.basicPublish("", QUEUE_NAME, null, message.getBytes());
System.out.println("生产者:消息发送完毕!");
}
}
运行该代码,其结果如下:
在 RabbitMQ Web 管理端进行查看:
package com.atguigu.rabbitmq.one;
import com.rabbitmq.client.*;
import java.io.IOException;
import java.util.Map;
import java.util.concurrent.TimeoutException;
//消费者:接收消息
public class Consumer {
//队列名称
private final static String QUEUE_NAME = "Hello";
public static void main(String[] args) throws IOException, TimeoutException {
//创建一个连接工厂
ConnectionFactory factory = new ConnectionFactory();
factory.setHost("192.168.88.16");
//设置用户名
factory.setUsername("admin");
//设置密码
factory.setPassword("123");
//创建连接
Connection connection = factory.newConnection();
//获取信道
Channel channel = connection.createChannel();
System.out.println("等待接收消息.........");
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody());
System.out.println(message);
};
//取消消费的一个回调接口,例如在消费的时候队列被删除掉了
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println("消息消费被中断");
};
/**
* Start a non-nolocal, non-exclusive consumer, with
* a server-generated consumerTag.
* Provide access only to basic.deliver
and
* basic.cancel
AMQP methods (which is sufficient
* for most cases). See methods with a {@link com.rabbitmq.client.Consumer} argument
* to have access to all the application callbacks.
* @param queue the name of the queue
* @param autoAck true if the server should consider messages
* acknowledged once delivered; false if the server should expect
* explicit acknowledgements
* @param deliverCallback callback when a message is delivered
* @param cancelCallback callback when the consumer is cancelled
* @return the consumerTag generated by the server
* @see #basicAck
* @see #basicConsume(String, boolean, String, boolean, boolean, Map, com.rabbitmq.client.Consumer)
*/
channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);
}
}
接着运行上述代码(此时要保证 Producer.java 还在运行中),结果如下:
工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。
package com.atguigu.rabbitmq.utils;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.Connection;
import com.rabbitmq.client.ConnectionFactory;
public class RabbitMqUtils {
//得到一个连接的 channel
public static Channel getChannel() throws Exception {
//创建一个连接工厂
ConnectionFactory factory = new ConnectionFactory();
factory.setHost("192.168.88.16");
factory.setUsername("admin");
factory.setPassword("123");
Connection connection = factory.newConnection();
Channel channel = connection.createChannel();
return channel;
}
}
(1)编写工作线程代码
package com.atguigu.rabbitmq.two;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.CancelCallback;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
//一个工作线程,相当于一个消费者
public class Worker01 {
//队列名称(要保证该队列存在,这里名称与前面保持一致)
private final static String QUEUE_NAME = "Hello";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody());
System.out.println("接收到的消息为:" + message);
};
//取消消费的一个回调接口,例如在消费的时候队列被删除掉了
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println(consumerTag + " 消费者取消消费接口回调逻辑");
};
System.out.println("C1 消费者启动等待消费.................. ");
//消息的接收
channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);
}
}
(2)为了重复使用上述代码,在运行上述代码之后,可在 IDEA 中设置代码的并行运行,然后修改打印信息为 ”C1 消费者启动等待消费…“,再次运行该代码,即可模拟出两个工作线程同时运行。
(1)编写发送线程代码
package com.atguigu.rabbitmq.two;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import java.util.Scanner;
//生产者:发送大量消息
public class Task01 {
//队列名称
private final static String QUEUE_NAME = "Hello";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
channel.queueDeclare(QUEUE_NAME, false, false, false, null);
//从控制台当中接受信息
Scanner scanner = new Scanner(System.in);
while (scanner.hasNext()) {
String message = scanner.next();
channel.basicPublish("", QUEUE_NAME, null, message.getBytes());
System.out.println("发送消息完成:" + message);
}
}
}
(2)运行上述代码,并在控制台输入要发送的消息,同时观察接收消息的情况。
消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况。RabbitMQ 一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费这的消息,因为它无法接收到。为了保证消息在发送过程中不丢失,RabbitMQ 引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉 RabbitMQ 它已经处理了,RabbitMQ 可以把该消息删除了。
消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者 channel 关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制,当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用。
(1)相关方法
Channel.basicAck() | 用于肯定确认,RabbitMQ 已知道该消息并且成功的处理消息,可以将其丢弃了 |
---|---|
Channel.basicNack() | 用于否定确认 |
Channel.basicReject() | 用于否定确认了,与 Channel.basicNack 相比少一个参数,不处理该消息了直接拒绝,可以将其丢弃了 |
(2)basicAck()中的参数 multiple 的理解
/**
* Acknowledge one or several received
* messages. Supply the deliveryTag from the {@link com.rabbitmq.client.AMQP.Basic.GetOk}
* or {@link com.rabbitmq.client.AMQP.Basic.Deliver} method
* containing the received message being acknowledged.
* @see com.rabbitmq.client.AMQP.Basic.Ack
* @param deliveryTag the tag from the received {@link com.rabbitmq.client.AMQP.Basic.GetOk} or {@link com.rabbitmq.client.AMQP.Basic.Deliver}
* @param multiple true to acknowledge all messages up to and
* including the supplied delivery tag; false to acknowledge just
* the supplied delivery tag.
* @throws java.io.IOException if an error is encountered
*/
void basicAck(long deliveryTag, boolean multiple) throws IOException;
① 当 multiple == true 时,true 代表批量应答 channel 上未应答的消息,比如说 channel 上有传送 tag 的消息 5、6、7、8 当前 tag 是 8,那么此时 5-8 的这些还未应答的消息都会被确认收到消息应答。
② 当 multiple == false 时,false 同上面相比只会应答 tag = 8 的消息,而 5、6、7 这三个消息依然不会被确认收到消息应答。
如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或 TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。
(1)消息生产者
package com.atguigu.rabbitmq.three;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import java.util.Scanner;
//消息在手动应答时是不丢失,放回队列中重新消费
public class Task02 {
//队列名称
public static final String TASK_QUEUE_NAME = "ack_queue";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明队列
channel.queueDeclare(TASK_QUEUE_NAME, false, false, false, null);
Scanner scanner = new Scanner(System.in);
while (scanner.hasNext()) {
String message = scanner.next();
channel.basicPublish("", TASK_QUEUE_NAME, null, message.getBytes("UTF-8"));
System.out.println("生产者发出消息:" + message);
}
}
}
(2)消息接收者(此处设置 2 个)
package com.atguigu.rabbitmq.three;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.atguigu.rabbitmq.utils.SleepUtils;
import com.rabbitmq.client.CancelCallback;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class Work03 {
//队列名称
public static final String TASK_QUEUE_NAME = "ack_queue";
//接收消息
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("C1 等待接收消息处理时间较短");
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, message) -> {
//沉睡 1 s
SleepUtils.sleep(1);
System.out.println("接收到的消息为:" + new String(message.getBody(), "UTF-8"));
/*
手动应答
long deliveryTag: 消息的标记tag
boolean multiple: 是否批量应答,false:不批量应答信道中的消息,true:批量
*/
channel.basicAck(message.getEnvelope().getDeliveryTag(), false);
};
//取消消费的一个回调接口,例如在消费的时候队列被删除掉了
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println(consumerTag + " 消费者取消消费接口回调逻辑");
};
//采用手动应答
boolean autoAck = false;
channel.basicConsume(TASK_QUEUE_NAME, autoAck, deliverCallback, cancelCallback);
}
}
package com.atguigu.rabbitmq.three;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.atguigu.rabbitmq.utils.SleepUtils;
import com.rabbitmq.client.CancelCallback;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class Work04 {
//队列名称
public static final String TASK_QUEUE_NAME = "ack_queue";
//接收消息
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("C2 等待接收消息处理时间较短");
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, message) -> {
//沉睡 10 s
SleepUtils.sleep(10);
System.out.println("接收到的消息为:" + new String(message.getBody(), "UTF-8"));
channel.basicAck(message.getEnvelope().getDeliveryTag(), false);
};
//取消消费的一个回调接口,例如在消费的时候队列被删除掉了
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println(consumerTag + " 消费者取消消费接口回调逻辑");
};
//采用手动应答
boolean autoAck = false;
channel.basicConsume(TASK_QUEUE_NAME, autoAck, deliverCallback, cancelCallback);
}
}
上面我们已经看到了如何处理消息不丢失的情况,但是如何保障当 RabbitMQ 服务停掉以后消息生产者发送过来的消息不丢失。默认情况下 RabbitMQ 退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。
(1)之前我们创建的队列都是非持久化的,RabbitMQ 如果重启的化,该队列就会被删除掉,如果要队列实现持久化,需要在声明队列的时候把 durable 参数设置为持久化(即设置为 true)。
但是需要注意的是如果之前声明的队列不是持久化的,需要把原先队列先删除,或者重新创建一个持久化的队列,不然就会出现以下错误:
(2)如果想删除之前设置为非持久化的队列(名称为 ack_queue),可按下面的步骤进行删除:
进入该队列的详细信息之后,点击 Delete Queue 即可进行删除
(3)以下为持久化与非持久化队列的 UI 显示区,可以发现持久化队列 ack_queue2 的 Features 这一列中多了一个字母 D(即 durable 的首字母大写),此时即使重启 Rabbit MQ,该队列也依然存在,而队列 ack_queue 此时会被清除。
要想让消息实现持久化需要在消息生产者修改代码,添加 MessageProperties.PERSISTENT_TEXT_PLAIN 这个属性。
(1)在最开始的时候我们学习到 RabbitMQ 分发消息采用的轮询分发,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中有个消费者 1 处理任务的速度非常快,而另外一个消费者 2 处理速度却很慢,这个时候我们还是采用轮询分发的化就会到这处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是 RabbitMQ 并不知道这种情况它依然很公平的进行分发。
(2)为了避免这种情况,我们可以通过使用手动应答 + channel.basicQos(int prefetchCount) 来实现不公平分发。首先来看看 basicQos(int prefetchCount) 的源码:
/**
* Request a specific prefetchCount "quality of service" settings
* for this channel.
*
* @see #basicQos(int, int, boolean)
* @param prefetchCount maximum number of messages that the server
* will deliver, 0 if unlimited
* @throws java.io.IOException if an error is encountered
*/
void basicQos(int prefetchCount) throws IOException;
设处理速度快的消费者为 C1,处理速度慢的消费者为 C2:
① 如果不设置 channel.basicQos(int prefetchCount) ,那么 prefetchCount 的默认值就是 0,即每个消费者可以接收的消息不受限制,此时在轮询分发的情况下,C2 会一直处理消息,而 C1 则在很大一部分时间内处于空闲状态。
② 如果设置 prefetchCount = 1,那么 C2 最多只能接收 1 条消息,这样当它还未处理完消息时,C2 不会接收到新的消息,此时新的消息便可以给处理速度更快的 C1 去处理,这样便实现了不公平分发,即处理速度更快的消费者可以处理更多的消息。
(3)代码实现及演示
① 在上述 Work03.java 和 Work04.java 中加入下面 2 行代码:
② 通过下面的效果演示可知,Task02 一共发出了 4 条消息,处理速度更快的 Work03 接收了 3 条消息,而处理速度慢一点的 Work04 则只接收了 1 条消息,此时便实现了不公平分发。
需要注意的是在前面的手动应答效果演示中,Task02 也是发出了 4 条消息,Work03 接收了 3 条消息,Work04 只接收了 1 条消息,效果看起来与这里的一样。但是在那个场景中,Task02 发送完 dd 后,我们手动模拟了 Work04 宕机,即直接停止了该程序,在消息自动重新入队的机制下,消息 dd 会被 Work03 接收,所以 Work03 才接收了 3 条消息。如果在正常情况下,当 Work04 处理完上一条消息后,还是会来处理消息 dd。而在轮询机制下,即使处理速度更快的 Work03 处于空闲状态,它也不会去处理 dd。
(1)本身消息的发送就是异步发送的,所以在任何时候,channel 上肯定不止只有一个消息另外来自消费者的手动确认本质上也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。这个时候就可以通过使用 basic.qos() 方法设置“预取计数”值来完成的。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量,RabbitMQ 将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认,
(2)例如,假设在通道上有未确认的消息 5、6、7,8,并且通道的预取计数设置为 4,此时 RabbitMQ 将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被 ACK。比方说 tag = 6 这个消息刚刚被确认 ACK,RabbitMQ 将会感知这个情况到并再发送一条消息。消息应答和 QoS 预取值对用户吞吐量有重大影响。通常,增加预取将提高向消费者传递消息的速度。
(3)虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的 RAM 消耗,所以应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程,不同的负载该值取值也不同 100 到 300 范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为 1 是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。
(4)代码实现及演示
① 在上述 Work03.java 和 Work04.java 中分别加入下面的代码:
② 效果如下:
1)通过下图我们可以发现两个消费者的 prefetch 分别为 2 和 5,即对应 Work03 和 Work04 中的 prefetchCount。而且在下面 Work04 的 Unacked 此时对应的值为 4,这说明该 channel 上已经堆积了 4 条消息(上限是上面设置的 5)。
(1)生产者将信道设置成 confirm 模式,一旦信道进入 confirm 模式,所有在该信道上面发布的消息都将会被指派一个唯一的 ID(从 1 开始),一旦消息被投递到所有匹配的队列之后,broker 就会发送一个确认给生产者(包含消息的唯一 ID),这就使得生产者知道消息已经正确到达目的队列了,如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,broker 回传给生产者的确认消息中 delivery-tag 域包含了确认消息的序列号。此外 broker 也可以设置 basic.ack() 的 multiple 域,表示到这个序列号之前的所有消息都已经得到了处理。
(2)confirm 模式最大的好处在于它是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack 消息,生产者应用程序同样可以在回调方法中处理该 nack 消息。
发布确认默认是没有开启的,如果要开启,则需要在生产者代码中的 channel 上调用 confirmSelect() 方法。
package com.atguigu.rabbitmq.four;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import java.util.UUID;
public class ConfirmMessage {
public static void main(String[] args) throws Exception {
//1.单个确认
ConfirmMessage.publishMessageIndividually();
}
//1.单个确认
public static void publishMessageIndividually() throws Exception {
try (Channel channel = RabbitMqUtils.getChannel()) {
String queueName = UUID.randomUUID().toString();
//声明队列
channel.queueDeclare(queueName, true, false, false, null);
//开启发布确认
channel.confirmSelect();
long begin = System.currentTimeMillis();
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = i + "";
channel.basicPublish("", queueName, null, message.getBytes());
//服务端返回 false 或超时时间内未返回,生产者可以消息重发
boolean flag = channel.waitForConfirms();
if (flag) {
System.out.println("消息发送成功");
}
}
long end = System.currentTimeMillis();
System.out.println("发布" + MESSAGE_COUNT + "条单独确认消息,耗时" + (end - begin) + "ms");
}
}
}
package com.atguigu.rabbitmq.four;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import java.util.UUID;
public class ConfirmMessage {
//批量发消息的个数
private static final int MESSAGE_COUNT = 1000;
public static void main(String[] args) throws Exception {
//2.批量确认
ConfirmMessage.publishMessageBatch();
}
//2.批量确认
public static void publishMessageBatch() throws Exception {
try (Channel channel = RabbitMqUtils.getChannel()) {
String queueName = UUID.randomUUID().toString();
//声明队列
channel.queueDeclare(queueName, false, false, false, null);
//开启发布确认
channel.confirmSelect();
long begin = System.currentTimeMillis();
int batchSize = 100;
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = i + "";
channel.basicPublish("", queueName, null, message.getBytes());
if ((i + 1) % batchSize == 0) {
channel.waitForConfirms();
System.out.println(batchSize + "条批量消息发送成功");
}
}
long end = System.currentTimeMillis();
System.out.println("发布" + MESSAGE_COUNT + "条批量确认消息,耗时" + (end - begin) + "ms");
}
}
}
package com.atguigu.rabbitmq.four;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.ConfirmCallback;
import java.util.UUID;
public class ConfirmMessage {
//批量发消息的个数
private static final int MESSAGE_COUNT = 1000;
public static void main(String[] args) throws Exception {
//3.异步批量确认
ConfirmMessage.publishMessageAsync();
}
//3.异步确认
public static void publishMessageAsync() throws Exception {
try (Channel channel = RabbitMqUtils.getChannel()) {
String queueName = UUID.randomUUID().toString();
//声明队列
channel.queueDeclare(queueName, false, false, false, null);
//开启发布确认
channel.confirmSelect();
long begin = System.currentTimeMillis();
//消息确认成功回调函数
ConfirmCallback ackCallback = (deliveryTag, multiple) -> {
System.out.println("已确认的消息:" + deliveryTag);
};
//消息确认失败回调函数
ConfirmCallback nackCallback = (deliveryTag, multiple) -> {
System.out.println("未确认的消息:" + deliveryTag);
};
//消息监听器,监听哪些消息发送成功了,哪些消息发送失败了
channel.addConfirmListener(ackCallback, nackCallback);
//批量发送消息
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = "消息" + i;
channel.basicPublish("", queueName, null, message.getBytes());
}
long end = System.currentTimeMillis();
System.out.println("发布" + MESSAGE_COUNT + "条异步确认消息,耗时" + (end - begin) + "ms");
}
}
}
可以发现,控制台实际打印的打印的消息条数(即消息确认失败回调函数中 println)要比实际发送的消息数要少,这是因为 for 循环中消息发送的太快,消息确认失败回调函数来不及处理。这里可以设置发布消息的间隔为 1 s:
//批量发送消息
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = "消息" + i;
channel.basicPublish("", queueName, null, message.getBytes());
SleepUtils.sleep(1);
}
public static void publishMessageAsync() throws Exception {
try (Channel channel = RabbitMqUtils.getChannel()) {
String queueName = UUID.randomUUID().toString();
//声明队列
channel.queueDeclare(queueName, false, false, false, null);
//开启发布确认
channel.confirmSelect();
//线程安全有序的哈希表,适用于高并发的情况
ConcurrentSkipListMap<Long, String> concurrentSkipListMap = new ConcurrentSkipListMap<>();
//消息确认成功回调函数
ConfirmCallback ackCallback = (deliveryTag, multiple) -> {
if (multiple) {
//删除已确认的消息,剩下的就是未确认的消息
ConcurrentNavigableMap<Long, String> confirmed = concurrentSkipListMap.headMap(deliveryTag);
confirmed.clear();
} else {
concurrentSkipListMap.remove(deliveryTag);
}
System.out.println("已确认的消息:" + deliveryTag);
};
//消息确认失败回调函数
ConfirmCallback nackCallback = (deliveryTag, multiple) -> {
String message = concurrentSkipListMap.get(deliveryTag);
System.out.println("未确认的消息:" + message + ",未确认的消息tag:" + deliveryTag);
};
//消息监听器,监听哪些消息发送成功了,哪些消息发送失败了
channel.addConfirmListener(ackCallback, nackCallback);
long begin = System.currentTimeMillis();
//批量发送消息
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = "消息" + i;
channel.basicPublish("", queueName, null, message.getBytes());
concurrentSkipListMap.put(channel.getNextPublishSeqNo(), message);
}
long end = System.currentTimeMillis();
System.out.println("发布" + MESSAGE_COUNT + "条异步确认消息,耗时" + (end - begin) + "ms");
}
}
单独发布确认 | 同步等待确认,简单,但吞吐量非常有限 |
---|---|
批量发布确认 | 批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条消息出现了问题 |
异步发布确认 | 最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来复杂一些 |
(1)在上一节中,我们创建了一个工作队列。我们假设的是工作队列背后,每个任务都恰好交付给一个消费者(工作进程)。在这一部分中,我们将做一些完全不同的事情——我们将消息传达给多个消费者。这种模式称为”发布/订阅”。
(2)为了说明这种模式,我们将构建一个简单的日志系统。它将由两个程序组成:第一个程序将发出日志消息,第二个程序是消费者。其中我们会启动两个消费者,其中一个消费者接收到消息后把日志存储在磁盘,另外一个消费者接收到消息后把消息打印在屏幕上,事实上第一个程序发出的日志消息将广播给所有消费者。
RabbitMQ 消息传递模型的核心思想是: 生产者生产的消息从不会直接发送到队列。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中。相反,生产者只能将消息发送到交换机 (exchange) 中,交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息,是应该把这些消息放到特定队列,还是说把他们到许多队列中,还是说应该丢弃它们。这就的由交换机的类型来决定。
交换机一共有以下 4 中类型:direct、topic、headers 、fanout,由于 headers 类型的交换机目前使用的情况较少,所以后面将对 fanout、direct、topic 进行逐一介绍。
前面部分并未对 exchange 做过多介绍,但仍然能够将消息发送到队列。之前能实现的原因是我们使用的是默认交换机(AMPQ default),在使用时通过空字符串进行标识。
第一个参数是交换机的名称,空字符串表示默认或无名称交换机。消息将发送到具有 routingKey 指定名称的队列(如果存在)。
(1)之前的章节我们使用的是具有特定名称的队列(例如 Hello 和 ack_queue)。队列的名称我们来说至关重要——我们需要指定我们的消费者去消费哪个队列的消息。每当我们连接到 RabbitMQ 时,我们都需要一个全新的空队列,为此我们可以创建一个具有随机名称的队列,或者能让服务器为我们选择一个随机队列名称。其次一旦我们断开了消费者的连接,队列将被自动删除。
(2)当我们没有向 queueDeclare() 提供参数时,我们创建了一个非持久的、排他的、自动删除的队列,其生成的临时队列名称为:
String queueName = channel.queueDeclare().getQueue();
(1)binding 其实是 exchange 和 queue 之间的桥梁,它告诉我们交换机和哪个或哪些队列进行了绑定关系。比如说下面这张图告诉我们 X 与 Q1 和 Q2 进行了绑定。
(2)在 Web 管理界面进行绑定:
① 新添加一个队列 queue1
//...
//声明交换机,第一个参数为交换机名称,第二个参数为交换机类型
channel.exchangeDeclare("logs", "fanout");
//指定交换机
channel.basicPublish( "logs", "", null, message.getBytes());
//将交换机与队列进行绑定
channel.queueBind(queueName, "logs", "");
//...
Fanout(扇出,也可理解为发布/订阅) 这种类型非常简单,它是将接收到的所有消息广播到它知道的所有队列中(即使 queueBind() 中的参数routingKey 不相同)。系统中也有默认的Fanout 类型的交换机,例如 amq.fanout。
为了说明这个模式,我们将构建一个简单的日志系统。它将由两个程序组成——第一个程序将发出日志消息,第二个程序和第三个程序将接收并打印它们。 在我们的日志记录系统中,接收器程序的每个运行副本都将获得消息。
(1)生产者 EmitLog
package com.atguigu.rabbitmq.five;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import java.util.Scanner;
//生产者
public class EmitLog {
private static final String EXCHANGE_NAME = "logs";
public static void main(String[] argv) throws Exception {
try (Channel channel = RabbitMqUtils.getChannel()) {
/**
* 声明一个 exchange
* 1.exchange 的名称
* 2.exchange 的类型
*/
channel.exchangeDeclare(EXCHANGE_NAME, "fanout");
Scanner sc = new Scanner(System.in);
System.out.println("请输入信息:");
while (sc.hasNext()) {
String message = sc.nextLine();
channel.basicPublish(EXCHANGE_NAME, "", null, message.getBytes("UTF-8"));
System.out.println("生产者发出消息:" + message);
}
}
}
}
(2)消费者 ReceiveLogs01
package com.atguigu.rabbitmq.five;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class ReceiveLogs01 {
//交换机的名称
private static final String EXCHANGE_NAME = "logs";
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明交换机
channel.exchangeDeclare(EXCHANGE_NAME, "fanout");
/**
* 生成一个临时的队列 队列的名称是随机的
* 当消费者断开和该队列的连接时 队列自动删除
*/
String queueName = channel.queueDeclare().getQueue();
//把该临时队列绑定我们的 exchange 其中 routingKey (也称之为 binding key) 为字符串"1"
channel.queueBind(queueName, EXCHANGE_NAME, "1");
System.out.println("等待接收消息,把接收到的消息打印在屏幕........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("ReceiveLogs01控制台打印接收到的消息:" + message);
};
channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});
}
}
(3)消费者 ReceiveLogs02
package com.atguigu.rabbitmq.five;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class ReceiveLogs02 {
//交换机的名称
private static final String EXCHANGE_NAME = "logs";
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明交换机
channel.exchangeDeclare(EXCHANGE_NAME, "fanout");
/**
* 生成一个临时的队列 队列的名称是随机的
* 当消费者断开和该队列的连接时 队列自动删除
*/
String queueName = channel.queueDeclare().getQueue();
//把该临时队列绑定我们的 exchange 其中 routingKey (也称之为 binding key) 为空字符串
channel.queueBind(queueName, EXCHANGE_NAME, "");
System.out.println("等待接收消息,把接收到的消息打印在屏幕........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("ReceiveLogs02控制台打印接收到的消息:" + message);
};
channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});
}
}
(4)启动上面三个程序,效果演示如下:
在上一节中,我们构建了一个简单的日志记录系统。我们能够向许多接收者广播日志消息。在本节我们将向其中添加一些特别的功能——比方说我们只让某个消费者订阅发布的部分消息。例如我们只把严重错误消息定向存储到日志文件(以节省磁盘空间),同时仍然能够在控制台上打印所有日志消息。
我们再次来回顾一下什么是 bindings,绑定是交换机和队列之间的桥梁关系。也可以这么理解:队列只对它绑定的交换机的消息感兴趣。绑定用参数:routingKey 来表示也可称该参数为 binding key,创建绑定我们用代码:channel.queueBind(queueName, EXCHANGE_NAME, “routingKey”);绑定之后的意义由其交换类型决定。
(1)上一节中的我们的日志系统将所有消息广播给所有消费者,对此我们想做一些改变,例如我们希望将日志消息写入磁盘的程序仅接收严重错误 (errros),而不存储哪些警告 (warning) 或信息 (info) 日志消息避免浪费磁盘空间。Fanout 这种交换类型并不能给我们带来很大的灵活性——它只能进行无意识的广播,在这里我们将使用 direct 这种类型来进行替换,这种类型的工作方式是,消息只去到它绑定的 routingKey 队列中。
(2)在下面这张图中,我们可以看到 X 绑定了两个队列,绑定类型是 direct。队列 Q1 绑定键为 orange,队列 Q2 绑定键有两个:一个绑定键为 black,另一个绑定键为 green。在这种绑定情况下,生产者发布消息到 exchange 上,绑定键为 orange 的消息会被发布到队列
Q1。绑定键为 black 和 green 的消息会被发布到队列 Q2,其他消息类型的消息将被丢弃。
(3)多重绑定
当然如果 exchange 的绑定类型是 direct,但是它绑定的多个队列的绑定键如果都相同,在这种情况下虽然绑定类型是 direct 但是它表现的就和 fanout 有点类似了,就跟广播差不多,如下图所示。
package com.atguigu.rabbitmq.six;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.BuiltinExchangeType;
import com.rabbitmq.client.Channel;
import java.util.Scanner;
public class DirectLogs {
private static final String EXCHANGE_NAME = "direct_logs";
public static void main(String[] argv) throws Exception {
try (Channel channel = RabbitMqUtils.getChannel()) {
channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
Scanner sc = new Scanner(System.in);
System.out.println("请输入信息:");
while (sc.hasNext()) {
String message = sc.nextLine();
channel.basicPublish(EXCHANGE_NAME, "", null, message.getBytes("UTF-8"));
System.out.println("生产者发出消息:" + message);
}
}
}
}
(2)消费者 ReceiveLogsDirect01
package com.atguigu.rabbitmq.six;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.BuiltinExchangeType;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class ReceiveLogsDirect01 {
private static final String EXCHANGE_NAME = "direct_logs";
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
String queueName = "console";
channel.queueDeclare(queueName, false, false, false, null);
//多重绑定
channel.queueBind(queueName, EXCHANGE_NAME, "info");
channel.queueBind(queueName, EXCHANGE_NAME, "warning");
System.out.println("ReceiveLogsDirect01 等待接收消息........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("接收绑定键:" + delivery.getEnvelope().getRoutingKey() + ",消息:" + message);
};
channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});
}
}
(3)消费者 ReceiveLogsDirect02
package com.atguigu.rabbitmq.six;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.BuiltinExchangeType;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class ReceiveLogsDirect02 {
private static final String EXCHANGE_NAME = "direct_logs";
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
String queueName = "disk";
channel.queueDeclare(queueName, false, false, false, null);
channel.queueBind(queueName, EXCHANGE_NAME, "error");
System.out.println("ReceiveLogsDirect02 等待接收消息........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("接收绑定键:" + delivery.getEnvelope().getRoutingKey() + ",消息:" + message);
};
channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});
}
}
(4)运行上面三个程序,演示效果如下:
① DirectLogs.java 中的 routingKey 为 info(或 warning) 时,此时只有ReceiveLogsDirect01 收到了消息:
② DirectLogs.java 中的 routingKey 为 error 时,此时只有ReceiveLogsDirect02 收到了消息:
③ DirectLogs.java 中的 routingKey 为 debug 时,没有队列收到消息(因为没有对应绑定的队列):
(1)在上一个小节中,我们改进了日志记录系统。我们没有使用只能进行随意广播的 fanout 交换机,而是使用了 direct 交换机,从而有能实现有选择性地接收日志。
尽管使用 direct 交换机改进了我们的系统,但是它仍然存在局限性——例如我们想接收的日志类型有 info.base 和 info.advantage,某个队列只想 info.base 的消息,那这个时候direct 就办不到了。这个时候就只能使用 topic 类型。
发送到类型是 topic 交换机的消息的 routingKey 不能随意写,必须满足一定的要求,它必须是一个单词列表,以点号分隔开。这些单词可以是任意单词,例如:“stock.usd.nyse”,“nyse.vmw”,“quick.orange.rabbit” 这种类型的。当然这个单词列表最多不能超过 255 个字节。在这个规则列表中,其中有两个替换符是大家需要注意的:
① *(星号)可以代替一个单词
② #(井号)可以替代零个或多个单词
(1)下图的绑定关系如下:
Q1–>绑定的是:中间带 orange 带 3 个单词的字符串 (.orange.)
Q2–>绑定的是:最后一个单词是 rabbit 的 3 个单词 (..rabbit) 或第一个单词是 lazy 的多个单词(lazy.#)
(2)下面举一些例子来助于理解:
routingKey | 接收情况 |
---|---|
quick.orange.rabbit | 被队列 Q1、Q2 接收到 |
lazy.orange.elephant | 被队列 Q1Q2 接收到 |
quick.orange.fox | 被队列 Q1 接收到 |
lazy.brown.fox | 被队列 Q2 接收到 |
lazy.pink.rabbit | 虽然满足两个绑定但只被队列 Q2 接收一次 |
quick.brown.fox | 不匹配任何绑定不会被任何队列接收到会被丢弃 |
quick.orange.male.rabbit | 是四个单词不匹配任何绑定会被丢弃 |
lazy.orange.male.rabbit | 是四个单词但匹配 Q2 |
(3)当队列绑定关系是下列这种情况时需要引起注意:
① 当一个队列绑定键是 #,那么这个队列将接收所有数据,就有点像 fanout;
② 如果队列绑定键当中没有 # 和 * 出现,那么该队列绑定类型就是 direct。
package com.atguigu.rabbitmq.seven;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import java.util.HashMap;
import java.util.Map;
public class EmitLogTopic {
private static final String EXCHANGE_NAME = "topic_logs";
public static void main(String[] argv) throws Exception {
try (Channel channel = RabbitMqUtils.getChannel()) {
channel.exchangeDeclare(EXCHANGE_NAME, "topic");
/**
* Q1-->绑定的是
* 中间带 orange 带 3 个单词的字符串(*.orange.*)
* Q2-->绑定的是
* 最后一个单词是 rabbit 的 3 个单词(*.*.rabbit)
* 第一个单词是 lazy 的多个单词(lazy.#)
*/
Map<String, String> bindingKeyMap = new HashMap<>();
bindingKeyMap.put("quick.orange.rabbit", "被队列 Q1、Q2 接收到");
bindingKeyMap.put("lazy.orange.elephant", "被队列 Q1、Q2 接收到");
bindingKeyMap.put("quick.orange.fox", "被队列 Q1 接收到");
bindingKeyMap.put("lazy.brown.fox", "被队列 Q2 接收到");
bindingKeyMap.put("lazy.pink.rabbit", "虽然满足两个绑定但只被队列 Q2 接收一次");
bindingKeyMap.put("quick.brown.fox", "不匹配任何绑定不会被任何队列接收到会被丢弃");
bindingKeyMap.put("quick.orange.male.rabbit", "是四个单词不匹配任何绑定会被丢弃");
bindingKeyMap.put("lazy.orange.male.rabbit", "是四个单词但匹配 Q2");
for (Map.Entry<String, String> bindingKeyEntry : bindingKeyMap.entrySet()) {
String bindingKey = bindingKeyEntry.getKey();
String message = bindingKeyEntry.getValue();
channel.basicPublish(EXCHANGE_NAME, bindingKey, null, message.getBytes("UTF-8"));
System.out.println("生产者发出消息:" + message);
}
}
}
}
(2)消费者 ReceiveLogsTopic01
package com.atguigu.rabbitmq.seven;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class ReceiveLogsTopic01 {
private static final String EXCHANGE_NAME = "topic_logs";
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明交换机
channel.exchangeDeclare(EXCHANGE_NAME, "topic");
//声明 Q1 队列与绑定关系
String queueName = "Q1";
channel.queueDeclare(queueName, false, false, false, null);
channel.queueBind(queueName, EXCHANGE_NAME, "*.orange.*");
System.out.println("ReceiveLogsTopic01 等待接收消息........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("接收队列:" + queueName + " 绑定键:" + delivery.getEnvelope().getRoutingKey() + ",消息:" + message);
};
channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});
}
}
(3)消费者 ReceiveLogsTopic02
package com.atguigu.rabbitmq.seven;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class ReceiveLogsTopic02 {
private static final String EXCHANGE_NAME = "topic_logs";
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明交换机
channel.exchangeDeclare(EXCHANGE_NAME, "topic");
//声明 Q1 队列与绑定关系
String queueName = "Q2";
channel.queueDeclare(queueName, false, false, false, null);
//多重绑定
channel.queueBind(queueName, EXCHANGE_NAME, "*.*.rabbit");
channel.queueBind(queueName, EXCHANGE_NAME, "*lazy.#");
System.out.println("ReceiveLogsTopic02 等待接收消息........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("接收队列:" + queueName + " 绑定键:" + delivery.getEnvelope().getRoutingKey() + ",消息:" + message);
};
channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {});
}
}
(1)先从概念解释上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer 将消息投递到 broker 或者直接到 queue 里了,consumer 从 queue 取出消息进行消费,但某些时候由于特定的原因导致 queue 中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
(2)应用场景:为了保证订单业务的消息数据不丢失,需要使用到 RabbitMQ 的死信队列机制,当消息消费发生异常时,将消息投入死信队列中。例如用户在商城下单成功并点击去支付后在指定时间未支付时自动失效。
(1)消息 TTL (Time To Live) 过期;
(2)队列满了,无法再添加数据到 mq 中;
(3)消息被拒绝 (basic.reject 或 basic.nack) 并且 requeue = false;
(1)生产者 Producer
package com.atguigu.rabbitmq.eight;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.AMQP;
import com.rabbitmq.client.BuiltinExchangeType;
import com.rabbitmq.client.Channel;
public class Producer {
private static final String NORMAL_EXCHANGE = "normal_exchange";
//普通队列名称
private static final String NORMAL_QUEUE = "normal_queue";
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
//设置消息的 TTL 时间,为 10 s
AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build();
//该信息是用作演示队列个数限制
for (int i = 1; i < 11; i++) {
String message = "info " + i;
channel.basicPublish(NORMAL_EXCHANGE, "zhangsan", properties, message.getBytes());
System.out.println("生产者发送消息: " + message);
}
}
}
(2)消费者 Consumer01
package com.atguigu.rabbitmq.eight;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.BuiltinExchangeType;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
import java.util.HashMap;
import java.util.Map;
public class Consumer01 {
//普通交换机名称
private static final String NORMAL_EXCHANGE = "normal_exchange";
//死信交换机名称
private static final String DEAD_EXCHANGE = "dead_exchange";
//普通队列名称
private static final String NORMAL_QUEUE = "normal_queue";
//死信队列名称
private static final String DEAD_QUEUE = "dead_queue";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明死信和普通交换机 类型为 direct
channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
//声明死信队列
channel.queueDeclare(DEAD_QUEUE, false, false, false, null);
//死信队列绑定死信交换机与 routingKey
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");
//正常队列绑定死信队列信息
Map<String, Object> params = new HashMap<>();
//过期时间,可在生产者处设置
//params.put("x-message-ttl", 100000);
//正常队列设置死信交换机 参数 key 是固定值
params.put("x-dead-letter-exchange", DEAD_EXCHANGE);
//正常队列设置死信 routing-key 参数 key 是固定值
params.put("x-dead-letter-routing-key", "lisi");
channel.queueDeclare(NORMAL_QUEUE, false, false, false, params);
channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE, "zhangsan");
System.out.println("Consumer01 等待接收消息........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("Consumer01 接收到消息:" + message);
};
channel.basicConsume(NORMAL_QUEUE, true, deliverCallback, consumerTag -> {});
}
}
(3)消费者 Consumer02
package com.atguigu.rabbitmq.eight;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.DeliverCallback;
public class Consumer02 {
public static final String DEAD_QUEUE = "dead_queue";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("Consumer02 等待接收消息........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
System.out.println("Consumer02 接收到消息:" + message);
};
channel.basicConsume(DEAD_QUEUE, true, deliverCallback, consumerTag -> {});
}
}
(4)效果演示
① 先运行 Consumer01.java,创建出需要的交换机和队列,
② 然后再停止 Consumer01.java 并运行 Producer.java,此时便可以模拟出生产者发消息,由于消费者接收未及时接收而导致消息过期,从而消息进入死信队列,所以我们可以看到队列 normal_queue 的 Message 中最开始有 10 条 Ready 消息,而过一段时间后,这 10 条消息会逐渐进入到队列 dead_queue 中,直到 normal_queue 中的消息数为 0,dead_queue 中的消息为 10。然后再启动 Consumer02.java,以模拟消费死信队列中的消息。
(1)在消息TTL 过期代码的基础上做出以下修改即可:
① 消息生产者代码去掉 TTL 属性
public static void main(String[] argv) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
//该信息是用作演示队列个数限制
for (int i = 1; i < 11; i++) {
String message = "info " + i;
channel.basicPublish(NORMAL_EXCHANGE, "zhangsan", null, message.getBytes());
System.out.println("生产者发送消息: " + message);
}
}
② C1 消费者修改以下代码(同样启动之后关闭该消费者,模拟其接收不到消息)
(2)在验证效果时需要删除掉之前创建的队列 normal_queue,否则会报错(如果不想每次都手动删除,可以在声明队列时选择自动删除)。
(1)在队列达到最大长度代码的基础上做出以下修改即可:
① 消息生产者代码保持不变;
② C1 消费者代码中先去掉最大队列长度的设置,修改 deliverCallback 中的代码以及设置手动应答。
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明死信和普通交换机 类型为 direct
channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
//正常队列绑定死信队列信息
Map<String, Object> params = new HashMap<>();
//过期时间,可在生产者处设置
//params.put("x-message-ttl", 100000);
//正常队列设置死信交换机 参数 key 是固定值
params.put("x-dead-letter-exchange", DEAD_EXCHANGE);
//正常队列设置死信 routing-key 参数 key 是固定值
params.put("x-dead-letter-routing-key", "lisi");
//声明死信队列
channel.queueDeclare(NORMAL_QUEUE, false, false, false, params);
channel.queueDeclare(DEAD_QUEUE, false, false, false, null);
channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE, "zhangsan");
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");
System.out.println("Consumer01 等待接收消息........... ");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody(), "UTF-8");
//拒绝接收消息 info 5
if (message.equals("info 5")) {
System.out.println("Consumer01 拒绝接收的消息:" + message);
//不放回 normal_queue,所以自动会进入 dead_queue
channel.basicReject(delivery.getEnvelope().getDeliveryTag(), false);
} else {
System.out.println("Consumer01 接收到消息:" + message);
channel.basicAck(delivery.getEnvelope().getDeliveryTag(), false);
}
};
//开启手动应答
channel.basicConsume(NORMAL_QUEUE, false, deliverCallback, consumerTag -> {});
}
(2)在验证效果时同样需要删除掉之前创建的队列 normal_queue,否则会报错(如果不想每次都手动删除,可以在声明队列时选择自动删除)。由于 C1 中需要拒绝某条/些消息(代码里设置的是消息 “info 5”),所以此次启动 C1 后不需要关闭。
启动 C2 后便可以消费掉死信队列中的消息 “info 5”
(1)延时队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的消息的队列。
(2)使用场景
① 订单在十分钟之内未支付则自动取消。
② 新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
③ 用户注册成功后,如果三天内没有登陆则进行短信提醒。
④ 用户发起退款,如果三天内没有得到处理则通知相关运营人员。
⑥ 预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议。
(3)这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如:发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎可以使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求,如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭“,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。
(1)TTL (Time To Live) 是 RabbitMQ 中一个消息或者队列的属性,表明一条消息或者该队列中的所有消息的最大存活时间,单位是毫秒。换句话说,如果一条消息设置了 TTL 属性或者进入了设置TTL 属性的队列,那么这条消息如果在 TTL 设置的时间内没有被消费,则会成为"死信"。如果同时配置了队列的 TTL 和消息的 TTL,那么较小的那个值将会被使用,有两种方式设置 TTL,即消息设置 TTL 和队列设置 TTL。
(2)两者的区别
① 如果设置了队列的 TTL 属性,那么一旦消息过期,就会被队列丢弃(如果配置了死信队列被丢到死信队列中);
② 如果设置了消息的 TTL 属性,消息即使过期,也不一定会被马上丢弃,因为消息是否过期是在即将投递到消费者之前判定的,如果当前队列有严重的消息积压情况,则已过期的消息也许还能存活较长时间;另外,还需要注意的一点是,如果不设置 TTL,表示消息永远不会过期,如果将 TTL 设置为 0,则表示除非此时可以直接投递该消息到消费者,否则该消息将会被丢弃。
(3)前一小节我们介绍了死信队列,刚刚又介绍了 TTL,至此利用 RabbitMQ 实现延时队列的两大要素已经集齐,接下来只需要将它们进行融合,再加入一点点调味料,延时队列就可以新鲜出炉了。想想看,延时队列,不就是想要消息延迟多久被处理吗,TTL 则刚好能让消息在延迟多久之后成为死信,另一方面,成为死信的消息都会被投递到死信队列里,这样只需要消费者一直消费死信队列里的消息就完事了,因为里面的消息都是希望被立即处理的消息。
(1)在 pom.xml 中的 dependencies 标签中导入以下依赖:
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-amqpartifactId>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-webartifactId>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-testartifactId>
<scope>testscope>
dependency>
<dependency>
<groupId>com.alibabagroupId>
<artifactId>fastjsonartifactId>
<version>1.2.47version>
dependency>
<dependency>
<groupId>org.projectlombokgroupId>
<artifactId>lombokartifactId>
dependency>
<dependency>
<groupId>io.springfoxgroupId>
<artifactId>springfox-swagger2artifactId>
<version>2.9.2version>
dependency>
<dependency>
<groupId>io.springfoxgroupId>
<artifactId>springfox-swagger-uiartifactId>
<version>2.9.2version>
dependency>
<dependency>
<groupId>org.springframework.amqpgroupId>
<artifactId>spring-rabbit-testartifactId>
<scope>testscope>
dependency>
(2)检查依赖导入情况。
在 application.properties 中加入 RabbitMQ 的相关配置:
spring.rabbitmq.host=192.168.88.16
spring.rabbitmq.port=5672
spring.rabbitmq.username=admin
spring.rabbitmq.password=123
# Spring Boot 2.6.X使用PathPatternMatcher匹配路径
# Swagger引用的Springfox使用的路径匹配是基于AntPathMatcher的
# 所以要想解决,添加配置,将springBoot MVC的路劲匹配模式修改一下即可
spring.mvc.pathmatch.matching-strategy=ant_path_matcher
package com.atguigu.rabbitmq.springbootrabbitmq.config;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import springfox.documentation.builders.ApiInfoBuilder;
import springfox.documentation.service.ApiInfo;
import springfox.documentation.spi.DocumentationType;
import springfox.documentation.spring.web.plugins.Docket;
import springfox.documentation.swagger2.annotations.EnableSwagger2;
@Configuration
@EnableSwagger2
public class SwaggerConfig {
@Bean
public Docket webApiConfig() {
return new Docket(DocumentationType.SWAGGER_2)
.groupName("webApi")
.apiInfo(webApiInfo())
.select()
.build();
}
private ApiInfo webApiInfo() {
return new ApiInfoBuilder()
.title("RabbitMQ 接口文档")
.description("本文档描述了 RabbitMQ 微服务接口定义")
.version("1.0")
.build();
}
}
创建两个队列 QA 和 QB,两者队列 TTL 分别设置为 10s 和 40s,然后在创建一个交换机 X 和死信交换机 Y,它们的类型都是 direct,创建一个死信队列 QD,它们的绑定关系如下:
package com.atguigu.rabbitmq.springbootrabbitmq.config;
import org.springframework.amqp.core.*;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import java.util.HashMap;
import java.util.Map;
@Configuration
public class TtlQueueConfig {
//普通交换机
public static final String X_EXCHANGE = "X";
//普通队列
public static final String QUEUE_A = "QA";
public static final String QUEUE_B = "QB";
//死信交换机
public static final String Y_DEAD_LETTER_EXCHANGE = "Y";
//死信队列
public static final String DEAD_LETTER_QUEUE = "QD";
//声明 xExchange
@Bean("xExchange")
public DirectExchange xExchange() {
return new DirectExchange(X_EXCHANGE);
}
//声明 Y_DEAD_LETTER_EXCHANGE
@Bean("yExchange")
public DirectExchange yExchange() {
return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);
}
//声明普通队列 QUEUE_A,TTL 为 10s,并绑定到对应的死信交换机
@Bean("queueA")
public Queue queueA(){
Map<String, Object> args = new HashMap<>(3);
//声明当前队列绑定的死信交换机
args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);
//声明当前队列的死信routingKey
args.put("x-dead-letter-routing-key", "YD");
//声明队列的 TTL
args.put("x-message-ttl", 10000);
return QueueBuilder.durable(QUEUE_A).withArguments(args).build();
}
//声明普通队列 QUEUE_B,TTL 为 40s,并绑定到对应的死信交换机
@Bean("queueB")
public Queue queueB(){
Map<String, Object> args = new HashMap<>(3);
//声明当前队列绑定的死信交换机
args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);
//声明当前队列的死信routingKey
args.put("x-dead-letter-routing-key", "YD");
//声明队列的 TTL
args.put("x-message-ttl", 40000);
return QueueBuilder.durable(QUEUE_B).withArguments(args).build();
}
//声明死信队列 QD
@Bean("queueD")
public Queue queueD(){
return new Queue(DEAD_LETTER_QUEUE);
}
//声明队列 A 绑定 X 交换机
@Bean
public Binding queueABindingX(@Qualifier("queueA") Queue queueA,
@Qualifier("xExchange") DirectExchange xExchange){
return BindingBuilder.bind(queueA).to(xExchange).with("XA");
}
//声明队列 B 绑定 X 交换机
@Bean
public Binding queueBBindingX(@Qualifier("queueB") Queue queueB,
@Qualifier("xExchange") DirectExchange xExchange){
return BindingBuilder.bind(queueB).to(xExchange).with("XB");
}
//声明队列 D 绑定 Y 交换机
@Bean
public Binding queueDBindingY(@Qualifier("queueD") Queue queueD,
@Qualifier("yExchange") DirectExchange yExchange){
return BindingBuilder.bind(queueD).to(yExchange).with("YD");
}
}
package com.atguigu.rabbitmq.springbootrabbitmq.controller;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.rabbit.core.RabbitTemplate;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.PathVariable;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
import java.util.Date;
//发送延迟消息 http://localhost:8080/ttl/sendMsg/嘻嘻嘻
@Slf4j
@RestController
@RequestMapping("/ttl")
public class SendMsgController {
@Autowired
private RabbitTemplate rabbitTemplate;
//发消息
@GetMapping("/sendMsg/{message}")
public void sendMsg(@PathVariable String message) {
log.info("当前时间:{},发送一条信息给两个 TTL 队列:{}", new Date(), message);
rabbitTemplate.convertAndSend("X", "XA", "消息来自 ttl 为 10S 的队列: "+message);
rabbitTemplate.convertAndSend("X", "XB", "消息来自 ttl 为 40S 的队列: "+message);
}
}
package com.atguigu.rabbitmq.springbootrabbitmq.consumer;
import com.rabbitmq.client.Channel;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.core.Message;
import org.springframework.amqp.rabbit.annotation.RabbitListener;
import org.springframework.stereotype.Component;
import java.util.Date;
//消费者
@Slf4j
@Component
public class DeadLetterQueueConsumer {
//接收消息
@RabbitListener(queues = "QD")
public void receiveD(Message message, Channel channel) throws Exception {
String msg = new String(message.getBody());
log.info("当前时间:{},收到死信队列的消息:{}", new Date().toString(), msg);
}
}
注:由于不同的包内可能有名称相同的类,所以在编写代码一定要注意导入正确的包!
http://localhost:8080/ttl/sendMsg/嘻嘻嘻
(3)回控制台观察结果:
第一条消息在 10s 后变成了死信消息,然后被消费者消费掉,第二条消息在 40s 之后变成了死信消息,然后被消费掉,这样一个延时队列就打造完成了。
不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要新增一个队列,这里只有 10s 和 40s 两个时间选项,如果需要一个小时后处理,那么就需要增加 TTL 为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?所以下面一节对此进行了优化。
在这里新增了一个队列 QC,绑定关系如下,该队列不设置 TTL 时间,而由生产者决定(下面的优化基于上面的代码)。
在 TtlQueueConfig.java 中加入下面的这部分代码:
//普通队列
public static final String QUEUE_C = "QC";
//声明队列 C 死信交换机
@Bean("queueC")
public Queue queueC(){
Map<String, Object> args = new HashMap<>(2);
//声明当前队列绑定的死信交换机
args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);
//声明当前队列的死信路由 key
args.put("x-dead-letter-routing-key", "YD");
//没有声明 TTL 属性
return QueueBuilder.durable(QUEUE_C).withArguments(args).build();
}
//声明队列 C 绑定 X 交换机
@Bean
public Binding queueCBindingX(@Qualifier("queueC") Queue queueC,
@Qualifier("xExchange") DirectExchange xExchange){
return BindingBuilder.bind(queueC).to(xExchange).with("XC");
}
在 SendMsgController.java 中加入以下代码:
@GetMapping("/sendExpirationMsg/{message}/{ttlTime}")
public void sendMsg(@PathVariable String message, @PathVariable String ttlTime) {
log.info("当前时间:{},发送了一条延迟时长为 {}ms 的消息给队列 QC:{}",
new Date().toString(), ttlTime, message);
rabbitTemplate.convertAndSend("X", "XC", message, msg -> {
//设置延迟时长
msg.getMessageProperties().setExpiration(ttlTime);
return msg;
});
}
(1)启动该项目
(2)在浏览器依次中输入
http://localhost:8080/ttl/sendExpirationMsg/你好 1/20000
http://localhost:8080/ttl/sendExpirationMsg/你好 2/2000
(3)回控制台观察结果:
仔细观察结果可知,虽然第 2 条消息的延迟时间是 2s,比第一条的 20s 要短,但是这两条消息都是发往同一个队列(消息 1 先发),由于队列先进先出的特性,所以当两条信息都在队列中时,即使消息 2 的延迟时间先到,它也必须等消息 1 先出队列后自己才能出队列。在最开始的时候,就介绍过如果使用在消息属性上设置 TTL 的方式,消息可能并不会按时“死亡“,因为 RabbitMQ 只会检查第一个消息是否过期,如果过期则丢到死信队列,如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行。这就是通过死信队列来实现延迟队列的缺陷。
上文中提到的问题,确实是一个问题,如果不能实现在消息粒度上的 TTL,并使其在设置的TTL 时间及时死亡,就无法设计成一个通用的延时队列。那如何解决呢,接下来我们就去解决该问题。
(1)插件官网下载地址:https://www.rabbitmq.com/community-plugins.html。前面在安装 RabbitMQ 时已经准备好了。
(2)解压放置到 RabbitMQ 的插件目录 /usr/lib/rabbitmq/lib/rabbitmq_server-3.8.8/plugins 下。
(3)进入 RabbitMQ 的安装目录下的 plgins 目录,执行下面命令让该插件生效,然后重启 RabbitMQ 即可。
rabbitmq-plugins enable rabbitmq_delayed_message_exchange
# 重启 RabbitMQ
systemctl restart rabbitmq-server
(4)验证插件是否安装成功:
① 重启 RabbitMQ 之后登录 Web 管理页面;
② 在 Exchange 中新建一个交换机,在选择交换机类型时如果出现 x-delayed-message 这种类型,则说明插件安装成功。
(5)基于插件与基于死信队列的区别:
在这里新增了一个队列 delayed.queue,一个自定义交换机 delayed.exchange,绑定关系如下图所示:
package com.atguigu.rabbitmq.springbootrabbitmq.config;
import org.springframework.amqp.core.Binding;
import org.springframework.amqp.core.BindingBuilder;
import org.springframework.amqp.core.CustomExchange;
import org.springframework.amqp.core.Queue;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.context.annotation.Bean;
import java.util.HashMap;
import java.util.Map;
@Configuration
public class DelayedQueueConfig {
public static final String DELAYED_QUEUE_NAME = "delayed.queue";
public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";
public static final String DELAYED_ROUTING_KEY = "delayed.routingkey";
//自定义交换机 我们在这里定义的是一个延迟交换机
@Bean
public CustomExchange delayedExchange() {
Map<String, Object> args = new HashMap<>();
//自定义交换机的类型
args.put("x-delayed-type", "direct");
return new CustomExchange(DELAYED_EXCHANGE_NAME, "x-delayed-message", true, false, args);
}
//声明队列
@Bean
public Queue delayedQueue() {
return new Queue(DELAYED_QUEUE_NAME);
}
//绑定
@Bean
public Binding bindingDelayedQueue(@Qualifier("delayedQueue") Queue queue,
@Qualifier("delayedExchange") CustomExchange delayedExchange) {
return BindingBuilder.bind(queue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();
}
}
在 SendMsgController.java 中加入以下代码:
//基于插件的延迟消息
@GetMapping("/sendDelayMsg/{message}/{delayTime}")
public void sendDelayMsg(@PathVariable String message, @PathVariable Integer delayTime) {
log.info("当前时间:{},发送了一条延迟时长为 {}ms 的消息给队列 delay.queue:{}",
new Date().toString(), delayTime, message);
rabbitTemplate.convertAndSend(DelayedQueueConfig.DELAYED_EXCHANGE_NAME
, DelayedQueueConfig.DELAYED_ROUTING_KEY, message, msg -> {
//设置延迟时长,单位为 ms
msg.getMessageProperties().setDelay(delayTime);
return msg;
});
}
package com.atguigu.rabbitmq.springbootrabbitmq.consumer;
import com.atguigu.rabbitmq.springbootrabbitmq.config.DelayedQueueConfig;
import com.rabbitmq.client.Channel;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.core.Message;
import org.springframework.amqp.rabbit.annotation.RabbitListener;
import org.springframework.stereotype.Component;
import java.util.Date;
//基于插件的延迟消息
@Slf4j
@Component
public class DelayQueueConsumer {
//接收消息
@RabbitListener(queues = DelayedQueueConfig.DELAYED_QUEUE_NAME)
public void receiveDelayedQueue(Message message) throws Exception {
String msg = new String(message.getBody());
log.info("当前时间:{},收到延迟队列的消息为:{}", new Date().toString(), msg);
}
}
(1)启动项该目后,在浏览器中依次输入:
http://localhost:8080/ttl/sendDelayMsg/delay 1/20000
http://localhost:8080/ttl/sendDelayMsg/delay 2/2000
(2)回控制台观察结果:
(3)此时可以发现延迟时间更短的消息 “delay 2” 确实先被收到!
(1)延时队列在需要延时处理的场景下非常有用,使用 RabbitMQ 来实现延时队列可以很好的利用 RabbitMQ 的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过 RabbitMQ 集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。
(2)当然,延时队列还有很多其它选择,比如利用 Java 的 DelayQueue,利用 Redis 的 zset,利用 Quartz 或者利用 kafka 的时间轮,这些方式各有特点,看需要适用的场景。
在生产环境中由于一些不明原因,导致RabbitMQ 重启,在 RabbitMQ 重启期间生产者消息投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 RabbitMQ 的消息可靠投递呢? 特别是在这样比较极端的情况,RabbitMQ 集群不可用的时候,无法投递的消息该如何处理呢?
application.properties 中需要添加以下配置:
spring.rabbitmq.publisher-confirm-type=correlated
⚫ NONE:禁用发布确认模式,是默认值
⚫ CORRELATED:发布消息成功到交换器后会触发回调方法
⚫ SIMPLE:经测试有两种效果,其一效果和 CORRELATED 值一样会触发回调方法,其二在发布消息成功后使用 rabbitTemplate 调用waitForConfirms 或 waitForConfirmsOrDie 方法等待 broker 节点返回发送结果,根据返回结果来判定下一步的逻辑,要注意的点是waitForConfirmsOrDie 方法如果返回 false 则会关闭 channel,则接下来无法发送消息到 broker
package com.atguigu.rabbitmq.springbootrabbitmq.config;
import org.springframework.amqp.core.*;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
@Configuration
public class ConfirmConfig {
public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";
public static final String CONFIRM_QUEUE_NAME = "confirm.queue";
public static final String CONFIRM_ROUTING_KEY = "key1";
//声明业务 Exchange
@Bean("confirmExchange")
public DirectExchange confirmExchange(){
return new DirectExchange(CONFIRM_EXCHANGE_NAME);
}
// 声明确认队列
@Bean("confirmQueue")
public Queue confirmQueue(){
return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
}
// 声明确认队列绑定关系
@Bean
public Binding queueBinding(@Qualifier("confirmQueue") Queue queue,
@Qualifier("confirmExchange") DirectExchange exchange){
return BindingBuilder.bind(queue).to(exchange).with(CONFIRM_ROUTING_KEY);
}
}
package com.atguigu.rabbitmq.springbootrabbitmq.config;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.rabbit.connection.CorrelationData;
import org.springframework.amqp.rabbit.core.RabbitTemplate;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Component;
import javax.annotation.PostConstruct;
@Slf4j
@Component
public class MyCallBack implements RabbitTemplate.ConfirmCallback {
@Autowired
private RabbitTemplate rabbitTemplate;
//注入
@PostConstruct
public void init() {
rabbitTemplate.setConfirmCallback(this);
}
/**
* 交换机不管是否收到消息的一个回调方法
* 1.发送的消息交换机收到了,回调
* (1) CorrelationData:保存回调消息的 ID 以及相关信息
* (2) ack:交换机收到消息,为 true
* (3) cause: null
* 2.发送的消息交换机未收到,回调
* (1) CorrelationData:保存回调消息的 ID 以及相关信息
* (2) ack:交换机未收到消息,为 false
* (3) cause: 未收到的原因
*/
@Override
public void confirm(CorrelationData correlationData, boolean ack, String cause) {
String id = correlationData != null ? correlationData.getId() : "";
if (ack) {
log.info("交换机已经收到 ID 为: {} 的消息", id);
} else {
log.info("交换机还未收到 ID 为: {} 的消息,原因为: {}", id, cause);
}
}
}
package com.atguigu.rabbitmq.springbootrabbitmq.controller;
import com.atguigu.rabbitmq.springbootrabbitmq.config.ConfirmConfig;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.rabbit.connection.CorrelationData;
import org.springframework.amqp.rabbit.core.RabbitTemplate;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.PathVariable;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
//发布确认高级
@Slf4j
@RestController
@RequestMapping("/confirm")
public class ProducerController {
@Autowired
private RabbitTemplate rabbitTemplate;
@GetMapping("sendMessage/{message}")
public void sendMessage(@PathVariable String message){
CorrelationData correlationData = new CorrelationData("1");
rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME,
ConfirmConfig.CONFIRM_ROUTING_KEY, message, correlationData);
log.info("发送的消息内容为:{}",message);
}
}
package com.atguigu.rabbitmq.springbootrabbitmq.consumer;
import com.atguigu.rabbitmq.springbootrabbitmq.config.ConfirmConfig;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.core.Message;
import org.springframework.amqp.rabbit.annotation.RabbitListener;
import org.springframework.stereotype.Component;
@Slf4j
@Component
public class ConfirmConsumer {
@RabbitListener(queues = ConfirmConfig.CONFIRM_QUEUE_NAME)
public void receiveMsg(Message message) {
String msg = new String(message.getBody());
log.info("接受到队列 confirm.queue 消息:{}", msg);
}
}
(1)启动项该目后,在浏览器中输入:
http://localhost:8080/confirm/sendMessage/111
(2)在 ProducerController.java 中故意写错交换机的名称以模拟交换机出现问题,即生产者的消息发送不到指定的交换机:
重新测试的结果如下图所示,且返回了未收到消息的原因,即名称为 ‘confirm.exchange123’ 的交换机不存在。
(3)至此,交换机的回调效果就实现了,即如果交换机出现了问题,回调函数会告知其 Id 以及出现问题的原因,方便后续的处理(例如将消息先缓存起来,待交换机恢复正常后再次发送)。但是,如果队列出现了问题,那又该怎么办呢?这正是下一小节要解决的问题。
application.properties 中需要添加以下配置:
spring.rabbitmq.publisher-returns=true
在 MyCallBack.java 中实现 RabbitTemplate.ReturnsCallback 接口,并重写方法 returnedMessage(ReturnedMessage returned)。此外还要修改
@PostConstruct
public void init() {
rabbitTemplate.setConfirmCallback(this);
rabbitTemplate.setReturnsCallback(this);
}
//在当消息传递过程中不可达目的地(指队列)时将消息返回给生产者
@Override
public void returnedMessage(ReturnedMessage returned) {
log.error("消息'{}'被交换机'{}'退回,路由Key:{},原因:{}",
new String(returned.getMessage().getBody()), returned.getExchange(),
returned.getRoutingKey(), returned.getReplyText());
}
(1)在 ProducerController.java 中将消息发送 2 次,一次正常发送,另一次故意写错 routingKey 的名称,以模拟队列出现问题,即交换机发出的消息传递不到指定的队列。
(2)启动项该目后,在浏览器中输入:
http://localhost:8080/confirm/sendMessage/hello
(3)观察结果可知,消息回退的提示已经在控制台打印,并且也给出了对应的原因,即 NO_ROUTE。
由于在 ConfirmConfig.java 中修改之前的 confirmExchange 交换机,所以想使用修改之后的交换机,需要删除原来的。
package com.atguigu.rabbitmq.springbootrabbitmq.config;
import org.springframework.amqp.core.*;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
@Configuration
public class ConfirmConfig {
public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";
public static final String CONFIRM_QUEUE_NAME = "confirm.queue";
public static final String CONFIRM_ROUTING_KEY = "key1";
//备份交换机
public static final String BACKUP_EXCHANGE_NAME = "backup.exchange";
//备份队列
public static final String BACKUP_QUEUE_NAME = "backup.queue";
//警告队列
public static final String WARNING_QUEUE_NAME = "warning.queue";
//声明业务 Exchange
// @Bean("confirmExchange")
// public DirectExchange confirmExchange(){
// return new DirectExchange(CONFIRM_EXCHANGE_NAME);
// }
//声明确认 Exchange 交换机的备份交换机
@Bean("confirmExchange")
public DirectExchange confirmExchange() {
ExchangeBuilder exchangeBuilder = ExchangeBuilder
.directExchange(CONFIRM_EXCHANGE_NAME)
.durable(true)
//设置该交换机的备份交换机
.withArgument("alternate-exchange", BACKUP_EXCHANGE_NAME);
return (DirectExchange) exchangeBuilder.build();
}
// 声明确认队列
@Bean("confirmQueue")
public Queue confirmQueue() {
return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
}
// 声明确认队列绑定关系
@Bean
public Binding queueBinding(@Qualifier("confirmQueue") Queue queue,
@Qualifier("confirmExchange") DirectExchange exchange) {
return BindingBuilder.bind(queue).to(exchange).with(CONFIRM_ROUTING_KEY);
}
//声明备份交换机
@Bean("backupExchange")
public FanoutExchange backupExchange() {
return new FanoutExchange(BACKUP_EXCHANGE_NAME);
}
// 声明备份队列
@Bean("backQueue")
public Queue backQueue() {
return QueueBuilder.durable(BACKUP_QUEUE_NAME).build();
}
// 声明警告队列
@Bean("warningQueue")
public Queue warningQueue() {
return QueueBuilder.durable(WARNING_QUEUE_NAME).build();
}
// 声明备份队列绑定关系
@Bean
public Binding backupBinding(@Qualifier("backQueue") Queue queue,
@Qualifier("backupExchange") FanoutExchange backupExchange) {
return BindingBuilder.bind(queue).to(backupExchange);
}
// 声明报警队列绑定关系
@Bean
public Binding warningBinding(@Qualifier("warningQueue") Queue queue,
@Qualifier("backupExchange") FanoutExchange backupExchange) {
return BindingBuilder.bind(queue).to(backupExchange);
}
}
package com.atguigu.rabbitmq.springbootrabbitmq.consumer;
import com.atguigu.rabbitmq.springbootrabbitmq.config.ConfirmConfig;
import lombok.extern.slf4j.Slf4j;
import org.springframework.amqp.core.Message;
import org.springframework.amqp.rabbit.annotation.RabbitListener;
import org.springframework.stereotype.Component;
@Slf4j
@Component
public class WarningConsumer {
//接收警告消息
@RabbitListener(queues = ConfirmConfig.WARNING_QUEUE_NAME)
public void receiveWarningMsg(Message message) {
String msg = new String(message.getBody());
log.error("警告发现不可路由消息:{}", msg);
}
}
(1)在 ProducerController.java 中将消息发送 2 次,一次正常发送,另一次故意写错 routingKey 的名称,以模拟队列出现问题,即交换机发出的消息传递不到指定的队列,那么此时应该由警告队列接收并由警告消费者消费。
(2)启动项该目后,在浏览器中输入:
http://localhost:8080/confirm/sendMessage/hello
(3)结果如下图所示。并且通过分析可知当 mandatory 参数与备份交换机可以一起使用的时候,如果两者同时开启,消息会由备份交换机所接收并发送给对应的警告队列,由此可见备份交换机的优先级更高一点。(下图中未出现之前的消息回退的相关提示!)
(1)概念
用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的单应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等等。
(2)消息重复消费
消费者在消费 MQ 中的消息时,MQ 已把消息发送给消费者,消费者在给 MQ 返回 ack 时网络中断,故 MQ 未收到确认信息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该条消息,造成消费者消费了重复的消息。
(3)解决思路
MQ 消费者的幂等性的解决一般使用全局 ID 或者写个唯一标识,比如时间戳或者 UUID 。订单消费者消费 MQ 中的消息也可利用 MQ 的该 ID 来判断,或者可按自己的规则生成一个全局唯一 ID ,每次消费消息时用该 ID 先判断该消息是否已消费过。
(4)消费端的幂等性保障
在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性,这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业界主流的幂等性有两种操作:
① 唯一 ID + 指纹码机制,利用数据库主键去重;
② 利用 redis 的原子性去实现;
(5)唯一 ID + 指纹码机制
指纹码:我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个 ID 是否存在数据库中,优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果是单个数据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式。
(6)Redis 原子性
利用 redis 执行 setnx 命令,天然具有幂等性,从而实现不重复消费。
在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如果在用户设定的时间内未付款那么就会给用户推送一条短信提醒,很简单的一个功能对吧,但是,天猫商家对我们来说,肯定是要分大客户和小客户的对吧,比如像华为、苹果这样大商家一年起码能给我们创造很大的利润,所以理应当然,它们的订单必须得到优先处理,而曾经我们的后端系统是使用 redis 来存放的定时轮询,大家都知道 redis 只能用 List 做一个简简单单的消息队列,并不能实现一个优先级的场景,所以订单量大了后采用 RabbitMQ 进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级,否则就是默认优先级。
(1)Web 控制台页面添加
(2)队列中代码添加优先级
Map<String, Object> params = new HashMap();
params.put("x-max-priority", 10);
channel.queueDeclare("hello", true, false, false, params);
(3)消息中代码添加优先级
AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();
(4)注意事项
要让队列实现优先级需要做如下事情:① 队列需要设置为优先级队列;② 消息需要设置消息的优先级;并且消费者需要等待消息已经发送到队列中才去消费(即不能消费地太快,否则优先级队列来不及对消息进行排序),这样才有机会对消息进行排序。
(1)生产者代码
package com.atguigu.rabbitmq.one;
import com.rabbitmq.client.AMQP;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.Connection;
import com.rabbitmq.client.ConnectionFactory;
import java.io.IOException;
import java.util.HashMap;
import java.util.Map;
import java.util.concurrent.TimeoutException;
public class Producer {
private final static String QUEUE_NAME = "Hello";
public static void main(String[] args) throws IOException, TimeoutException {
Channel channel = RabbitMqUtils.getChannel();
Map<String, Object> arguments = new HashMap<>();
//优先级的范围是 [0, 255] 之间的整数,不建议设置地太大
arguments.put("x-max-priority", 10);
channel.queueDeclare(QUEUE_NAME, true, false, false, arguments);
//要发送的消息
for (int i = 0; i < 11; i++) {
String message = "info " + i;
//提高消息 "info 5" 的优先级
if (i == 5) {
AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();
channel.basicPublish("", QUEUE_NAME, properties, message.getBytes());
} else {
channel.basicPublish("", QUEUE_NAME, null, message.getBytes());
}
}
System.out.println("生产者:消息发送完毕!");
}
}
(2)消费者代码
package com.atguigu.rabbitmq.one;
import com.rabbitmq.client.*;
import java.io.IOException;
import java.util.Map;
import java.util.concurrent.TimeoutException;
public class Consumer {
private final static String QUEUE_NAME = "Hello";
public static void main(String[] args) throws IOException, TimeoutException {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("等待接收消息.........");
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody());
System.out.println(message);
};
//取消消费的一个回调接口,例如在消费的时候队列被删除掉了
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println("消息消费被中断");
};
channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);
}
}
(3)效果演示
① 先启动生产者
(1)RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因(比如消费者下线、宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了。
(2)默认情况下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存之中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然 RabbitMQ 的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量特别大的时候。
(1)队列具备两种模式:default 和 lazy。默认的为default 模式,在3.6.0 之前的版本无需做任何变更。lazy 模式即为惰性队列的模式,可以通过调用 channel.queueDeclare 方法的时候在参数中设置,也可以通过 Policy 的方式设置,如果一个队列同时使用这两种方式设置的话,那么 Policy 的方式具备更高的优先级。如果要通过声明的方式改变已有队列的模式的话,那么只能先删除队列,然后再重新声明一个新的。
(2)在队列声明的时候可以通过 “x-queue-mode” 参数来设置队列的模式,取值为“default”和“lazy”。下面演示了一个惰性队列的声明细节:
Map<String, Object> args = new HashMap<String, Object>();
args.put("x-queue-mode", "lazy");
channel.queueDeclare("myqueue", false, false, false, args);
在发送 1 百万条消息,每条消息大概占 1KB 的情况下,普通队列占用内存是 1.2GB,而惰性队列仅仅占用 1.5MB。
最开始我们介绍了如何安装及运行 RabbitMQ 服务,不过这些是单机版的,无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢?购买昂贵的服务器来增强单机 RabbitMQ 务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键。
(1)按照下面的步骤克隆 2 个 CentOS7.7 环境,分别取名为 CentOS7.7-02、CentOS7.7-03(初始的名称为 CentOS7.7)。如果内存空间不足,可以事先将 CentOS7.7 的内存调小一点。
(2)分别启动这 3 个机器,并使用命令 ifconfig 来分别查看它们的 IP 地址。CentOS7.7、CentOS7.7-02、CentOS7.7-03 的 IP 地址分别为 192.168.88.16、192.168.88.17、192.168.88.18。这里分别将它们命名为 node1、node2、node3。
(3)通过下面的命令修改 3 台机器的主机名称(即分别为 node1、node2、node3),重启之后才会生效!
vim /etc/hostname
(4)配置各个节点的 hosts 文件,让各个节点都能互相识别对方。
vim /etc/hosts
# 配置内容如下
192.168.88.16 node1
192.168.88.17 node2
192.168.88.18 node3
(5)为确保各个节点的 cookie 文件使用的是同一个值,在 node1 上执行以下远程操作命令
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
注:如果在执行上述命令时出现了以下错误,则大概率是网络配置的问题,可以参考虚拟机里centos7怎么联网?费时许久终于搞定!!、master: ssh: connect to host master port 22: No route to host这两篇文章来解决。
ssh: connect to host node3 port 22: No route to host
lost connection
(6)启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RabbitMQ 应用服务(在三台节点上分别执行以下命令)
rabbitmq-server -detached
(7)在 node2 依次执行以下命令:
rabbitmqctl stop_app
# rabbitmqctl stop 会将 Erlang 虚拟机关闭,rabbitmqctl stop_app 只关闭 RabbitMQ 服务
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node1
# 只启动应用服务
rabbitmqctl start_app
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node2
rabbitmqctl start_app
# 在任意一个节点上都可查看
rabbitmqctl cluster_status
# 创建账号
rabbitmqctl add_user admin 123
# 设置用户角色
rabbitmqctl set_user_tags admin administrator
# 设置用户权限
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
登录 Web 管理页面便可以查看该集群的相关信息
(11)解除集群节点(在 node2 和 node3 上分别执行)
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app
rabbitmqctl cluster_status
# node1 上执行
rabbitmqctl forget_cluster_node rabbit@node2
(1)如果 RabbitMQ 集群中只有一个 Broker 节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的 durable 属性也设置为 true,但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过 publisherconfirm 机制能够确保客户端知道哪些消息己经存入磁盘,尽管如此,一般不希望遇到因单点故障导致的服务不可用。
(2)引入镜像队列 (Mirror Queue) 的机制,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。
(1)启动三台集群节点。
(2)添加 policy,其中的 Pattern 指队列名或交换机名的正则匹配规则(例如 ^mirror 就指匹配以 mirror 开头的名称,比如 mirror_hello)。
注:下面的代码中生产者连接的是 node1,消费者连接的是 node2。
(1)消息生产者代码
package com.atguigu.rabbitmq.one;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.AMQP;
import com.rabbitmq.client.Channel;
import java.util.HashMap;
import java.util.Map;
//生产者:发消息
public class Producer {
//队列名称
private final static String QUEUE_NAME = "mirror_Hello";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
channel.queueDeclare(QUEUE_NAME, true, false, false, null);
String message = "hello world";
channel.basicPublish("", QUEUE_NAME, null, message.getBytes());
System.out.println("生产者:消息发送完毕!");
}
}
(2)消息消费者代码
package com.atguigu.rabbitmq.one;
import com.atguigu.rabbitmq.utils.RabbitMqUtils;
import com.rabbitmq.client.*;
//消费者:接收消息
public class Consumer {
//队列名称
private final static String QUEUE_NAME = "mirror_Hello";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("等待接收消息.........");
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody());
System.out.println(message);
};
//取消消费的一个回调接口,例如在消费的时候队列被删除掉了
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println("消息消费被中断");
};
channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);
}
}
(3)先只运行消息生产者代码,可以发现该队列分别保存到了 node1 和 node3 上。
(4)此时模拟 node1 宕机,即使用以下命令关闭 node1,并登录 node2 的 Web 管理页面进行查看(192.168.88.17:15672)。可以发现队列 mirror_Hello 保存到了 node2 和 node3 上!
rabbitmqctl stop_app
HAProxy 提供高可用性、负载均衡及基于TCPHTTP 应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括 Twitter、Reddit、StackOverflow、GitHub 在内的多家知名互联网公司在使用。HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。(扩展 ngin、lvs、haproxy 之间的区别:(总结)Nginx/LVS/HAProxy负载均衡软件的优缺点详解)。
(1)下载 haproxy(在 node1 和 node2)
yum -y install haproxy
(2)修改 node1 和 node2 的 haproxy.cfg
vim /etc/haproxy/haproxy.cfg
将红色部分的 IP 修改对应机器的 IP
(3)在两台节点启动 haproxy
haproxy -f /etc/haproxy/haproxy.cfg
ps -ef | grep haproxy
(4)访问地址
http://10.211.55.71:8888/stats
试想如果前面配置的 HAProxy 主机突然宕机或者网卡失效,那么虽然 RbbitMQ 集群没有任何故障,但是对于外界的客户端来说所有的连接都会被断开结果将是灾难性的。为了确保负载均衡服务的可靠性同样显得十分重要,这里就要引入 Keepalived 它能够通过自身健康检查、资源接管功能做高可用(双机热备),实现故障转移。
(1)下载 keepalived
yum -y install keepalived
(2)节点 node1 配置文件
vim /etc/keepalived/keepalived.conf
把资料里面的 keepalived.conf 修改之后替换
(3)节点 node2 配置文件
① 需要修改 global_defs 的 router_id,如:nodeB
② 其次要修改 vrrp_instance_VI 中 state 为"BACKUP";
③ 最后要将 priority 设置为小于 100 的值
(4)添加 haproxy_chk.sh
为了防止 HAProxy 服务挂掉之后 Keepalived 还在正常工作而没有切换到 Backup 上,所以这里需要编写一个脚本来检测 HAProxy 务的状态,当 HAProxy 服务挂掉之后该脚本会自动重启 HAProxy 的服务,如果不成功则关闭 Keepalived 服务,这样便可以切换到 Backup 继续工作。
# 可以直接上传文件
vim /etc/keepalived/haproxy_chk.sh
# 修改权限
chmod 777 /etc/keepalived/haproxy_chk.sh
(5)启动 keepalive 命令(node1 和 node2 启动)
systemctl start keepalived
(6)观察 Keepalived 的日志
tail -f /var/log/messages -n 200
(7)观察最新添加的 vip
ip add show
(8)node1 模拟 keepalived 关闭状态
systemctl stop keepalived
(9)使用 vip 地址来访问 rabbitmq 集群
(1)(broker 北京),(broker 深圳) 彼此之间相距甚远,网络延迟是一个不得不面对的问题。有一个在北京的业务 (Client 北京) 需要连接 (broker 北京),向其中的交换器 exchangeA 发送消息,此时的网络延迟很小,(Client 北京) 可以迅速将消息发送至 exchangeA 中,就算在开启了 publisherconfirm 机制或者事务机制的情况下,也可以迅速收到确认信息。此时又有个在深圳的业务 (Client 深圳) 需要向 exchangeA 发送消息, 那么(Client 深圳) (broker 北京) 之间有很大的网络延迟,(Client 深圳) 将发送消息至 exchangeA 会经历一定的延迟,尤其是在开启了 publisherconfirm 机制或者事务机制的情况下,(Client 深圳) 会等待很长的延迟时间来接收 (broker 北京) 的确认信息,进而必然造成这条发送线程的性能降低,甚至造成一定程度上的阻塞。
(2)将业务 (Client 深圳) 部署到北京的机房可以解决这个问题,但是如果 (Client 深圳) 调用的另些服务都部署在深圳,那么又会引发新的时延问题,总不见得将所有业务全部部署在一个机房,那么容灾又何以实现? 这里使用 Federation 插件就可以很好地解决这个问题。
(1)保证每台节点单独运行;
(2)在每台机器上开启 federation 相关插件:
rabbitmq-plugins enable rabbitmq_federation
rabbitmq-plugins enable rabbitmq_federation_management
(1)consumer 先要在 node2 创建 fed_exchange,然后 node1 再同步给 node1。
(2)运行消息消费者代码,声明交换机 fed_exchange 和队列 node2_queue,以及对它们进行绑定
package com.atguigu.rabbitmq.one;
import com.rabbitmq.client.*;
//消费者:接收消息
public class Consumer {
//队列名称
private final static String QUEUE_NAME = "node2_queue";
//交换机名称
private final static String FED_EXCHANGE = "fed_exchange";
public static void main(String[] args) throws Exception {
//创建一个连接工厂
ConnectionFactory factory = new ConnectionFactory();
factory.setHost("192.168.88.17");
//设置用户名
factory.setUsername("admin");
//设置密码
factory.setPassword("123");
//创建连接
Connection connection = factory.newConnection();
//获取信道
Channel channel = connection.createChannel();
channel.exchangeDeclare(FED_EXCHANGE, BuiltinExchangeType.DIRECT);
channel.queueDeclare(QUEUE_NAME, true, false, false, null);
channel.queueBind(QUEUE_NAME, FED_EXCHANGE, "routeKey");
System.out.println("等待接收消息.........");
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody());
System.out.println(message);
};
//取消消费的一个回调接口,例如在消费的时候队列被删除掉了
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println("消息消费被中断");
};
channel.basicConsume(QUEUE_NAME, true, deliverCallback, cancelCallback);
}
}
(3)添加 Upstream
(4)添加 Policy
Federation Queue 可以在多个 Broker 节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列 (upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息的需求。
(1)原理图
(2)添加 upstream(同上,直接复用即可)
(3)添加 policy
Federation 具备的数据转发功能类似,Shovel 够可靠、持续地从一个 Broker 中的队列(作为源端,即 source)拉取数据并转发至另一个 Broker 中的交换器(作为目的端,即 destination)。作为源端的队列和作为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。Shovel 可以翻译为"铲子",是一种比较形象的比喻,这个"铲子"可以将消息从一方"铲子"另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。
(1)原理图(在源头发送的消息直接回进入到目的地队列)
(2)开启 Shovel 相关插件(需要的机器都开启)
rabbitmq-plugins enable rabbitmq_shovel
rabbitmq-plugins enable rabbitmq_shovel_management