视频地址:
千锋教育RocketMQ全套视频教程,快速掌握MQ消息中间件
Message Queue(消息 队列),从字面上理解:首先它是一个队列。FIFO 先进先出的数据结构 —— 队列。
消息队列就是所谓的存放消息的队列。
消息队列解决的不是存放消息的队列的目的,解决的是通信问题。
1、同步通信情况下
比如以电商订单系统为例,如果各服务之间使用同步通信,不仅耗时较久,且过程中受到网络波动的影响,不能保证高成功率。因此,使用异步的通信方式对架构进行改造。
2、使用消息队列后。异步通信的情况下
RocketMQ 架构上主要分为四部分,如上图所示:
Producer:消息发布的⻆⾊,⽀持分布式集群⽅式部署。Producer 通过 MQ 的负载均衡模块选择相应的 Broker 集群队列进行消息投递,投递的过程⽀持快速失败并且低延迟。
Consumer:消息消费的角色,支持分布式集群方式部署。⽀持以 push 推,pull 拉两种模式对消息进行消费。同时也⽀持集群方式和广播方式的消费,它提供实时消息订阅机制,可以满足大多数用户的需求。
NameServer:NameServer 是⼀个非常简单的 Topic 路由注册中心,其⻆⾊类似 Dubbo 中的 zookeeper,支持 Broker 的动态注册与发现。
主要包括两个功能:Broker 管理,NameServer 接收 Broker 集群的注册信息并且保存下来作为路由信息的基本数据。然后提供心跳检测机制,检查 Broker 是否还存活;路由信息管理,每个 NameServer 将保存关于 Broker 集群的整个路由信息和⽤于客户端查询的队列信息。
然后 Producer 和 Conumser 通过 NameServer 就可以知道整个 Broker 集群的路由信息,从⽽进⾏消息的投递和消费。
NameServer 通常也是集群的⽅式部署,各实例间相互不进⾏信息通讯。因为 Broker 是向每⼀台 NameServer 注册⾃⼰的路由信息,所以每⼀个 NameServer 实例上⾯都保存⼀份完整的路由信息。
当某个 NameServer 因某种原因下线了,Broker 仍然可以向其它 NameServer 同步其路由信息,Producer,Consumer 仍然可以动态感知 Broker 的路由的信息。
BrokerServer:Broker 主要负责消息的存储、投递和查询以及服务高可用保证,为了实现这些功能,Broker 包含了以下几个重要⼦模块。
Topic
订阅信息。简而言之
NameServer 服务器在消息发送时充当了路由信息的提供者,帮助生产者找到正确的 Broker 来发送消息。它起到了注册和发现 Broker 的作用,以确保消息能够准确地路由到目标位置。
当【生产者】发送消息时,它会根据 Topic 选择合适的 Broker 来发送消息。Broker 负责存储和管理消息,每个 Broker 上可以管理多个 Topic。因此,Topic 是在 Broker 上创建和管理的,而不是在 NameServer 服务器上。
RocketMQ 网络部署特点
NameServer 是⼀个⼏乎⽆状态节点,可集群部署,节点之间⽆任何信息同步。
Broker 部署相对复杂,Broker 分为 Master 与 Slave,⼀个 Master 可以对应多个 Slave,但是⼀个 Slave 只能对应⼀个 Master。
Master 与 Slave 的对应关系通过指定相同的 BrokerName,不同的 BrokerId 来定义,BrokerId 为 0 表示 Master,⾮ 0 表示 Slave。Master 也可以部署多个。
每个 Broker 与 NameServer 集群中的所有节点建立长连接,定时注册 Topic 信息到所有 NameServer。
注意:当前 RocketMQ 版本在部署架构上⽀持⼀ Master 多 Slave,但只有 BrokerId=1 的从服务器才会参与消息的读负载。
Producer 与 NameServer 集群中的其中⼀个节点(随机选择)建⽴⻓连接,定期从 NameServer 获取 Topic 路由信息,并向提供 Topic 服务的 Master 建⽴⻓连接,且定时向 Master 发送⼼跳。Producer 完全⽆状态,可集群部署。
Consumer 与 NameServer 集群中的其中⼀个节点(随机选择)建⽴⻓连接,定期从 NameServer 获取 Topic 路由信息,并向提供 Topic 服务的 Master、Slave 建⽴⻓连接,且定时向 Master、Slave 发送⼼跳。Consumer 既可以从 Master 订阅消息,也可以从 Slave 订阅消息,消费者在向 Master 拉取消息时,Master 服务器会根据拉取偏移量与最⼤偏移量的距离(判断是否读⽼消息,产⽣读 I/O),以及从服务器是否可读等因素建议下⼀次是从 Master 还是 Slave 拉取。
结合部署架构图,描述集群⼯作流程
官网下载地址:https://rocketmq.apache.org/zh/download/
1、运行版【二进制压缩包】:
2、另一个是【源码】 – source 下载
准备⼀台装有Linux系统的虚拟机。需要关闭防火墙。
安装 jdk,上传 jdk 安装包并解压缩在 /usr/local/java ⽬录下。
安装 rocketmq,上传 rocketmq 安装包并使⽤ unzip 命令解压缩在 /usr/local/rocketmq ⽬录下。
# 进入指定目录
cd /usr/local
# 新建文件夹
mkdir rocketmq
# 解压压缩包
unzip [压缩包名]
# 删除压缩包
rm -rf [压缩包名]
# -f:force,强制删除,否则会每个文件都询问是否删除
# -r:表示递归,移除文件夹的时候需要使用
配置 jdk 和 rocketmq 的环境变量
1、进入配置文件
vim /etc/profile
2、i
插入,插入后,ESC
+ :wq
退出
export JAVA_HOME=/usr/local/java/jdk1.8.0_171
export JRE_HOME=/usr/local/java/jdk1.8.0_171/jre
export ROCKETMQ_HOME=/usr/local/rocketmq/rocketmq-all-5.1.2-bin-release
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$ROCKETMQ_HOME/bin:$PATH:$HOME/bin
注意,RocketMQ 的环境变量⽤来加载 ROCKETMQ_HOME/conf 下的配置⽂件, 如果不配置则⽆法启动 NameServer 和 Broker。
3、使环境变量生效
source /etc/profile
4、验证一下
javac
5、修改 bin/runserver.sh ⽂件,由于 RocketMQ 默认设置的 JVM 内存为 4G,但虚拟机⼀般是 2G 内存,因此调整为 512mb。
cd ./bin
vim runserver.sh
修改前:
修改后:
1、在 bin ⽬录下使⽤静默⽅式启动
nohup ./mqnamesrv &
# 建议使用带名称空间的形式 -n <服务器地址>:<端口>
nohup ./mqnamesrv -n 192.168.194.132:9876 &
2、查看是否启动成功
cat nohup.out
1、修改 broker 的 JVM 参数配置,将默认 8G 内存修改为 512m。修改 bin/runbroker.sh ⽂件
vim runbroker.sh
修改
JAVA_OPT="${JAVA_OPT} -server -Xms8g -Xmx8g"
# 改为
JAVA_OPT="${JAVA_OPT} -server -Xms512m -Xmx512m -Xmn256m"
2、conf/broker.conf ⽂件中加⼊如下配置,开启⾃动创建 Topic 功能
vim broker.conf
# 开启⾃动创建 Topic 功能
autoCreateTopicEnable=true
3、以静默⽅式启动 broker
nohup ./mqbroker -n localhost:9876 &
# 可以使用 localhost,但不建议
nohup ./mqbroker -n 192.168.194.132:9876 &
# 查看 bin/nohup.out ⽇志,看是否开启成功
cat nohup.out
1、配置 nameserver 的环境变量
在发送/接收消息之前,需要告诉客户端 nameserver 的位置。配置环境变量 NAMESRV_ADDR
:
export NAMESRV_ADDR=localhost:9876
2、使⽤ bin/tools.sh ⼯具验证消息的发送,默认会发 1000 条消息发送的消息⽇志:
./tools.sh org.apache.rocketmq.example.quickstart.Producer
发送的消息日志:
...
SendResult [sendStatus=SEND_OK, msgId=AC110001E73F0133314B8998AB2503E7, offsetMsgId=C0A8C28400002A9F000000000003AC09, messageQueue=MessageQueue [topic=TopicTest, brokerName=localhost.localdomain, queueId=2], queueOffset=249]
3、使⽤ bin/tools.sh ⼯具验证消息的接收
./tools.sh org.apache.rocketmq.example.quickstart.Consumer
看到接收到的消息:
...
ConsumeMessageThread_please_rename_unique_group_name_4_20 Receive New Messages: [MessageExt [brokerName=localhost.localdomain, queueId=2, storeSize=241, queueOffset=232, sysFlag=0, bornTimestamp=1687857283710, bornHost=/192.168.194.132:59242, storeTimestamp=1687857283711, storeHost=/192.168.194.132:10911, msgId=C0A8C28400002A9F0000000000036C05, commitLogOffset=224261, bodyCRC=1379786659, reconsumeTimes=0, preparedTransactionOffset=0, toString()=Message{topic='TopicTest', flag=0, properties={CONSUME_START_TIME=1687857375912, MSG_REGION=DefaultRegion, UNIQ_KEY=AC110001E73F0133314B8998AA7E03A3, CLUSTER=DefaultCluster, MIN_OFFSET=0, TAGS=TagA, WAIT=true, TRACE_ON=true, MAX_OFFSET=250}, body=[72, 101, 108, 108, 111, 32, 82, 111, 99, 107, 101, 116, 77, 81, 32, 57, 51, 49], transactionId='null'}]]
1、关闭 broker
./mqshutdown broker
2、关闭 nameserver
./mqshutdown namesrv
关闭前:
关闭后:
保存服务的 高性能、高可用。
为了追求更好的性能,RocketMQ 的最佳实践方式都是在集群模式下完成。
RocketMQ 官⽅提供了三种集群搭建⽅式。
使用异步方式进行主从之间的数据复制,吞吐量大,但可能会丢消息(因为异步的情况下,从服务器 slave
可能会复制失败)。
使用 conf/2m-2s-async
文件夹内的配置文件做集群配置。
使⽤同步方式进行主从之间的数据复制,保证消息安全投递,不会丢失,但影响吞吐量(因为此时相对于生产者来说进行了阻塞)。
使用 conf/2m-2s-sync
文件夹内的配置文件做集群配置。
会存在单点故障,且读的性能没有前两种⽅式好。
使⽤ conf/2m-noslave
⽂件夹内的配置⽂件做集群配置。
上述三种官方提供的集群没办法实现⾼可用,即在 master 节点挂掉后,slave 节点没办法⾃动被选举为新的 master,需要人工实现。
RocketMQ 在 4.5 版本之后引⼊了第三方的 Dleger 高可用集群。
旨在提供高可用性、数据冗余和负载均衡,以确保消息系统的可靠性和性能。
三台 Linux 服务器中 nameserver 和 broker 之间的关系如下:
# 查看 ip 地址
ifconfig
服务器 | 服务器IP | NameServer | Broker节点部署 |
---|---|---|---|
服务器1 | 192.168.194.133 | 192.168.194.133:9876 | |
服务器2 | 192.168.194.134 | 192.168.194.134:9876 | broker-a(master),broker-b-s(slave) |
服务器3 | 192.168.194.135 | 192.168.194.135:9876 | broker-b(master),broker-a-s(slave) |
注意:这是交叉部署
- 服务器 2 上的是:broker-a 的主节点和 broker-b 的从节点
- 服务器 3 上的是:broker-b 的主节点和 broker-a 的从节点
三台服务器都需要安装 jdk 和 rocketmq,安装步骤参考上⼀章节(笔者用的是 CentOS ,不需要安装配置,不知道是不是这个原因)
克隆步骤:
第一步,点击克隆
第二步,创建链接克隆
nameserver 是一个轻量级的注册中心,broker 把自己的信息注册到 nameserver 上。因为 nameserver 是无状态的,所以直接启动即可。
三台 nameserver 之间不需要通信,而是被请求方来关联三台 nameserver 的地址。
修改三台服务器的的 runserver.sh
文件
修改 JVM 内存默认的 4g 为 512m。
JAVA_OPT="${JAVA_OPT} -server -Xms512m -Xmx512m -Xmn256m -
XX:MetaspaceSize=128m -XX:MaxMetaspaceSize=320m"
在每台服务器的 bin 目录下执行如下命令:
服务器 1:
nohup ./mqnamesrv -n 192.168.194.133:9876 &
服务器 2:
nohup ./mqnamesrv -n 192.168.194.134:9876 &
服务器 3:
nohup ./mqnamesrv -n 192.168.194.135:9876 &
两对主从节点在不同的服务器上,服务器 1 上没有部署 broker。
需要修改每台 broker 的配置⽂件。
注意,同⼀台服务器上的两个 broker 保存路径不能⼀样。
broker-a 的 master 节点
在服务器 2 上,进⼊到 conf/2m-2s-async ⽂件夹内,修改 broker-a.properties ⽂件
# 所属集群名称
brokerClusterName=DefaultCluster
# broker名字
brokerName=broker-a
# broker所在服务器的ip(注意)
brokerIP1=192.168.194.134
# broker的id,0表示master,>0表示slave
brokerId=0
# 删除⽂件时间点,默认在凌晨4点
deleteWhen=04
# ⽂件保留时间为48⼩时
fileReservedTime=48
# broker的⻆⾊为master
brokerRole=ASYNC_MASTER
# 使⽤异步刷盘的⽅式
flushDiskType=ASYNC_FLUSH
# 名称服务器的地址列表(注意)
namesrvAddr=192.168.194.133:9876;192.168.194.134:9876;192.168.194.135:9876
# 在发送消息⾃动创建不存在的topic时,默认创建的队列数为4个
defaultTopicQueueNums=4
# 是否允许 Broker ⾃动创建Topic,建议线下开启,线上关闭
autoCreateTopicEnable=true
# 是否允许 Broker ⾃动创建订阅组,建议线下开启,线上关闭
autoCreateSubscriptionGroup=true
# broker对外服务的监听端⼝
listenPort=10911
# abort⽂件存储路径
abortFile=/usr/local/rocketmq/store/abort
# 消息存储路径
storePathRootDir=/usr/local/rocketmq/store
# commitLog存储路径
storePathCommitLog=/usr/local/rocketmq/store/commitlog
# 消费队列存储路径
storePathConsumeQueue=/usr/local/rocketmq/store/consumequeue
# 消息索引存储路径
storePathIndex=/usr/local/rocketmq/store/index
# checkpoint⽂件存储路径
storeCheckpoint=/usr/local/rocketmq/store/checkpoint
# 限制的消息⼤⼩
maxMessageSize=65536
# commitLog每个⽂件的⼤⼩默认1G
mapedFileSizeCommitLog=1073741824
# ConsumeQueue每个⽂件默认存30W条,根据业务情况调整
mapedFileSizeConsumeQueue=300000
broker-a 的 slave 节点
在服务器 3 上,进⼊到 conf/2m-2s-async ⽂件夹内,修改 broker-a-s.properties ⽂件。
brokerClusterName=DefaultCluster
brokerName=broker-a
# broker所在服务器的ip(注意)
brokerIP1=192.168.194.135
# broker的id,0表示master,>0表示slave
brokerId=1
deleteWhen=04
fileReservedTime=48
brokerRole=SLAVE
flushDiskType=ASYNC_FLUSH
# 名称服务器的地址列表(注意)
namesrvAddr=192.168.194.133:9876;192.168.194.134:9876;192.168.194.135:9876
defaultTopicQueueNums=4
autoCreateTopicEnable=true
autoCreateSubscriptionGroup=true
listenPort=11011
abortFile=/usr/local/rocketmq/store-slave/abort
storePathRootDir=/usr/local/rocketmq/store-slave
storePathCommitLog=/usr/local/rocketmq/store-slave/commitlog
storePathConsumeQueue=/usr/local/rocketmq/store-slave/consumequeue
storePathIndex=/usr/local/rocketmq/store-slave/index
storeCheckpoint=/usr/local/rocketmq/store-slave/checkpoint
maxMessageSize=65536
broker-b 的 master 节点
在服务器 3 上,进⼊到 conf/2m-2s-async ⽂件夹内,修改 broker-b.properties
⽂件。
brokerClusterName=DefaultCluster
brokerName=broker-b
# broker所在服务器的ip(注意)
brokerIP1=192.168.194.135
brokerId=0
deleteWhen=04
fileReservedTime=48
brokerRole=ASYNC_MASTER
flushDiskType=ASYNC_FLUSH
# 名称服务器的地址列表(注意)
namesrvAddr=192.168.194.133:9876;192.168.194.134:9876;192.168.194.135:9876
defaultTopicQueueNums=4
autoCreateTopicEnable=true
autoCreateSubscriptionGroup=true
listenPort=10911
abortFile=/usr/local/rocketmq/store/abort
storePathRootDir=/usr/local/rocketmq/store
storePathCommitLog=/usr/local/rocketmq/store/commitlog
storePathConsumeQueue=/usr/local/rocketmq/store/consumequeue
storePathIndex=/usr/local/rocketmq/store/index
storeCheckpoint=/usr/local/rocketmq/store/checkpoint
maxMessageSize=65536
broker-b 的 slave 节点
在服务器 2 上,进⼊到 conf/2m-2s-async ⽂件夹内,修改 broker-b-s.properties ⽂件。
brokerClusterName=DefaultCluster
#
brokerName=broker-b
#
brokerIP1=192.168.194.134
#
brokerId=1
deleteWhen=04
fileReservedTime=48
brokerRole=SLAVE
flushDiskType=ASYNC_FLUSH
# 名称服务器的地址列表(注意)
namesrvAddr=192.168.194.133:9876;192.168.194.134:9876;192.168.194.135:9876
defaultTopicQueueNums=4
autoCreateTopicEnable=true
autoCreateSubscriptionGroup=true
listenPort=11011
abortFile=/usr/local/rocketmq/store-slave/abort
storePathRootDir=/usr/local/rocketmq/store-slave
storePathCommitLog=/usr/local/rocketmq/store-slave/commitlog
storePathConsumeQueue=/usr/local/rocketmq/store-slave/consumequeue
storePathIndex=/usr/local/rocketmq/store-slave/index
storeCheckpoint=/usr/local/rocketmq/store-slave/checkpoint
maxMessageSize=65536
修改服务器 2 和服务器 3 的 bin/runbroker.sh ⽂件
修改 JVM 内存默认的 8g 为 512m。(CentOS 的不需要)
JAVA_OPT="${JAVA_OPT} -server -Xms512m -Xmx512m -Xmn256m"
在服务器 2 中启动 broker-a(master)和 broker-b-s(slave)
-c
表示指定哪个配置文件,需要注意的是路径
nohup ./mqbroker -c ../conf/2m-2s-async/broker-a.properties &
nohup ./mqbroker -c ../conf/2m-2s-async/broker-b-s.properties &
nohup ./mqbroker -c ../conf/2m-2s-async/broker-b.properties &
nohup ./mqbroker -c ../conf/2m-2s-async/broker-a-s.properties &
可以用 jps
命令查看一下服务
使用 RocketMQ 提供的 tools 工具验证集群是否正常工作。
用于被 tools 中的生产者和消费者程序读取该变量。
vim /etc/profile
export NAMESRV_ADDR='192.168.194.133:9876;192.168.194.134:9876;192.168.194.135:9876'
source /etc/profile
./tools.sh org.apache.rocketmq.example.quickstart.Producer
报错:
[root@localhost bin]# ./tools.sh org.apache.rocketmq.example.quickstart.Producer
Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x00000000c0000000, 268435456, 0) failed; error='Cannot allocate memory' (errno=12)
#
# There is insufficient memory for the Java Runtime Environment to continue.
# Native memory allocation (mmap) failed to map 268435456 bytes for committing reserved memory.
# An error report file with more information is saved as:
# /usr/local/rocketmq/rocketmq-all-5.1.2-bin-release/bin/hs_err_pid9766.log
原因:内存不够
./tools.sh org.apache.rocketmq.example.quickstart.Consumer
RocketMQ 没有提供可视化管理控制平台,可以使⽤第三方管理控制平台:https://github.com/apache/rocketmq-externals/tree/rocketmq-console-1.0.0/rocketmq-console
下载管理控制平台
解压缩在 linux 服务器上(放在 /rocketmq/rocketmq-externals 目录下)
1、修改 rocketmq-externals/rocketmq-externals-master/rocketmqconsole/src/main/resources/application.properties 配置⽂件中的 nameserver 地址
rocketmq.config.namesrvAddr=192.168.194.133:9876;192.168.194.134:9876;192.168.194.135:9876
2、回到 rocketmq-externals/rocketmq-externals-master/rocketmqconsole 路径下执⾏ maven
命令进⾏打包
mvn
看是否有环境)apt install maven
mvn clean package -Dmaven.test.skip=true
报错:
[ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:2.6:resources (default-resources) on project rocketmq-console-ng: Execution default-resources of goal org.apache.maven.plugins:maven-resources-plugin:2.6:resources failed: A required class was missing while executing org.apache.maven.plugins:maven-resources-plugin:2.6:resources: org/apache/maven/shared/filtering/MavenFilteringException
[ERROR] -----------------------------------------------------
[ERROR] realm = plugin>org.apache.maven.plugins:maven-resources-plugin:2.6
[ERROR] strategy = org.codehaus.plexus.classworlds.strategy.SelfFirstStrategy
[ERROR] urls[0] = file:/usr/local/maven/repository/org/apache/maven/plugins/maven-resources-plugin/2.6/maven-resources-plugin-2.6.jar
[ERROR] urls[1] = file:/usr/local/maven/repository/org/codehaus/plexus/plexus-utils/2.0.5/plexus-utils-2.0.5.jar
[ERROR] urls[2] = file:/usr/local/maven/repository/org/apache/maven/shared/maven-filtering/1.1/maven-filtering-1.1.jar
[ERROR] urls[3] = file:/usr/local/maven/repository/org/codehaus/plexus/plexus-interpolation/1.13/plexus-interpolation-1.13.jar
[ERROR] Number of foreign imports: 1
[ERROR] import: Entry[import from realm ClassRealm[maven.api, parent: null]]
[ERROR]
[ERROR] -----------------------------------------------------
[ERROR] : org.apache.maven.shared.filtering.MavenFilteringException
[ERROR] -> [Help 1]
[ERROR]
[ERROR] To see the full stack trace of the errors, re-run Maven with the -e switch.
[ERROR] Re-run Maven using the -X switch to enable full debug logging.
[ERROR]
[ERROR] For more information about the errors and possible solutions, please read the following articles:
[ERROR] [Help 1] http://cwiki.apache.org/confluence/display/MAVEN/PluginContainerException
解决方法:在 pom.xml 文件里添加两个插件,然后重新打包 jar 包
<plugin>
<groupId>org.apache.maven.pluginsgroupId>
<artifactId>maven-resources-pluginartifactId>
<version>3.1.0version>
plugin>
<plugin>
<groupId>org.apache.maven.pluginsgroupId>
<artifactId>maven-war-pluginartifactId>
<version>3.1.0version>
plugin>
参考博客:https://blog.csdn.net/csdn565973850/article/details/125785792
也可以看一下这篇文章:可视化控制台安装
运行完成之后,进入到 /target
目录下就可以看到生成的 jar
包了。
/target
目录下运行 jar
包(jar包版本注意看target目录下的内容)java -jar rocketmq-console-ng-1.0.0.jar
报错,显示端口被占用,进入 application.properties
文件修改端口号(笔者修改的是 8081)
在 maven 项⽬中构建出 RocketMQ 消息示例的基础环境,即创建生产者程序和消费者程序。
通过⽣产者和消费者了解 RocketMQ 操作消息的原生 API。
<dependency>
<groupId>org.apache.rocketmqgroupId>
<artifactId>rocketmq-clientartifactId>
<version>4.7.1version>
dependency>
public class BaseProducer {
public static void main(String[] args) throws Exception {
//1.创建生产者
DefaultMQProducer producer = new DefaultMQProducer("my-producer-group1");
//2.指定nameserver的地址
producer.setNamesrvAddr("192.168.194.133:9876");
//3.启动生产者
producer.start();
//4.创建消息
for (int i = 0; i < 10; i++) {
Message message = new Message("MyTopic1","TagA",("hello rocketmq"+i).getBytes(StandardCharsets.UTF_8));
//5.发送消息
SendResult sendResult = producer.send(message);
System.out.println(sendResult);
}
//6.关闭生产者
producer.shutdown();
}
}
创建消息 new Message()
的参数含义:
topic
(主题):指定往哪个 topic 去发消息tags
:过滤消息keys
:消息的 keyflag
:消息的标记body
:消息具体的内容waitStoreMsgOK
:指定是否等待消息存储操作完成,默认值为 true
,此时发送方法会等待消息在 Broker 存储操作完成后才返回。public class BaseConsumer {
public static void main(String[] args) throws MQClientException {
//1.创建消费者对象
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("my-consumer-group1");
//2.指明nameserver的地址
consumer.setNamesrvAddr("192.168.194.133:9876");
//3.订阅主题:topic 和 过滤消息用的tag表达式
consumer.subscribe("MyTopic1","*");
//4.创建一个监听器,当broker把消息推过来时调用
consumer.registerMessageListener(new MessageListenerConcurrently() {
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {
for (MessageExt msg : msgs) {
// System.out.println("收到的消息:"+new String(msg.getBody()));
System.out.println("收到的消息:"+msg);
}
// 返回一个消费成功状态
// return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
return null;
}
});
//5.启动消费者
consumer.start();
System.out.println("消费者已启动");
}
}
发送消息
消费消息
具体流程图
消息队列中的消费者通过订阅或者轮询的方式来获取消息队列中的消息。
每个 broker 有 2 个主节点和 2 个从节点(副本)。当消息进入系统后,它会在这 4 个服务器节点之间进行轮询,以实现消息的分发和冗余备份。
在消息发送时,每个 Topic 通常会与一个 broker 绑定。然后,在该 broker(包含主从)上创建的队列会被分配【四个队列ID】。这四个队列 ID 用于标识该 Topic 在 broker 上的不同分区或分片。每个队列 ID 对应一个特定的消息队列,用于存储和处理消息。通过使用多个队列 ID,可以实现消息的并行处理和负载均衡。
简单消息分成三种: 同步消息、异步消息、单向消息。
同步消息
生产者发送消息后,必须等待 broker 返回信息后才继续之后的业务逻辑,在 broker 返回信息之前,生产者阻塞等待。
同步消息的应用场景:如重要通知消息、短信通知、短信营销系统等。(注重安全性,不希望消息丢失)
/**
* 同步生产者
*/
public class SyncProducer {
public static void main(String[] args) throws MQClientException, UnsupportedEncodingException, RemotingException, InterruptedException, MQBrokerException {
// Instantiate with a producer group name. -- 使用生产者组名进行123实例化
DefaultMQProducer producer = new
DefaultMQProducer("producerGroup1");
// Specify name server addresses. -- 指定名称服务器地址
producer.setNamesrvAddr("192.168.194.133:9876");
// Launch the instance. -- 启动实例
producer.start();
for (int i = 0; i < 100; i++) {
// Create a message instance, specifying topic, tag and message body.
// 创建消息实例,指定主题、标记和消息主体
Message msg = new Message("TopicTest" /* Topic */,
"TagA" /* Tag */,
("Hello RocketMQ " + i).getBytes(RemotingHelper.DEFAULT_CHARSET) /* Message body */
);
// Call send message to deliver message to one of brokers.
// 调用发送消息以将消息传递到 broker集群 之一
SendResult sendResult = producer.send(msg);
System.out.printf("%s%n", sendResult);
}
// Shut down once the producer instance is not longer in use. -- 关闭生产者
producer.shutdown();
}
}
异步消息
生产者发完消息后,不需要等待 broker 的回信,可以直接执行之后的业务逻辑。生产者提供一个回调函数(SendCallback()
)供 broker 调用,体现了异步的方式。
当消费者处理消息完成后,通过回调函数通知生产者,生产者可以根据需要进行后续的处理。
具体的流程如下:
异步消息的应用场景:一般用于响应时间敏感的业务场景(注重时间)。
/**
* 异步消息生产者
*/
public class AsyncProducer {
public static void main(String[] args) throws Exception {
// Instantiate with a producer group name.
DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
// Specify name server addresses.
producer.setNamesrvAddr("192.168.194.133:9876");
// Launch the instance.
producer.start();
producer.setRetryTimesWhenSendAsyncFailed(0); // 设置异步发送失败时的重试次数
int messageCount = 100;
final CountDownLatch countDownLatch = new CountDownLatch(messageCount);
for (int i = 0; i < messageCount; i++) {
try {
final int index = i;
Message msg = new Message("Jodie_topic_1023",
"TagA",
"OrderID188",
"Hello world".getBytes(RemotingHelper.DEFAULT_CHARSET));
producer.send(msg, new SendCallback() {
// 定义回调函数
@Override
public void onSuccess(SendResult sendResult) {
countDownLatch.countDown();
System.out.printf("%-10d OK %s %n", index, sendResult.getMsgId());
}
@Override
public void onException(Throwable e) {
countDownLatch.countDown();
System.out.printf("%-10d Exception %s %n", index, e);
e.printStackTrace();
}
});
} catch (Exception e) {
e.printStackTrace();
}
}
System.out.println("============="); // 会在消息反馈前打印
countDownLatch.await(5, TimeUnit.SECONDS); // 等待全部消息返回完成
producer.shutdown();
}
}
单向消息
生产者发送完消息后不需要等待任何回复,直接进行之后的业务逻辑。
应用场景:单向传输用于需要中等可靠性的情况,例如日志收集.
/**
* 单向消息生产者
*/
public class OnewayProducer {
public static void main(String[] args) throws Exception {
// Instantiate with a producer group name.
DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
// Specify name server addresses.
producer.setNamesrvAddr("192.168.194.133:9876");
// Launch the instance.
producer.start();
for (int i = 0; i < 100; i++) {
// Create a message instance, specifying topic, tag and message body.
Message msg = new Message("TopicTest" /* Topic */,
"TagA" /* Tag */,
("Hello RocketMQ " +
i).getBytes(RemotingHelper.DEFAULT_CHARSET) /* Message body */
);
// Call send message to deliver message to one of brokers.
producer.sendOneway(msg);
}
// Wait for sending to complete -- 等待发送完成
Thread.sleep(5000);
producer.shutdown();
}
}
顺序消息指的是:消费者消费消息的顺序按照发送者发送消息的顺序执行。
顺序消息分成两种: 局部顺序和全局顺序。
局部消息指的是:消费者消费某个 topic 的某个队列中的消息是顺序的。
消费者使用 MessageListenerOrderly
类做消息监听,实现局部顺序。
/**
* 顺序消息
*/
public class OrderProducer {
public static void main(String[] args) throws Exception {
// Instantiate with a producer group name.
MQProducer producer = new DefaultMQProducer("example_group_name");
//名字服务器的地址已经在环境变量中配置好了:NAMESRV_ADDR=192.168.194.133:9876
//Launch the instance.
producer.start();
for (int i = 0; i < 10; i++) {
int orderId = i;
for(int j = 0 ; j <= 5 ; j ++){
Message msg =
new Message("OrderTopicTest", "order_"+orderId, "KEY" + orderId,
("order_"+orderId+" step " + j).getBytes(RemotingHelper.DEFAULT_CHARSET));
SendResult sendResult = producer.send(msg, new MessageQueueSelector() { // 消息队列选择器
@Override
public MessageQueue select(List<MessageQueue> mqs, Message msg, Object arg) {
Integer id = (Integer) arg;
int index = id % mqs.size();
return mqs.get(index);
}
}, orderId);
System.out.printf("%s%n", sendResult);
}
}
// server shutdown
producer.shutdown();
}
}
环境变量配置:
运行结果:
从纵向来看,是乱序的;从横向来看,是有序的:
消费者消费全部消息都是顺序的(消费者按顺序消费全部消息),通常需要满足特定主题只有一个队列,并确保消费者按顺序从队列中获取消息,这种应用场景相对较少且性能较差。(因为只有一个 broker,也就意味着不能实现高可用)
消费者消费消息不需要关注消息的顺序。消费者使用 MessageListenerConcurrently
类做消息监听。
public class OrderConsumer {
public static void main(String[] args) throws MQClientException {
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("example_group_name");
consumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_FIRST_OFFSET);
consumer.subscribe("OrderTopicTest", "*");
consumer.registerMessageListener(new MessageListenerConcurrently() { // 一个普通的监听器
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {
for(MessageExt msg:msgs){
System.out.println("消息内容:"+new String(msg.getBody()));
}
return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
});
consumer.start();
System.out.printf("Consumer Started.%n");
}
}
如下图所示:
广播是向主题 (topic) 的所有订阅者发送消息。订阅同一个 topic 的多个消费者,能全量收到生产者发送的所有消息。
消费者
public class BroadcastConsumer {
public static void main(String[] args) throws Exception {
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("example_group_name");
consumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_FIRST_OFFSET);
// set to broadcast mode -- 设置为广播模式
consumer.setMessageModel(MessageModel.BROADCASTING);
consumer.subscribe("TopicTest", "*");
consumer.registerMessageListener(new MessageListenerConcurrently() {
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
ConsumeConcurrentlyContext context) {
for(MessageExt msg:msgs){
System.out.println("消息内容:"+new String(msg.getBody()));
}
return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
});
consumer.start();
System.out.printf("Broadcast Consumer Started.%n");
}
}
生产者
public class BroadcastProducer {
public static void main(String[] args) throws Exception {
DefaultMQProducer producer = new DefaultMQProducer("ProducerGroupName");
producer.start();
for (int i = 0; i < 100; i++){
Message msg = new Message("TopicTest",
"TagA",
"OrderID188",
("Hello world"+i).getBytes(RemotingHelper.DEFAULT_CHARSET));
SendResult sendResult = producer.send(msg);
System.out.printf("%s%n", sendResult);
}
producer.shutdown();
}
}
延迟消息与普通消息的不同之处在于,它们要等到指定的时间之后才会被传递。
延迟消息生产者
public class ScheduledProducer {
public static void main(String[] args) throws Exception {
// Instantiate a producer to send scheduled messages
DefaultMQProducer producer = new DefaultMQProducer("ExampleProducerGroup");
// Launch producer
producer.start();
int totalMessagesToSend = 100;
for (int i = 0; i < totalMessagesToSend; i++) {
Message message = new Message("TestTopic", ("Hello scheduled message " + i).getBytes());
// 设置延迟等级为 3 级,此消息将在 10 秒后传递给消费者。
message.setDelayTimeLevel(3);
// Send the message
producer.send(message);
}
// Shutdown producer after use.
producer.shutdown();
}
}
延迟等级如下所示:
系统为这 18 个等级配置了 18 个 topic,⽤于实现延迟队列的效果:
在商业版 RocketMQ 中,不仅可以设置延迟等级,还可以设置具体的延迟时间,但是在社区版 RocketMQ 中,只能设置延迟等级。
延迟消息消费者
public class ScheduledConsumer {
public static void main(String[] args) throws MQClientException {
// Instantiate message consumer
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("ExampleConsumer");
// Subscribe topics
consumer.subscribe("TestTopic", "*");
// Register message listener
consumer.registerMessageListener(new MessageListenerConcurrently() {
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> messages, ConsumeConcurrentlyContext context) {
for (MessageExt message : messages) {
// Print approximate delay time period -- 打印大约延迟时间周期
System.out.println("Receive message[msgId=" + message.getMsgId() + "] "
+ (System.currentTimeMillis() - message.getStoreTimestamp()) + "ms later");
}
return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
});
// Launch consumer
consumer.start();
}
}
批量发送消息提高了传递小消息的性能
使用批量消息
public class BatchProducer {
public static void main(String[] args) throws Exception {
DefaultMQProducer producer = new DefaultMQProducer("ProducerGroupName");
producer.start();
String topic = "BatchTest";
List<Message> messages = new ArrayList<>();
messages.add(new Message(topic, "TagA", "OrderID001", "Hello world 0".getBytes()));
messages.add(new Message(topic, "TagA", "OrderID002", "Hello world 1".getBytes()));
messages.add(new Message(topic, "TagA", "OrderID003", "Hello world 2".getBytes()));
producer.send(messages);
producer.shutdown();
}
}
超出限制的批量消息
官方建议批量消息的总大小不应超过 1m,实际不应超过 4m。
如果超过 4m 的批量消息需要进行分批处理,同时设置 broker 的配置参数为 4m (在 broker 的配置文件中修改: maxMessageSize=4194394
)
上面默认配置的是:
# 限制的消息⼤⼩
maxMessageSize=65536
具体代码如下:
public class MaxBatchProducer {
public static void main(String[] args) throws Exception {
DefaultMQProducer producer = new DefaultMQProducer("BatchProducerGroupName");
producer.start();
//large batch
String topic = "BatchTest";
// 发送 一万 条信息
List<Message> messages = new ArrayList<>(100*1000);
for (int i = 0; i < 100*1000; i++) {
messages.add(new Message(topic, "Tag", "OrderID" + i, ("Hello world " + i).getBytes()));
}
// producer.send(messages);
//split the large batch into small ones: 将大批分成小批
ListSplitter splitter = new ListSplitter(messages);
while (splitter.hasNext()) {
List<Message> listItem = splitter.next();
producer.send(listItem);
}
producer.shutdown();
}
}
在使用 ListSplitter
进行消息拆分时,需要注意以下限制:
waitStoreMsgOK
参数,即等待消息存储成功的设置应相同。ListSplitter
不支持拆分延迟消息,即消息的延迟级别应为 0。ListSplitter
不支持拆分事务消息,即不支持对事务消息使用该工具类进行拆分。在大多数情况下,标签是一种简单而有用的设计,可以用来选择您想要的消息。
tag 过滤的生产者
public class TagProducer {
public static void main(String[] args) throws Exception {
DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
producer.start();
String[] tags = new String[] {"TagA", "TagB", "TagC"};
for (int i = 0; i < 15; i++) {
Message msg = new Message("TagFilterTest",
tags[i % tags.length],
"Hello world".getBytes(RemotingHelper.DEFAULT_CHARSET));
SendResult sendResult = producer.send(msg);
// 将 sendResult 的值格式化为字符串,并以新的一行123打印到控制台
System.out.printf("%s%n", sendResult);
}
producer.shutdown();
}
}
"%s%n"
的含义:
%s
是格式化字符串中的占位符,表示将要替换为字符串类型的值。%n
则是换行符,表示在输出结果中添加一个新的空行。tag 过滤的消费者
public class TagConsumer {
public static void main(String[] args) throws MQClientException {
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("please_rename_unique_group_name");
consumer.subscribe("TagFilterTest", "TagA || TagC");
consumer.registerMessageListener(new MessageListenerConcurrently() {
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
ConsumeConcurrentlyContext context) {
System.out.printf("%s Receive New Messages: %s %n", Thread.currentThread().getName(), msgs);
return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
});
consumer.start();
System.out.printf("Consumer Started.%n");
}
}
使用 SQL 过滤
SQL 功能可以通过您在发送消息时输入的属性进行一些计算。
在 RocketMQ 定义的语法下,可以实现一些有趣的逻辑。这是一个例子:
------------
| message |
|----------| a > 5 AND b = 'abc'
| a = 10 | --------------------> Gotten
| b = 'abc'|
| c = true |
------------
------------
| message |
|----------| a > 5 AND b = 'abc'
| a = 1 | --------------------> Missed
| b = 'abc'|
| c = true |
------------
RocketMQ 只定义了一些基本的语法来支持这个特性,也可以轻松扩展它。
>
, >=
, <
, <=
, BETWEEN
, =
=
, <>
, IN
IS NULL
或 IS NOT NULL
AND
, OR
, NOT
常量类型有:
'abc'
,必须用单引号NULL
,特殊常数TRUE
或 FALSE
使用注意: 只有推模式的消费者可以使用 SQL 过滤。拉模式是用不了的。
SQL 过滤的生产者示例
public class SQLProducer {
public static void main(String[] args) throws Exception {
DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
producer.start();
String[] tags = new String[] {"TagA", "TagB", "TagC"};
for (int i = 0; i < 15; i++) {
Message msg = new Message("SqlFilterTest",
tags[i % tags.length],
("Hello RocketMQ " + i).getBytes(RemotingHelper.DEFAULT_CHARSET)
);
// Set some properties. -- 设置一些属性
msg.putUserProperty("a", String.valueOf(i));
SendResult sendResult = producer.send(msg);
System.out.printf("%s%n", sendResult);
}
producer.shutdown();
}
}
SQL 过滤的消费者示例
使用前提
在 broker 的配置文件中加上 enablePropertyFilter=true
属性。
public class SQLConsumer {
public static void main(String[] args) throws MQClientException {
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("please_rename_unique_group_name");
// Don't forget to set enablePropertyFilter=true in broker
consumer.subscribe("SqlFilterTest",
MessageSelector.bySql("(TAGS is not null and TAGS in ('TagA', 'TagB'))" +
"and (a is not null and a between 0 and 3)"));
consumer.registerMessageListener(new MessageListenerConcurrently() {
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
ConsumeConcurrentlyContext context) {
System.out.printf("%s Receive New Messages: %s %n", Thread.currentThread().getName(), msgs);
return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
});
consumer.start();
System.out.printf("Consumer Started.%n");
}
}
事务消息的定义
它可以被认为是一个两阶段的提交消息实现,以确保分布式系统的最终一致性。
事务性消息确保本地事务的执行和消息的发送可以原子地执行。
事务消息有三种状态
TransactionStatus.CommitTransaction
: 提交事务,表示允许消费者消费该消息。TransactionStatus.RollbackTransaction
: 回滚事务,表示该消息将被删除,不允许消费。TransactionStatus.Unknown
: 中间状态,表示需要 MQ 回查才能确定状态。事务消息的实现流程
场景联想:
下订单 – 支付,这两个阶段。
half 消息在哪里?
生产者
public class TransactionProducer {
public static void main(String[] args) throws Exception {
// 事务监听器
TransactionListener transactionListener = new TransactionListenerImpl();
TransactionMQProducer producer = new TransactionMQProducer("please_rename_unique_group_name");
producer.setNamesrvAddr("192.168.194.133:9876");
// 线程池
ExecutorService executorService = new ThreadPoolExecutor(2, 5, 100, TimeUnit.SECONDS, new ArrayBlockingQueue<Runnable>(2000), new ThreadFactory() {
@Override
public Thread newThread(Runnable r) {
Thread thread = new Thread(r);
thread.setName("client-transaction-msg-check-thread");
return thread;
}
});
producer.setExecutorService(executorService);
producer.setTransactionListener(transactionListener);
producer.start();
String[] tags = new String[] {"TagA", "TagB", "TagC", "TagD", "TagE"};
for (int i = 0; i < 10; i++) {
try {
Message msg =
new Message("TopicTest", tags[i % tags.length], "KEY" + i,
("Hello RocketMQ " + i).getBytes(RemotingHelper.DEFAULT_CHARSET));
SendResult sendResult = producer.sendMessageInTransaction(msg, null);
System.out.printf("%s%n", sendResult);
Thread.sleep(10);
} catch (MQClientException | UnsupportedEncodingException e) {
e.printStackTrace();
}
}
for (int i = 0; i < 100000; i++) {
Thread.sleep(1000);
}
producer.shutdown();
}
}
本地事务处理 – 事务监听器实现类 TransactionListenerImpl
public class TransactionListenerImpl implements TransactionListener {
/**
* When send transactional prepare(half) message succeed, this method will be invoked to execute local transaction.
* 当发送事务准备(半)消息成功时,将调用此方123法 执行123本地事务。
*
* @param msg Half(prepare) message
* @param arg Custom business parameter 自定义业务参数
* @return 事务状态
*/
@Override
public LocalTransactionState executeLocalTransaction(Message msg, Object arg) {
String tags = msg.getTags();
if(StringUtils.contains(tags,"TagA")){
return LocalTransactionState.COMMIT_MESSAGE;
}else if(StringUtils.contains(tags,"TagB")){
return LocalTransactionState.ROLLBACK_MESSAGE;
}else{
return LocalTransactionState.UNKNOW;
}
}
/**
* 回查本地事务
*
* @param msg Check message
* @return Transaction state
*/
@Override
public LocalTransactionState checkLocalTransaction(MessageExt msg) {
String tags = msg.getTags();
if(StringUtils.contains(tags,"TagC")){
return LocalTransactionState.COMMIT_MESSAGE;
}else if(StringUtils.contains(tags,"TagD")){
return LocalTransactionState.ROLLBACK_MESSAGE;
}else{
return LocalTransactionState.UNKNOW;
}
}
}
消费者
public class TransactionConsumer {
public static void main(String[] args) throws MQClientException {
//1.创建消费者对象
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("my-consumer-group1");
//2.指明nameserver的地址
consumer.setNamesrvAddr("192.168.194.133:9876");
//3.订阅主题:topic 和过滤消息用的tag表达式
consumer.subscribe("TopicTest","*");
//4.创建一个监听器,当broker把消息推过来时调用
consumer.registerMessageListener(new MessageListenerConcurrently() {
@Override
public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {
for (MessageExt msg : msgs) {
// System.out.println("收到的消息:"+new String(msg.getBody()));
System.out.println("收到的消息:"+msg);
}
return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
}
});
//5.启动消费者
consumer.start();
System.out.println("消费者已启动");
}
}
使用限制:
transactionCheckMax
” 来更改此限制。参数在 broker 的配置中,如果⼀条消息的检查次数超过 “transactionCheckMax
” 次,broker 默认会丢弃这条消息,同时打印错误日志。用户可以通过重写 “AbstractTransactionCheckListener
” 类来改变这种行为。transactionTimeout
” 确定。并且用户也可以在发送事务消息时通过设置用户属性 “CHECK_IMMUNITY_TIME_IN_SECONDS
” 来改变这个限制,这个参数优先于 “transactionMsgTimeout
” 参数。