ActiveMQ高可用集群搭建

作者:禹明明,叩丁狼教育高级讲师。原创文章,转载请注明出处。

mq在分布式系统中是所有系统的消息总线,在生产环境中必须要尽量保证mq的正常运行,所以一般都会使用master-slave,保证master挂掉时slave可以顶上继续工作 . 但是仅仅是master-slave的话只能保证高可用,却无法做到负载均衡,如果mq因负载过大挂掉, master-slave也无法解决这种问题,那么就必须配置负载均衡

activemq 的master-slave部署方式

  1. shared filesystem Master-Slave部署方式, 基于共享数据存储目录,多个broker共享存储的文件系统,谁抢到存储文件的控制权谁是master
  2. shared database Master-Slave方式 ,基于共享数据库,跟第一种类似
  3. Replicated LevelDB Store方式,基于zookeeper + leveldb。 leveldb是谷歌的一个高性能kv数据库. 这中方式是ActiveMQ5.9以后才新增的,原理就是使用ZooKeeper协调选举一个node作为master, 被选择的master broker node开启并接受客户端连接。如果master挂掉,得到了最新更新数据的slave就会成为master。挂掉的节点恢复后能够重新加入到网络中并连接master进入slave 模式.

前两种要保证共享文件系统或数据库的高可用和性能才能保证mq的高可用,有时候上述并不容易满足,我们就使用第三种方式搭建master-slave集群.

环境

由于我们只有两台主机,我们测试就在每一台主机上搭建一个伪master-slave集群,然后两个集群再相互连接完成负载均衡

jdk : jdk8
zookeeper: 3.2
activemq: 5.15
主机1:192.168.0.103  
主机2:192.168.0.104 

搭建master-slave集群

步骤:

  1. 下载-->解压-->拷贝3份activemq(5.9以后版本),保证单独运行没有问题

2.修改每个activemq的持久化方式

vi  ACTIVEMQ_HOME/conf/activemq.xml

将默认的kahadb 修改为如下配置,zookeeper我做了集群,嫌麻烦直接使用单点Zookeeper也不影响

//directoryleveldb数据保存路径
//bind 服务端口
//replicas表示master-slave集群中节点个数
//zkAddress依次指定三台服务器的ip和ZooKeeper的监听端口
//zkPah在zookeeper中注册的节点路径
//hostname为每一台服务器的ip地址,三台服务器根据实际情况修改

      

3.修改activemq的TCP服务端口
该配置也在 ACTIVEMQ_HOME/conf/activemq.xml, 默认61616 , 相同机器不能重复,否则端口冲突,我这里为61616 ,61617, 61618
4.修改jetty端口
activemq 使用jetty运行服务, 修改 ACTIVEMQ_HOME/conf/jetty.xml 端口保证三个不能相同
依次改为8161 , 8162, 8163

  1. 启动zookeeper, 启动 三个activemq 实例
  2. 验证
    登录Zookeeper 客户端
    执行: ls /activemq/leveldb-stores
    查看节点发现/activemq/leveldb-stores下有三个节点,每一个代表一个activemq服务
    image.png

    查看每个节点的数据,其中elected 不为null 的就是master, 为null 的是slave
    image.png

也可以下载zookeeper可视化工具:
https://issues.apache.org/jira/secure/attachment/12436620/ZooInspector.zip;
运行ZooInspector\build\zookeeper-dev-ZooInspector.jar 可以查看节点数据

ps:只有master接受请求,slave不接受请求,也无法使用管理界面

配置负载均衡

  1. 我们已经搭建好了一个集群, 可以使用scp 命令将三个activemq文件拷贝一份到另一台主机即可得到另一个集群
#activemq2 是我本机的activemq 安装目录
scp -r  activemq2  [email protected]:/soft
  1. 在集群1的activemq.xml中链接集群2(在persistenceAdapter标签前配置):

    

  1. 在集群2的activemq.xml中链接集群1(在persistenceAdapter标签前配置):

    

这样就实现了ActiveMQ的集群高可用负载均衡功能。
项目中activemq配置地址应改为:
failover:(tcp://192.168.0.103:61616,tcp://192.168.0.103:61617,tcp://192.168.0.103:61618)?randomize=false
或:
failover:(tcp://192.168.0.104:61616,tcp://192.168.0.104:61617,tcp://192.168.0.104:61618)?randomize=false

测试

1.测试master-slave , 关闭master(61616),自动切换master为61617并重新连接(切换时不能保证数据完整性). 再关闭一个服务61617,超过半数挂掉,服务不可用, 客户端被阻塞不能再发送消息


ActiveMQ高可用集群搭建_第1张图片
image.png
  1. 测试负载均衡
    最终的架构就是两个master-slave集群 相互连通,两个集群可以相互消费对方的消息,但是如果客户端所连接的集群挂掉客户端依然是不能发送消息的,也就是说activemq的负载均衡只是做到消费的负载均衡,高可用是靠master-slave来保证的。


    ActiveMQ高可用集群搭建_第2张图片

    我们启动两个消费者服务监听相同的队列名
    mq的地址分别配置为

failover:(tcp://192.168.0.103:61616,tcp://192.168.0.103:61617,tcp://192.168.0.103:61618)?randomize=false
和:
failover:(tcp://192.168.0.104:61616,tcp://192.168.0.104:61617,tcp://192.168.0.104:61618)?randomize=false

启动后向104集群不停发送消息,发现两个消费者都能消费发送向104集群的消息,只不过打印日志有些区别,连接103集群的消费者服务显示通过FailoverTransport连接到104的matser

image.png


至此,高可用+负载均衡搭建完毕.
最后说明一点,测试中发现在master-slave切换时消费的消息还是有可能会出现问题的,并不是万无一失

ActiveMQ高可用集群搭建_第3张图片
WechatIMG9.jpeg

你可能感兴趣的:(ActiveMQ高可用集群搭建)