(1)RabbitMQ搭建集群的作用:提高可用性、可靠性和处理能力,确保系统提供高效的消息传递服务
(2)常见的集群方案
将两个 RabbitMQ 磁盘节点和一个 RabbitMQ内存节点组成一个内建集群,之所以要用两个磁盘节点是防止,唯一的磁盘节点挂掉后,不能重建队列,交换机。用 HAProxy 作为 RabbitMQ 集群的负载均衡。为了防止 HAProxy 单点故障,用 Keepalived 将两个 HAProxy 节点做成一主一备。应用使用 VIP(虚拟IP) 访问 HAProxy 服务时,默认连接主机(Master)的 HAProxy,当主机(Master)上的 HAProxy 故障时,VIP 会漂移到备机(Backup)上,就会连接备机(Backup)上的 HAProxy 服务。
VRRP 协议
VRRP 协议即虚拟路由冗余协议(Virtual Router Redundancy Protocol)。Keepalived 中提供的虚拟 IP 机制就属于 VRRP,它是为了避免路由器出现单点故障的一种容错协议。
(1)机器准备
IP地址 | 主机名 | 备注 |
---|---|---|
192.168.140.101 | mq01 | 磁盘节点 RabbitMQ |
192.168.140.102 | mq02 | 内存节点 keepalived+haproxy+RabbitMQ |
192.168.140.103 | mq03 | 内存节点 keepalived+haproxy+RabbitMQ |
(2)三台机器docker部署RabbitMQ
参数说明:
--hostname:自定义Docker容器的hostname
--privileged=true:使用该参数,container内的root拥有真正的root权限,否则容器出现permission denied
-v:宿主机和容器路径映射
RABBITMQ_ERLANG_COOKIE:Erlang Cookie 值,同一个集群内该值必须相同,相当于不同节点之间通讯的密钥
--add-host:修改容器内部的hosts,添加的集群服务器都需要添加进来
--restart=unless-stopped docker 容器重启后重启MQ
docker run -d --hostname rabbitmq1 --add-host=rabbitmq2:192.168.140.102 --add-host=rabbitmq3:192.168.140.103 --restart=unless-stopped --name rabbitmq1 --net host -p 15672:15672 -p 5672:5672 -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin -e RABBITMQ_ERLANG_COOKIE='rabbit_mq' rabbitmq:management
docker run -d --hostname rabbitmq2 --add-host=rabbitmq1:192.168.140.101 --add-host=rabbitmq3:192.168.140.103 --restart=unless-stopped --name rabbitmq2 --net host -p 15672:15672 -p 5672:5672 -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin -e RABBITMQ_ERLANG_COOKIE='rabbit_mq' rabbitmq:management
docker run -d --hostname rabbitmq3 --add-host=rabbitmq1:192.168.140.101 --add-host=rabbitmq2:192.168.140.102 --restart=unless-stopped --name rabbitmq3 --net host -p 15672:15672 -p 5672:5672 -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin -e RABBITMQ_ERLANG_COOKIE='rabbit_mq' rabbitmq:management
docker exec -it rabbitmq1 bash
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app
exit
docker exec -it rabbitmq2 bash
rabbitmqctl stop_app
rabbitmqctl join_cluster --ram rabbit@rabbitmq1
rabbitmqctl start_app
exit
docker exec -it rabbitmq3 bash
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl join_cluster --ram rabbit@rabbitmq1
rabbitmqctl start_app
exit
rabbitmqctl cluster_status
(3)搭建镜像集群
配置步骤:rabbitmq管理页面 —> Admin —> Policies —> Add / update a policy
策略会同步同一个VirtualHost中的交换器和队列数据
策略会同步同一个VirtualHost中的交换器和队列数据,在MQ节点一上创建队列,同步到各个节点。
集群重启顺序:
(1)MQ集群的架构痛点
搭建了RabbitMQ高可用集群,生产者和消费者,业务代码里面需要写多个节点配置信息。
如果某个节点挂了,或者新增了多个节点,多个业务程序都需要重启更新配置信息。
可以利用Haproxy在RabbitMQ中充当负载均衡器的角色,提供负载均衡、故障转移、可靠性和可用性增强以及动态伸缩等功能。
(2)创建配置文件
分别在102和103节点上创建目录/usr/local/haproxy
创建配置文件haproxy.cfg
#增加下面配置文件
global
log 127.0.0.1 local0 info
maxconn 10240
daemon
defaults
log global
mode http
timeout connect 3000
timeout client 3000
timeout server 3000
timeout check 2000
listen admin_stats
#haproxy监控界面的访问的IP和端口
bind 0.0.0.0:8081
mode http
stats uri /stats
stats realm Global\ statistics
#haproxy登陆帐户信息
stats auth admin:admin
listen rabbitmq_admin
#rabbit的监控页面
bind 0.0.0.0:8082
server rabbit_admin1 192.168.140.101:15672
server rabbit_admin2 192.168.140.102:15672
server rabbit_admin3 192.168.140.103:15672
listen haproxy
#对外提供的端口,spring boot连接mq的端口
bind 0.0.0.0:8091
option tcplog
mode tcp
balance roundrobin
server rabbitmq1 192.168.140.101:5672 check inter 5000 rise 2 fall 2
server rabbitmq2 192.168.140.102:5672 check inter 5000 rise 2 fall 2
server rabbitmq3 192.168.140.103:5672 check inter 5000 rise 2 fall 2
配置文件详解
全局配置部分(global):
- 设置日志输出目标为本地地址 `127.0.0.1` 的 `local0` 日志设备,并设置日志级别为 `info`。
- 设置最大连接数为 `10240`。
- 启用后台运行模式。
默认配置部分(defaults):
- 设置日志输出为全局设定的日志设备。
- 指定工作模式为HTTP模式。
- 设置连接超时时间为 `3000` 毫秒。
- 设置客户端超时时间为 `3000` 毫秒。
- 设置服务器超时时间为 `3000` 毫秒。
- 设置健康检查超时时间为 `2000` 毫秒。
`admin_stats` 监听器:
- 监听 `0.0.0.0:8081` 地址和端口。
- 使用HTTP模式。
- 设置监控统计信息的路径为 `/stats`。
- 设置统计信息页面的显示名称为 `Global statistics`。
- 设置访问统计信息页面的认证用户名和密码为 `admin:xdclass.net168`。
`rabbitmq_admin` 监听器:
- 监听 `0.0.0.0:8082` 地址和端口。
- 配置了三个RabbitMQ管理节点。
- 每个节点的名称和地址:端口为 `rabbit_admin1 120.24.7.58:15672`、`rabbit_admin2 120.24.7.58:15673` 和 `rabbit_admin3 120.24.7.58:15674`。
`haproxy` 监听器:
- 监听 `0.0.0.0:5666` 地址和端口。
- 启用TCP日志记录。
- 使用TCP模式。
- 使用轮询算法进行负载均衡。
- 配置了三个RabbitMQ节点。
- 每个节点的名称和地址:端口为 `rabbitmq1 120.24.7.58:5672`、`rabbitmq2 120.24.7.58:5673` 和 `rabbitmq3 120.24.7.58:5674`。
- 设置了健康检查的参数:每5000毫秒检查一次,如果连续2次检查成功就认为节点上线,如果连续2次检查失败则认为节点宕机。
两台机器分别启动haproxy
docker run -d -i --name haproxy-rabbitmq -p 8081:8081 -p 8091:8091 -p 8082:8082 -v /usr/local/haproxy/haproxy.cfg:/usr/local/etc/haproxy/haproxy.cfg --privileged=true -u root haproxy:latest
访问路径
(1)102和103节点分别下载Keepalived
#yum安装
yum -y install keepalived
(2)编辑配置文件
! Configuration File for keepalived
global_defs {
router_id LVS_DEVEL # 设置lvs的id,在一个网络内应该是唯一的
enable_script_security #允许执行外部脚本
}
#配置vrrp_script,主要用于健康检查及检查失败后执行的动作。
vrrp_script chk_real_server {
weight -5
fall 3
rise 2
user root
}
vrrp_instance VI_1 {
#配置节点是master还是backup,102配置MASTER,103配置BACKUP
state MASTER
interface ens33
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
#配置虚拟IP
virtual_ipaddress {
192.168.140.100
}
}
virtual_server 192.168.140.100 8082 {
# 设置健康检查时间,单位是秒
delay_loop 6
# 设置负载调度的算法为rr
lb_algo rr
# 设置LVS实现负载的机制,有NAT、TUN、DR三个模式
lb_kind NAT
# 会话保持时间
persistence_timeout 50
#指定转发协议类型(TCP、UDP)
protocol TCP
# 指定real server1的IP地址
real_server 192.168.140.102 8082 {
weight 1
}
real_server 192.168.140.103 8082 {
weight 1
}
}
(3)启动keepalived,访问MQ集群
systemctl start keepalived.service
Ok,发现已经成功的通过keepalived访问mq节点。
当我们把102主节点的keepalived停掉时,虚拟IP会漂移到103的节点上。
OK,至此RabbitMQ高可用集群就已经搭建完成了。