搭建DNS服务
- 为了方便rabbitmq服务之间能互链需要搭建DNS服务
- 创建dns docker容器,注意必须要与rabbitmq服务同一个网段内,否则不能互通,这里使用docker默认的网段;该镜像提供webui,可以在线修改dns配置,这里端口号为5380,
$ docker create \
--name dnsmasq \
-p 53:53/udp \
-p 5380:8080 \
-v /usr/local/docker_app/dnsmasq/dnsmasq.conf:/etc/dnsmasq.conf \
--log-opt "max-size=100m" \
-e "HTTP_USER=admin" \
-e "HTTP_PASS=admin" \
--restart always \
jpillora/dnsmasq
- dnsmasq.conf配置
#dnsmasq config, for a complete example, see:
# http://oss.segetech.com/intra/srv/dnsmasq.conf
#log all dns queries
# log-queries
#dont use hosts nameservers
no-resolv
#use google as default nameservers
server=8.8.4.4
server=8.8.8.8
#serve all .company queries using a specific nameserver
#server=/company/10.0.0.1
#explicitly define host-ip mappings
#address=/myhost.company/10.0.0.2
- 启动dns服务
$ docker start dnsmasq
创建.erlang.cookie
文件
- 该文件内容为cookie值,所有节点的该文件内容一致,内容为
UoNOcDhfxW9uoZ92wh6BjA==
- 该文件置于
/var/lib/rabbitmq
目录下,即映射到本地的/usr/local/docker_app/rabbitmq/rabbitmq-a/data
目录下 - 要注意这个文件的权限值为
400
,否则无法启动
准备rabbitmq docker镜像
- 直接采用rabbitmq官方镜像,这里采用3.6.14-management版本
- 创建三个docker容器,分别为node1、node2、node3
- 三个节点的cookie值一致,这是erlang的分布式特性,rabbitmq在erlang的基础上实现集群,内容为任意字符串
-
5672
为客户端连接端口,15672
为管理端连接端口
其中node1、node2、node3作为hostname,并设置为rabbitmq的nodename为rabbit,dns为dns服务的容器ip
docker create --name rabbitmq-a \
-p 4369:4369 \
-p 5671:5671 \
-p 5672:5672 \
-p 25672:25672 \
-p 15672:15672 \
-h node1 \
--dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
-e RABBITMQ_NODENAME=rabbit \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=admin \
-v /usr/local/docker_app/rabbitmq/rabbitmq-a/data:/var/lib/rabbitmq \
rabbitmq:3.6.14-management
docker create --name rabbitmq-b \
-p 4469:4369 \
-p 5771:5671 \
-p 5772:5672 \
-p 26672:25672 \
-p 16672:15672 \
-h node2 \
--dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
-e RABBITMQ_NODENAME=rabbit \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=admin \
-v /usr/local/docker_app/rabbitmq/rabbitmq-b/data:/var/lib/rabbitmq \
rabbitmq:3.6.14-management
docker create --name rabbitmq-c \
-p 4569:4369 \
-p 5871:5671 \
-p 5872:5672 \
-p 27672:25672 \
-p 17672:15672 \
-h node3 \
--dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
-e RABBITMQ_NODENAME=rabbit \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=admin \
-v /usr/local/docker_app/rabbitmq/rabbitmq-c/data:/var/lib/rabbitmq \
rabbitmq:3.6.14-management
查看节点集群信息
- 启动所有节点
// 进入docker容器
$ docker exec -it rabbitmq-a /bin/sh
// 退出
# exit
// 因为集群还未搭建好,所以只能看到本节点信息
# rabbitmqctl cluster_status
Cluster status of node rabbit@node1
[{nodes,[{disc,[rabbit@node1]}]},
{running_nodes,[rabbit@node1]},
{cluster_name,<<"rabbit@node1">>},
{partitions,[]},
{alarms,[{rabbit@node1,[]}]}]
# rabbitmqctl cluster_status
Cluster status of node rabbit@node2
[{nodes,[{disc,[rabbit@node2]}]},
{running_nodes,[rabbit@node2]},
{cluster_name,<<"rabbit@node2">>},
{partitions,[]},
{alarms,[{rabbit@node2,[]}]}]
# rabbitmqctl cluster_status
Cluster status of node rabbit@node3
[{nodes,[{disc,[rabbit@node3]}]},
{running_nodes,[rabbit@node3]},
{cluster_name,<<"rabbit@node3">>},
{partitions,[]},
{alarms,[{rabbit@node3,[]}]}]
进入rabbitmq容器搭建磁盘节点,启用集群服务
node2
# rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node2
# rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node2 with rabbit@node1
# rabbitmqctl start_app
Starting node rabbit@node2
node3
# rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node3
# rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node3 with rabbit@node1
# rabbitmqctl start_app
Starting node rabbit@node3
查看集群状态
# rabbitmqctl cluster_status
Cluster status of node rabbit@node2
[{nodes,[{disc,[rabbit@node1,rabbit@node2,rabbit@node3]}]},
{running_nodes,[rabbit@node1,rabbit@node3,rabbit@node2]},
{cluster_name,<<"rabbit@node1">>},
{partitions,[]},
{alarms,[{rabbit@node1,[]},{rabbit@node3,[]},{rabbit@node2,[]}]}]
使用rabbitmq的镜像队列实现高可用
- 将需要消费的队列变为镜像队列,存在于多个节点,这样就可以实现RabbitMQ的HA高可用性。作用就是消息实体会主动在镜像节点之间实现同步,而不是像普通模式那样,在consumer消费数据时临时读取。缺点就是,集群内部的同步通讯会占用大量的网络带宽
这行命令在vhost名称为/uhost创建了一个策略,策略名称为ha-all,策略模式为 all 即复制到所有节点,包含新增节点,策略正则表达式为 "^ha." 表示匹配所有以
ha.
开头队列名称或交换机名称(可针对队列,在webui中修改),需要镜像功能的节点需要执行该命令。"^"表示匹配全部,生产最好不要这样设置。
rabbitmqctl set_policy -p /uhost ha-all "^ha\." '{"ha-mode":"all"}'
修改节点为内存节点
- 节点类型有两种,分别为磁盘节点(disc)和内存节点(ram),默认为磁盘节点
# rabbitmqctl stop_app
# rabbitmqctl change_cluster_node_type ram
# rabbitmqctl start_app
到此集群搭建完毕,效果图如下
搭建haproxy做负载均衡
- haproxy支持两种代理模式:TCP(四层)和HTTP(七层),支持虚拟主机
- 这里还是使用docker镜像来搭建,采用版本为1.7.9
创建容器
80
端口为haproxy管理端口,5677
为rabbitmq的负载端口,同样依赖dns服务
docker create --name haproxy \
-p 80:80 \
-p 5677:5677 \
--dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
-v /usr/local/docker_app/haproxy/etc:/usr/local/etc/haproxy:ro \
haproxy:1.7.9
创建haproxy配置文件
- 配置文件
/usr/local/docker_app/haproxy/etc/haproxy.cfg
# Simple configuration for an HTTP proxy listening on port 80 on all
# interfaces and forwarding requests to a single backend "servers" with a
# single server "server1" listening on 127.0.0.1:8000
# 全局配置
global
daemon
maxconn 256
# 默认配置
defaults
mode http # 默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK
timeout connect 5000ms
timeout client 5000ms
timeout server 5000ms
listen rabbitmq_cluster
bind 0.0.0.0:5677 # 客户端连接端口
option tcplog
mode tcp
balance leastconn # 最少连接优先
server rabbit1 node1:5672 check inter 2s rise 2 fall 3 #check inter 2s 是检测心跳频率,rise 2是2次正确认为服务器可用,fall 3是3次失败认为服务器不可用,node1是dns服务配置的
server rabbit2 node2:5672 check inter 2s rise 2 fall 3
server rabbit3 node3:5672 check inter 2s rise 2 fall 3
listen http-in
bind *:80
stats uri /haproxy
server server1 127.0.0.1:8000 maxconn 32
启动haproxy容器
-
管理端效果图
- 修改配置重新加载配置命令
// haproxy为容器名称
docker kill -s HUP haproxy