在两台服务器上都安装mysql
1、拉取镜像
docker pull mysql:8.0.27
2、创建挂载目录
mkdir -p /data/mysql/
3、运行容器
docker run \
--restart=always \
--name master_mysql -p 3306:3306 \
-e MYSQL_ROOT_PASSWORD=123456 -d \
-v /data/mysql/:/var/lib/mysql mysql:8.0.27 \
--lower_case_table_names=1 \
--default_authentication_plugin=mysql_native_password
docker run \
--restart=always \
--name slave_mysql -p 3306:3306 \
-e MYSQL_ROOT_PASSWORD=123456 -d \
-v /data/mysql/:/var/lib/mysql mysql:8.0.27 \
--lower_case_table_names=1 \
--default_authentication_plugin=mysql_native_password
MYSQL_ROOT_PASSWORD :设置的mysql root用户的密码
lower_case_table_names: 是否大小写敏感,1表示不区分大小写
两个数据库如果有数据,先把两个数据库的数据导成一样的
replication
GTID
双向同步
#将mysql容器中的my.cnf配置文件拷贝到宿主机来修改
docker cp master_mysql:/etc/mysql/my.cnf ./
在my.cnf 中添加
[mysqld]
log-bin=mysql-bin # 开启二进制日志
server-id=1 # 设置server-id。master和每一个slave的server-id都不能一样,用于唯一标识节点
sync_binlog=1
#主从同步跳过错误
slave-skip-errors=1062,1053,1146,1007,1008,1050,1051
#从库的中继日志,主库日志写到中继日志,中继日志再重做到从库
# relay-log=myslql-relay-bin
# binlog保留时间7天
expire_logs_days=7
# binlog 文件的大小
max_binlog_size=1G
# 设置不要赋值的数据
binlog-ignore-db=mysql
binlog-ignore-db=information_schema
binlog-ignore-db=performance_schema
binlog-ignore-db=sys
#将修改后的文件复制到容器内
docker cp my.cnf master_mysql:/etc/mysql/
注意:需要重启master_mysql容器
mysql 客户端进入控制台,执行下面命令创建用户
先进入docker 容器
docker exec -it master_mysql /bin/bash
在进入mysql 控制台:
mysql -u root -p
进入mysql控制台后,执行下面的语句:
# 创建用户,用于从机复制数据
CREATE USER 'repl'@'%' IDENTIFIED BY '123456';
# 分配权限
#注意:此处 *.* 不允许更改,因为 replication slave 权限是一个全局权限,不可以指定在某一个库上
GRANT REPLICATION SLAVE ON *.* TO 'repl'@'%';
# 刷新权限
flush privileges;
依然在控制台执行
FLUSH TABLE WITH READ LOCK;
同样还在控制台
SHOW MASTER STATUS;
记录二进制文件名和位置,例如:mysql-bin.000001、767
同样在控制台执行
unlock tables;
slave指定从master的哪个位置开始进行同步
进入slave_mysql的容器,再进入mysql的控制台,执行下面语句:
CHANGE MASTER TO
MASTER_HOST='192.168.5.136', # master ip
MASTER_PORT=3306, # master port
MASTER_USER='repl', # 上文 master 上创建的同步用户名
MASTER_PASSWORD='123456', # 同步用户密码
MASTER_LOG_FILE='mysql-bin.000001', # 使用上面的 mysql-bin.000001
MASTER_LOG_POS=767; # 使用上面的 767
#将mysql容器中的my.cnf配置文件拷贝到宿主机来修改
docker cp slave_mysql:/etc/mysql/my.cnf ./
在my.cnf 中添加:
[mysqld]
server-id=2 # 设置server-id。master和每一个slave的server-id都不能一样,用于唯一标识节点
sync_binlog=1
将my.cnf 复制到容器
docker cp my.cnf slave_mysql:/etc/mysql/
注意:重启容器
在slave_mysql 容器的mysql 控制台执行
start slave;
同样在slave的mysql控制台
# 查看slave状态
show slave status\G;
查看结果类似如下:
主要关注红框的两个值,都为Yes表示成功,主从同步配置完成
将上面的操作反过来重复操作一遍
分别在master 和slave 上创建数据库,创建表,插入数据,删除数据,看两个库是否会同步,注意必须执行sql,只有执行的是sql 语句才会同步。
两台服务器都安装keepalived
yum -y install keepalived
cat > /etc/keepalived/keepalived.conf << EOF
! Configuration File for keepalived
global_defs {
router_id LVS_DEVEL #同一个小组要不一样
}
vrrp_script chk_mysql {
script "/etc/keepalived/check_mysql.sh" #检查脚本
interval 5
weight -5
fall 2
rise 1
}
vrrp_instance VI_1 {
state MASTER
interface ens192 #网卡名称
unicast_src_ip 192.168.5.136
unicast_peer {
192.168.5.137
}
virtual_router_id 51 #这个同一个分组要一样
priority 100
advert_int 2
authentication {
auth_type PASS
auth_pass mysql
}
virtual_ipaddress {
192.168.5.189 #vip地址
}
track_script {
chk_mysql
} }
EOF
cat > /etc/keepalived/keepalived.conf << EOF
! Configuration File for keepalived
global_defs {
router_id LVS_DEVEL2
}
vrrp_script chk_mysql {
script "/etc/keepalived/check_mysql.sh"
interval 5
weight -5
fall 2
rise 1
}
vrrp_instance VI_1 {
state BACKUP
interface ens192
unicast_src_ip 192.168.5.137
unicast_peer {
192.168.5.136
}
virtual_router_id 51
priority 80
nopreempt
advert_int 2
authentication {
auth_type PASS
auth_pass mysql
}
virtual_ipaddress {
192.168.5.189
}
track_script {
chk_mysql
} }
EOF
cat > /etc/keepalived/check_mysql.sh << EOF
#!/bin/bash
err=0
for k in $(seq 1 3)
do
check_code=$(pgrep mysql)
if [[ $check_code == "" ]]; then
err=$(expr $err + 1)
sleep 1
continue
else
err=0
break
fi
done
if [[ $err != "0" ]]; then
echo "systemctl stop keepalived"
/usr/bin/systemctl stop keepalived
exit 1
else
exit 0
fi
EOF
chmod +x /etc/keepalived/check_mysql.sh
systemctl daemon-reload
systemctl enable --now keepalived
systemctl status keepalived
如果当master 节点挂掉了后 ,排除故障之后,master节点的mysql 容器会被启动,启动后从节点的数据就会同步到master ,这个时候不能立即启动keepalived ,因为我们配置的是抢占式, 只要主节点的keepalived 恢复了就会抢回VIP, 这个时候可能数据还没有同步完,会造成数据库数据不同步,所以这里隔两分钟在去启动keepalived .
两个服务器都需要
mkdir -p /data/crontabsh
启动keepalived脚本
cat > /data/crontabsh/check_keepalived.sh << EOF
#!/bin/bash
check_mysql=$(pgrep mysql)
check_keepalived=$(pgrep keepalived)
if [[ $check_mysql != "" ]] && [[ $check_keepalived == "" ]]; then
echo "keepalived未启动,即将执行启动命令"
systemctl start keepalived
else
exit -1
fi
EOF
给脚本权限
chmod +x /data/crontabsh/check_keepalived.sh
加定时任务
[root@localhost crontabsh]# crontab -e
*/2 * * * * /bin/bash /data/crontabsh/check_keepalived.sh
[root@localhost crontabsh]# crontab -l
*/2 * * * * /bin/bash /data/crontabsh/check_keepalived.sh
通过 ip addr 查看VIP是否在该节点上
开始VIP应是在 master 上的, 停止master 上的mysql 容器 ,看VIP是否能漂移到slave 节点
当VIP在slave 节点, 启动master 上的mysql ,隔两分钟再看VIP 是否能回到master 上来。