数据库应用:MySQL MHA高可用集群

目录

一、理论

1.MHA

2.MySQL MHA部署准备

3.MySQL MHA部署

二、实验

1.MHA部署

三、问题

1.中英文符兼容报错

2.MHA测试 ssh 无密码认证语法报错

3.MHA测试 ssh 无密码认证log-bin报错

4.MHA测试 mysql 主从连接情况报错slave replication

5.MHA测试 mysql 主从连接情况报错 “FIXME_xxx“

四、总结


一、理论

1.MHA

(1)概念

MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。

MHA 的出现就是解决MySQL 单点故障的问题。

MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。

MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

(2)组成

①MHA Node(数据节点)

MHA Node 运行在每台 MySQL 服务器上。
②MHA Manager(管理节点)

1)MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
2)MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。
(3)特点

① 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失。
② 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。
③目前MHA支持一主多从架构,最少三台服务器,即一主两从。

数据库应用:MySQL MHA高可用集群_第1张图片

2.MySQL MHA部署准备

(1)原理

表1 MHA部署思路

步骤

操作

MHA架构

①数据库安装 ②一主两从 ③MHA搭建

故障模拟

①主库失效 ②备选主库成为主库 ③原故障主库恢复重新加入到MHA成为从库

(2)环境

节点服务器 系统 主机名 IP地址 安装工具及服务
A manager服务器 CentOS7(64位) manager 192.168.204.251 MHA node 和 manager 组件
Master 服务器 CentOS7.4(64 位) mysql1 192.168.204.10 MHA node 组件
Slave1 服务器 CentOS7.4(64 位) mysql2 192.168.204.11 MHA node 组件
Slave2 服务器 CentOS7.4(64 位) mysql3 192.168.204.12 MHA node 组件

3.MySQL MHA部署

(1)配置主从复制

① 四台服务器都关闭防火墙

 systemctl disable --now firewalld
 setenforce 0

②修改Manager、 Master、Slave1、Slave2 节点的主机名


 ##Manager 节点##
 hostnamectl set-hostname manager
 su


 ##Master 节点##
 hostnamectl set-hostname mysql1
 su
 ​
 ##Slave1节点##
 hostnamectl set-hostname mysql2
 su
 ​
 ##Slave2节点##
 hostnamectl set-hostname mysql3
 su

③在Master、Slave1、Slave2添加主机映射关系

 #三台添加同样的配置
 vim /etc/hosts
 192.168.204.10 mysql1
 192.168.204.11 mysql2
 192.168.204.12 mysql3
 192.168.204.251 manager

修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf

Master节点,开启二进制日志。

Slave1、Slave2 节点,开启二进制日志和中继日志。

 ##Master 节点##
 vim /etc/my.cnf
 [mysqld]
 server-id = 1
 log_bin = master-bin         #开启二进制日志,指定存放位置
 log-slave-updates = true     #允许slave从master复制数据时可以写入到自己的二进制日志中
 ​
 systemctl restart mysqld     #重启mysql
 ​
 ##Slave1节点##
 vim /etc/my.cnf
 [mysqld]
 server-id = 2               #三台服务器的 server-id 不能相同
 log_bin = master-bin
 relay-log = relay-log-bin
 relay-log-index = slave-relay-bin.index
 ​
 systemctl restart mysqld
 ​
 ##Slave2节点##
 vim /etc/my.cnf
 [mysqld]
 server-id = 3               #三台服务器的 server-id 不能相同
 log_bin = master-bin
 relay-log = relay-log-bin
 relay-log-index = slave-relay-bin.index
 ​
 systemctl restart mysqld     #重启mysql

⑤ 在 Master、Slave1、Slave2 节点上都创建两个软链接

#yum安装
ln -s /usr/bin/mysql /usr/sbin/
ln -s /usr/bin/mysqlbinlog /usr/sbin/


#编译安装
# ln -s /usr/local/mysql/bin/mysql /usr/sbin/
# ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
 ​
 ls /usr/sbin/mysql*     #查看软链接

⑥登录数据库进行授权

对slave和manager进行授权。

 ##----(1)所有数据库节点进行mysql主从同步的授权------##
 grant replication slave on *.* to 'myslave'@'192.168.192.%' identified by '123456';   #从服务器同步使用
 
 
 ##---(2)所有数据库节点,授权给manager服务器-----##
 
 grant all privileges on *.* to 'mha'@'192.168.204.%' identified by 'manager';  
 #为了防止因主机名导致的连接不上问题,再次对登录地址进行授权
 ​
 grant all privileges on *.* to 'mha'@'mysql1' identified by 'manager';              
 grant all privileges on *.* to 'mha'@'mysql2' identified by 'manager';
 grant all privileges on *.* to 'mha'@'mysql3' identified by 'manager';
 ​
 flush privileges;   #刷新权限

⑦ 配置主从同步

 ##(1)在 Master 节点查看二进制文件和同步点(即偏移量)##
 show master status;
 +-------------------+----------+--------------+------------------+--
 | File              | Position | Binlog_Do_DB | Executed_Gtid_Set | 
 +-------------------+----------+--------------+------------------+--
 |   mysql-bin.000001|      1747 |              |                  |   
 +-------------------+----------+--------------+------------------+--
 ​
 ​
 ##(2)在 Slave1、Slave2 节点执行同步操作##
 change master to master_host='192.168.204.10',master_user='myslave',master_password='123456',master_log_file='mysql-bin.000001',master_log_pos=1747; 
 ​
 start slave;     #开启同步,如有报错执行 reset slave;
 ​
 ##(3)在 Slave1、Slave2 查看节点状态##
 show slave status\G     
 //确保 IO 和 SQL 线程都是 Yes,代表同步正常。
 Slave_IO_Running: Yes
 Slave_SQL_Running: Yes
 ​
 #一般 "Slave_IO_Running: No" 的可能原因:
  1. 网络不通 
  2. my.cnf配置有问题(server-id重复)
  3. 密码、file文件名、pos偏移量不对 
  4. 防火墙没有关闭 
 ​
 ##(4)两个从库必须设置为只读模式##
 set global read_only=1;
 ​
 ##(5)在Master主库插入数据,测试数据库同步##
 create database test1; 
 use test1;
 create table shop(id int);
 insert into shop values (1);
 ​
 #从数据库中验证是否同步成功
 select * from test1.shop;

(2)配置MHA

① 所有服务器安装MHA软件

1)对于每个操作系统版本不一样,这里 CentOS7.4 必须选择 0.57 版本。

2)在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager组件 依赖 node 组件。

 ##(1)所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源##
 yum install epel-release --nogpgcheck -y
 ​
 #安装 MHA依赖环境
 yum install -y perl-DBD-MySQL \
 perl-Config-Tiny \
 perl-Log-Dispatch \
 perl-Parallel-ForkManager \
 perl-ExtUtils-CBuilder \
 perl-ExtUtils-MakeMaker \
 perl-CPAN
 ​
 ##(2)安装 MHA 软件包,必须先在所有服务器上安装 node 组件##
 #将安装包上传到/opt/目录中,解压安装node组件##
 cd /opt/
 tar zxvf mha4mysql-node-0.57.tar.gz
 cd mha4mysql-node-0.57
 perl Makefile.PL
 make && make install
 ​
 ##(3)最后在 MHA manager 节点上安装 manager 组件##(manager组件依赖node 组件)
 cd /opt/
 tar zxvf mha4mysql-manager-0.57.tar.gz
 cd mha4mysql-manager-0.57
 perl Makefile.PL
 make && make install
 ​
 ​
 ​
 ------------------虚线以内是注释--------------------------------------------------
 ​
 #manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
 masterha_check_ssh         #检查 MHA 的 SSH 配置状况
 masterha_check_repl        #检查 MySQL 复制状况
 masterha_manger            #启动 manager的脚本
 masterha_check_status      #检测当前 MHA 运行状态
 masterha_master_monitor    #检测 master 是否宕机
 masterha_master_switch     #控制故障转移(自动或者手动)
 masterha_conf_host         #添加或删除配置的 server 信息
 masterha_stop              #关闭manager
 ​
 #node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
 save_binary_logs       #保存和复制 master 的二进制日志
 apply_diff_relay_logs  #识别差异的中继日志事件并将其差异的事件应用于其他的 slave
 filter_mysqlbinlog     #去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
 purge_relay_logs       #清除中继日志(不会阻塞 SQL 线程)
 ----------------------------------------------------------------------------------------------------------

manager 组件安装后在/usr/local/bin/ 下面会生成几个工具,主要包括以下几个:

数据库应用:MySQL MHA高可用集群_第2张图片

 node 组件安装后也会在/usr/local/bin/ 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:

数据库应用:MySQL MHA高可用集群_第3张图片

在所有服务器上配置无密码认证

 ##(1)在 manager 节点上配置到所有数据库节点的无密码认证
 ssh-keygen -t rsa               #一路按回车键,生成密钥。"-t rsa"指定密钥的类型。
 ssh-copy-id 192.168.204.10   #将公钥传给所有数据库节点,形成免密码连接登录
 ssh-copy-id 192.168.204.11
 ssh-copy-id 192.168.204.12
 ​
 ##(2)在 mysql1 上配置到数据库节点 mysql2 和 mysql3 的无密码认证
 ssh-keygen -t rsa
 ssh-copy-id 192.168.204.11    #将公钥传给两个从节点,形成免密码连接登录
 ssh-copy-id 192.168.204.12
 ​
 ##(3)在 mysql2 上配置到数据库节点 mysql1 和 mysql3 的无密码认证
 ssh-keygen -t rsa
 ssh-copy-id 192.168.204.10
 ssh-copy-id 192.168.204.12
 ​
 ##(4)在 mysql3 上配置到数据库节点 mysql1 和 mysql2 的无密码认证
 ssh-keygen -t rsa
 ssh-copy-id 192.168.204.10
 ssh-copy-id 192.168.204.11

在 manager 节点上配置 MHA

 ##(1)在 manager 节点上复制相关脚本到/usr/local/bin 目录
 cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
 #拷贝后会有四个执行文件
 ll /usr/local/bin/scripts/
 ​
 ------------ 虚线内是注释 -------------------------------------------------------
 master_ip_failover          #自动切换时 VIP 的管理脚本
 master_ip_online_change     #在线切换时 VIP 的管理脚本
 power_manager               #故障发生后关闭主机的脚本
 send_report                 #因故障切换后发送报警的脚本
 --------------------------------------------------------------------------------
 ​
 ​
 ##(2)复制上述的自动切换时 VIP 的管理脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
 cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
 ​
 ​
 ##(3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数。可在拷贝前输入 :set paste 解决vim粘贴乱序问题)
 vim /usr/local/bin/master_ip_failover
 #!/usr/bin/env perl
 use strict;
 use warnings FATAL => 'all';
 ​
 use Getopt::Long;
 ​
 my (
 $command, $ssh_user, $orig_master_host, $orig_master_ip,
 $orig_master_port, $new_master_host, $new_master_ip, $new_master_port
 );
 ​
 #############################添加内容部分#########################################
 my $vip = '192.168.204.24';                             #指定vip的地址
 my $brdc = '192.168.204.255';                            #指定vip的广播地址
 my $ifdev = 'ens33';                                    #指定vip绑定的网卡
 my $key = '1';                                          #指定vip绑定的虚拟网卡序列号
 my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";   #代表此变量值为ifconfig ens33:1 192.168.192.20
 my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";    #代表此变量值为ifconfig ens33:1 192.168.192.20 down
 my $exit_code = 0;                                      #指定退出状态码为0
 #my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
 #my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
 ##################################################################################
 ​
 GetOptions(
 'command=s' => $command,
 'ssh_user=s' => $ssh_user,
 'orig_master_host=s' => $orig_master_host,
 'orig_master_ip=s' => $orig_master_ip,
 'orig_master_port=i' => $orig_master_port,
 'new_master_host=s' => $new_master_host,
 'new_master_ip=s' => $new_master_ip,
 'new_master_port=i' => $new_master_port,
 );
 ​
 exit &main();
 ​
 sub main {
 ​
 print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
 ​
 if ( $command eq "stop" || $command eq "stopssh" ) {
 ​
 my $exit_code = 1;
 eval {
 print "Disabling the VIP on old master: $orig_master_host \n";
 &stop_vip();
 $exit_code = 0;
 };
 if ($@) {
 warn "Got Error: $@\n";
 exit $exit_code;
 }
 exit $exit_code;
 }
 elsif ( $command eq "start" ) {
 ​
 my $exit_code = 10;
 eval {
 print "Enabling the VIP - $vip on the new master - $new_master_host \n";
 &start_vip();
 $exit_code = 0;
 };
 if ($@) {
 warn $@;
 exit $exit_code;
 }
 exit $exit_code;
 }
 elsif ( $command eq "status" ) {
 print "Checking the Status of the script.. OK \n";
 exit 0;
 }
 else {
 &usage();
 exit 1;
 }
 }
 sub start_vip() {
 `ssh $ssh_user@$new_master_host " $ssh_start_vip "`;
 }
 ## A simple system call that disable the VIP on the old_master
 sub stop_vip() {
 `ssh $ssh_user@$orig_master_host " $ssh_stop_vip "`;
 }
 ​
 sub usage {
 print
 "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
 }

④manager节点编辑配置文件,管理 mysql 节点服务器

 mkdir /etc/masterha
 cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha/   #复制配置文件
 ​
 vim /etc/masterha/app1.cnf   #删除原有内容,直接复制并修改节点服务器的IP地址
 [server default]
 manager_log=/var/log/masterha/app1/manager.log
 manager_workdir=/var/log/masterha/app1
 master_binlog_dir=/var/lib/mysql
 master_ip_failover_script=/usr/local/bin/master_ip_failover
 master_ip_online_change_script=/usr/local/bin/master_ip_online_change
 user=mha
 password=manager
 ping_interval=1
 remote_workdir=/tmp
 repl_password=123123
 repl_user=myslave
 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.204.11 -s 192.168.204.12
 shutdown_script=""
 ssh_user=root
 user=mha
 ​
 [server1]
 hostname=192.168.204.10
 port=3306
 ​
 [server2]
 candidate_master=1
 check_repl_delay=0
 hostname=192.168.204.11
 port=3306
 ​
 [server3]
 hostname=192.168.204.12
 port=3306

app1.cnf配置文件注释:

 [server default]
 manager_log=/var/log/masterha/app1/manager.log   #manager日志
 manager_workdir=/var/log/masterha/app1        #manager工作目录
 master_binlog_dir=/var/lib/mysql       #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到 编译安装为 /usr/local/mysql/data
 master_ip_failover_script=/usr/local/bin/master_ip_failover  #设置自动failover时候的切换脚本,也就是上面的那个脚本
 master_ip_online_change_script=/usr/local/bin/master_ip_online_change  #设置手动切换时候的切换脚本
 user=mha                #设置mysql用户,给manager授权时创建的用户
 password=manager        #设置mysql用户的密码,这个密码是前文中创建监控用户的那个密码
 ping_interval=1         #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
 remote_workdir=/tmp     #设置远端mysql在发生切换时binlog的保存位置
 repl_password=123123    #设置复制用户的密码(主从同步授权时创建的用户和密码)
 repl_user=myslave       #设置复制用户的用户
 report_script=/usr/local/send_report    #设置发生切换后发送的报警的脚本
 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.204.11 -s 192.168.204.12           #指定检查的从服务器IP地址
 shutdown_script=""      #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用,可以使用系统自带的power_manager )
 ssh_user=root           #设置ssh的登录用户名
 ​
 [server1]                  #master
 hostname=192.168.204.10
 port=3306
 ​
 [server2]                  #slave1
 hostname=192.168.204.11
 port=3306
 candidate_master=1
 #设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave
 ​
 check_repl_delay=0
 #默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
 ​
 [server3]                #slave2
 hostname=192.168.204.12
 port=3306

⑤第一次配置需要在 Master 节点上手动开启虚拟IP

 /sbin/ifconfig ens33:1 192.168.204.24/24

⑥在 manager 节点上测试 ssh 无密码认证

在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。

[root@manager /]# masterha_check_ssh -conf=/etc/masterha/app1.cnf

Mon Jul 24 14:39:59 2023 - [warning] Global configuration file /etc/masterha_default.cnf no.
Mon Jul 24 14:39:59 2023 - [info] Reading application default configuration from /etc/maste
Mon Jul 24 14:39:59 2023 - [info] Reading server configuration from /etc/masterha/app1.cnf.
Mon Jul 24 14:39:59 2023 - [info] Starting SSH connection tests..
Mon Jul 24 14:40:00 2023 - [debug] 
Mon Jul 24 14:39:59 2023 - [debug]  Connecting via SSH from [email protected](192.168.20492.168.204.11(192.168.204.11:22)..
Mon Jul 24 14:40:00 2023 - [debug]   ok.
Mon Jul 24 14:40:00 2023 - [debug]  Connecting via SSH from [email protected](192.168.20492.168.204.12(192.168.204.12:22)..
Mon Jul 24 14:40:00 2023 - [debug]   ok.
Mon Jul 24 14:40:01 2023 - [debug] 
Mon Jul 24 14:40:00 2023 - [debug]  Connecting via SSH from [email protected](192.168.20492.168.204.10(192.168.204.10:22)..
Mon Jul 24 14:40:00 2023 - [debug]   ok.
Mon Jul 24 14:40:00 2023 - [debug]  Connecting via SSH from [email protected](192.168.20492.168.204.12(192.168.204.12:22)..
Mon Jul 24 14:40:01 2023 - [debug]   ok.
Mon Jul 24 14:40:02 2023 - [debug] 
Mon Jul 24 14:40:00 2023 - [debug]  Connecting via SSH from [email protected](192.168.20492.168.204.10(192.168.204.10:22)..
Mon Jul 24 14:40:01 2023 - [debug]   ok.
Mon Jul 24 14:40:01 2023 - [debug]  Connecting via SSH from [email protected](192.168.20492.168.204.11(192.168.204.11:22)..
Mon Jul 24 14:40:01 2023 - [debug]   ok.
Mon Jul 24 14:40:02 2023 - [info] All SSH connection tests passed successfully.

  ⑦在 manager 节点上测试 mysql 主从连接情况

在 manager 节点上测试 mysql 主从连接情况,最后出现MySQL Replication Health is OK 字样说明正常。如下所示。

[root@manager /]#  masterha_check_repl -conf=/etc/masterha/app1.cnf
Mon Jul 24 15:00:51 2023 - [warning] Global configuration file /etc/masterha_default.cnf no.
Mon Jul 24 15:00:51 2023 - [info] Reading application default configuration from /etc/maste
Mon Jul 24 15:00:51 2023 - [info] Reading server configuration from /etc/masterha/app1.cnf.
Mon Jul 24 15:00:51 2023 - [info] MHA::MasterMonitor version 0.57.
Mon Jul 24 15:00:52 2023 - [info] GTID failover mode = 0
Mon Jul 24 15:00:52 2023 - [info] Dead Servers:
Mon Jul 24 15:00:52 2023 - [info] Alive Servers:
Mon Jul 24 15:00:52 2023 - [info]   192.168.204.10(192.168.204.10:3306)
Mon Jul 24 15:00:52 2023 - [info]   192.168.204.11(192.168.204.11:3306)
Mon Jul 24 15:00:52 2023 - [info]   192.168.204.12(192.168.204.12:3306)
Mon Jul 24 15:00:52 2023 - [info] Alive Slaves:
Mon Jul 24 15:00:52 2023 - [info]   192.168.204.11(192.168.204.11:3306)  Version=5.7.42-logrsion between slaves) log-bin:enabled
Mon Jul 24 15:00:52 2023 - [info]     Replicating from 192.168.204.10(192.168.204.10:3306)
Mon Jul 24 15:00:52 2023 - [info]     Primary candidate for the new Master (candidate_maste
Mon Jul 24 15:00:52 2023 - [info]   192.168.204.12(192.168.204.12:3306)  Version=5.7.42-logrsion between slaves) log-bin:enabled
Mon Jul 24 15:00:52 2023 - [info]     Replicating from 192.168.204.10(192.168.204.10:3306)
Mon Jul 24 15:00:52 2023 - [info] Current Alive Master: 192.168.204.10(192.168.204.10:3306)
Mon Jul 24 15:00:52 2023 - [info] Checking slave configurations..
Mon Jul 24 15:00:52 2023 - [info]  read_only=1 is not set on slave 192.168.204.11(192.168.2
Mon Jul 24 15:00:52 2023 - [warning]  relay_log_purge=0 is not set on slave 192.168.204.11(06).
Mon Jul 24 15:00:52 2023 - [info]  read_only=1 is not set on slave 192.168.204.12(192.168.2
Mon Jul 24 15:00:52 2023 - [warning]  relay_log_purge=0 is not set on slave 192.168.204.12(06).
Mon Jul 24 15:00:52 2023 - [info] Checking replication filtering settings..
Mon Jul 24 15:00:52 2023 - [info]  binlog_do_db= , binlog_ignore_db= 
Mon Jul 24 15:00:52 2023 - [info]  Replication filtering check ok.
Mon Jul 24 15:00:52 2023 - [info] GTID (with auto-pos) is not supported
Mon Jul 24 15:00:52 2023 - [info] Starting SSH connection tests..
Mon Jul 24 15:00:55 2023 - [info] All SSH connection tests passed successfully.
Mon Jul 24 15:00:55 2023 - [info] Checking MHA Node version..
Mon Jul 24 15:00:55 2023 - [info]  Version check ok.
Mon Jul 24 15:00:55 2023 - [info] Checking SSH publickey authentication settings on the cur
Mon Jul 24 15:00:55 2023 - [info] HealthCheck: SSH to 192.168.204.10 is reachable.
Mon Jul 24 15:00:56 2023 - [info] Master MHA Node version is 0.57.
Mon Jul 24 15:00:56 2023 - [info] Checking recovery script configurations on 192.168.204.10306)..
Mon Jul 24 15:00:56 2023 - [info]   Executing command: save_binary_logs --command=test --stg_dir=/var/lib/mysql --output_file=/tmp/save_binary_logs_test --manager_version=0.57 --star000013 
Mon Jul 24 15:00:56 2023 - [info]   Connecting to [email protected](192.168.204.10:22).. 
  Creating /tmp if not exists..    ok.
  Checking output directory is accessible or not..
   ok.
  Binlog found at /var/lib/mysql, up to mysql-bin.000013
Mon Jul 24 15:00:56 2023 - [info] Binlog setting check done.
Mon Jul 24 15:00:56 2023 - [info] Checking SSH publickey authentication and checking recoverations on all alive slave servers..
Mon Jul 24 15:00:56 2023 - [info]   Executing command : apply_diff_relay_logs --command=tesha' --slave_host=192.168.204.11 --slave_ip=192.168.204.11 --slave_port=3306 --workdir=/tmp 5.7.42-log --manager_version=0.57 --relay_log_info=/var/lib/mysql/relay-log.info  --relay_d/  --slave_pass=xxx
Mon Jul 24 15:00:56 2023 - [info]   Connecting to [email protected](192.168.204.11:22).. 
  Checking slave recovery environment settings..
    Opening /var/lib/mysql/relay-log.info ... ok.
    Relay log found at /var/lib/mysql, up to relay-log-bin.000069
    Temporary relay log file is /var/lib/mysql/relay-log-bin.000069
    Testing mysql connection and privileges..mysql: [Warning] Using a password on the comma can be insecure.
 done.
    Testing mysqlbinlog output.. done.
    Cleaning up test file(s).. done.
Mon Jul 24 15:00:56 2023 - [info]   Executing command : apply_diff_relay_logs --command=tesha' --slave_host=192.168.204.12 --slave_ip=192.168.204.12 --slave_port=3306 --workdir=/tmp 5.7.42-log --manager_version=0.57 --relay_log_info=/var/lib/mysql/relay-log.info  --relay_d/  --slave_pass=xxx
Mon Jul 24 15:00:56 2023 - [info]   Connecting to [email protected](192.168.204.12:22).. 
  Checking slave recovery environment settings..
    Opening /var/lib/mysql/relay-log.info ... ok.
    Relay log found at /var/lib/mysql, up to relay-log-bin.000046
    Temporary relay log file is /var/lib/mysql/relay-log-bin.000046
    Testing mysql connection and privileges..mysql: [Warning] Using a password on the comma can be insecure.
 done.
    Testing mysqlbinlog output.. done.
    Cleaning up test file(s).. done.
Mon Jul 24 15:00:57 2023 - [info] Slaves settings check done.
Mon Jul 24 15:00:57 2023 - [info] 
192.168.204.10(192.168.204.10:3306) (current master)
 +--192.168.204.11(192.168.204.11:3306)
 +--192.168.204.12(192.168.204.12:3306)

Mon Jul 24 15:00:57 2023 - [info] Checking replication health on 192.168.204.11..
Mon Jul 24 15:00:57 2023 - [info]  ok.
Mon Jul 24 15:00:57 2023 - [info] Checking replication health on 192.168.204.12..
Mon Jul 24 15:00:57 2023 - [info]  ok.
Mon Jul 24 15:00:57 2023 - [info] Checking master_ip_failover_script status:
Mon Jul 24 15:00:57 2023 - [info]   /usr/local/bin/master_ip_failover --command=status --ssg_master_host=192.168.204.10 --orig_master_ip=192.168.204.10 --orig_master_port=3306 
Mon Jul 24 15:00:57 2023 - [info]  OK.
Mon Jul 24 15:00:57 2023 - [warning] shutdown_script is not defined.
Mon Jul 24 15:00:57 2023 - [info] Got exit code 0 (Not master dead).

MySQL Replication Health is OK.        #出现该字样说明主从连接正常

⑧在 manager 节点上启动 MHA

 nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
 ​
 ​
 ------------------------------以下都是注释-----------------------------------------------------------
 ​
 --remove_dead_master_conf   #该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
 --manger_log                #日志存放位置。
 --ignore_last_failover      #在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应(来回切换导致脑裂)。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在 app1.failover.complete 日志文件中记录,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换, 除非在第一次切换后删除该文件,为了方便,这里设置为--ignore_last_failover。
 ​
 -------------------------------------------------------------------------------------
 ​
 ●使用&后台运行程序:结果会输出到终端;使用Ctrl+C发送SIGINT信号,程序免疫;关闭session发送SIGHUP信号,程序关闭。
 ●使用nohup运行程序:结果默认会输出到nohup.out;使用Ctrl+C发送SIGINT信号,程序关闭;关闭session发送SIGHUP信号,程序免疫。
 ●使用nohup和&配合来启动程序 nohup ./test &:同时免疫SIGINT和SIGHUP信号。
 ​
 -------------------------------------------------------------------------------------

⑨在 manager 节点上查看 MHA 状态 和 MHA 日志,可以看到 master的地址

  #查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点。
 masterha_check_status --conf=/etc/masterha/app1.cnf
 ​
 #查看 MHA 日志,也可以看到当前的 master 是 192.168.192.10
 cat /var/log/masterha/app1/manager.log | grep "current master"

⑩在Mysql1上查看 VIP 地址 192.168.192.20 是否存在

查看 Mysql1 的 VIP 地址 192.168.192.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。

  ifconfig
 ​
 #若要关闭 manager 服务,可以使用如下命令。
 masterha_stop --conf=/etc/masterha/app1.cnf
 #或者可以直接采用 kill 进程 ID 的方式关闭。

(3)故障模拟

在Mysql1上停止mysql服务,MHA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。 mysql2 会自动接管 VIP,成为新的master。

  ##(1)在 Master 节点 Mysql1 上停止mysql服务
 systemctl stop mysqld
 或
 pkill -9 mysql
 ​
 ##(2)在 manager 节点上监控观察日志记录
 tail -f /var/log/masterha/app1/manager.log
 ​
 Master 192.168.192.10(192.168.192.10:3306) is down!  #监控到master宕机
 ​
 Selected 192.168.192.13(192.168.192.13:3306) as a new master.  #选举mysql2成功新的master
 ​
 ​
 ##(3)正常自动切换一次后,MHA 进程会退出。MHA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。
 vim /etc/masterha/app1.cnf   #查看manager节点的配置文件
 ​
 ##(4)查看 mysql2 是否接管 VIP
 ifconfig
 ​
 ​
 ------------------------故障切换备选主库的算法------------------------
 ​
 故障切换备选主库的算法:
 1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
 ​
 2.数据一致的情况下,按照配置文件顺序,选择备选主库。
 ​
 3.设定有权重(candidate_master=1),按照权重强制指定备选主。
 ​
 (1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
 ​
 (2)如果 check_repl_delay=0 的话,即使落后很多日志,也强制选择其为备选主。

(4)故障修复

修复mysql1(即修复原来的主节点)

  systemctl restart mysqld

②修复主从数据

 #在新的主库服务器 Mysql2 中查看二进制日志文件和同步点
 show master status;
 +-------------------+----------+--------------+------------------+      
 | File              | Position | Binlog_Do_DB | Binlog_Ignore_DB |     
 +-------------------+----------+--------------+------------------+       
 | master-bin.000003 |     154 |              |                  |                   
 +-------------------+----------+--------------+------------------+   
 ​
 ​
 #在原主库服务器 mysql1 执行同步操作,同步现在主库中的数据
 change master to master_host='192.168.204.11',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=154;
 ​
 start slave;

③在 manager 节点上修改配置文件app1.cnf

重新把三台mysql节点服务器这个记录添加进去,因为它检测到主节点失效时候会自动删除主节点。

将mysql1添加为新的候选master。

  vi /etc/masterha/app1.cnf
 ......
 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.204.10 -s 192.168.204.12
 ......
 [server1]
 hostname=192.168.204.11
 port=3306
 ​
 [server2]
 candidate_master=1
 check_repl_delay=0
 hostname=192.168.204.10
 port=3306
 ​
 [server3]
 hostname=192.168.204.12
 port=3306

④ 在 manager 节点上启动 MHA

  nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

二、实验

1.MHA部署

(1)配置主从复制

①四台服务器都关闭防火墙

e280e3efc62141349bd36a12f86ae8fb.png

② 修改 Manager、Master、Slave1、Slave2 节点的主机名

87b3b343a7f4446683df65b5475b4adc.png6d231f0cfdf04762843e0333d73c22b0.png167e1e65490e415da5953e3f9987a7e2.png

 ③ 在Master、Slave1、Slave2添加主机映射关系

cde6e98a5f9b4b3db2dc8085037dff01.png

数据库应用:MySQL MHA高可用集群_第4张图片

④修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf

Master

数据库应用:MySQL MHA高可用集群_第5张图片

Slave1

数据库应用:MySQL MHA高可用集群_第6张图片

Slave2

数据库应用:MySQL MHA高可用集群_第7张图片

 ⑤在 Master、Slave1、Slave2 节点上都创建两个软链接

67f18b9296dc458c93c073543befb122.png

92f8459ae86240e49dba98830c73f341.png

a9861f6ac25246648e06d8fb710e7949.png

⑥登录数据库进行授权

对slave和manager进行授权。

grant replication slave on *.* to 'myslave'@'192.168.204.%' identified by '123456';

grant all privileges on *.* to 'mha'@'192.168.204.%' identified by 'manager';

grant all privileges on *.* to 'mha'@'mysql1' identified by 'manager';              
grant all privileges on *.* to 'mha'@'mysql2' identified by 'manager';
grant all privileges on *.* to 'mha'@'mysql3' identified by 'manager';


flush privileges;

数据库应用:MySQL MHA高可用集群_第8张图片

数据库应用:MySQL MHA高可用集群_第9张图片

数据库应用:MySQL MHA高可用集群_第10张图片

⑦配置主从同步

在 Master 节点查看二进制文件和同步点(即偏移量),在 Slave1、Slave2 节点执行同步操作。

change master to master_host='192.168.204.10',master_user='myslave',master_password='123456',master_log_file='mysql-bin.000001',master_log_pos=1747; 

两个从库必须设置为只读模式:

f967ef690b1646ea9718b719404bda55.png

(2)配置MHA

①所有服务器安装MHA软件

1)所有服务器上首先安装 epel 源,之后安装 MHA 依赖的环境:

720b6bcaee5342c9a3214daa6c30c788.png 79d2dacd98634c6bae0d986045737e2a.png c40a7be3f7a54dcaa0e527d052c8ca25.png

数据库应用:MySQL MHA高可用集群_第11张图片

数据库应用:MySQL MHA高可用集群_第12张图片 数据库应用:MySQL MHA高可用集群_第13张图片

数据库应用:MySQL MHA高可用集群_第14张图片

2)先在所有服务器上安装 node 组件

aa5f1df3f1b945b2a82ff5bbc509018f.png fe101a9eb21c4a2d99a46a3a33390c9a.png fc4f6884200a4a26a18e33f92707dd35.png d6556d7d6ee6402a83a2a76ab4271b24.png

数据库应用:MySQL MHA高可用集群_第15张图片 数据库应用:MySQL MHA高可用集群_第16张图片 数据库应用:MySQL MHA高可用集群_第17张图片 数据库应用:MySQL MHA高可用集群_第18张图片

d9298f30b9e04f348ea25d35c91ed23a.png

3cfcf48421604db3978c79d507ed3ba0.png 4a965a75af52494986f277d21ca412e3.png 2ba5aa8027314e8e9e8e5dd47116e37b.png

3)最后在 MHA manager 节点上安装 manager 组件:

6ce8d0b888d94878b0e725dae4a90ae2.png 数据库应用:MySQL MHA高可用集群_第19张图片 cdc017cfeedf4c39847fd6908f4b4cd2.png

②在所有服务器上配置无密码认证

1)在 manager 节点上配置到所有数据库节点的无密码认证

数据库应用:MySQL MHA高可用集群_第20张图片

 2)在 mysql1 上配置到数据库节点 mysql2 和 mysql3 的无密码认证

数据库应用:MySQL MHA高可用集群_第21张图片

 3)在 mysql2 上配置到数据库节点 mysql1 和 mysql3 的无密码认证

数据库应用:MySQL MHA高可用集群_第22张图片

 4)在 mysql3 上配置到数据库节点 mysql1 和 mysql2 的无密码认证

数据库应用:MySQL MHA高可用集群_第23张图片

③在 manager 节点上配置 MHA

1)在 manager 节点上复制相关脚本到/usr/local/bin 目录

数据库应用:MySQL MHA高可用集群_第24张图片

 2)复制上述的自动切换时 VIP 的管理脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换

ad2bff0701b04d73b66abb43d592c046.png

 3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数。可在拷贝前输入 :set paste 解决vim粘贴乱序问题)

数据库应用:MySQL MHA高可用集群_第25张图片

④manager节点编辑配置文件,管理 mysql 节点服务器

创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器。

ebe53258058d4478b1231d2d2fa18aae.png

 数据库应用:MySQL MHA高可用集群_第26张图片

⑤第一次配置需要在 Master 节点上手动开启虚拟IP

caf27a1fa53e4fd0b265ad86209620e0.png

⑥在 manager 节点上测试 ssh 无密码认证

在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。

数据库应用:MySQL MHA高可用集群_第27张图片

⑦在 manager 节点上测试 mysql 主从连接情况

在 manager 节点上测试 mysql 主从连接情况,最后出现MySQL Replication Health is OK 字样说明正常。如下所示。

数据库应用:MySQL MHA高可用集群_第28张图片

 在 manager 节点上启动 MHA

数据库应用:MySQL MHA高可用集群_第29张图片

 677ee99d5f074cb981fc790db1504482.png

⑨在 manager 节点上查看 MHA 状态 和 MHA 日志,可以看到 master的地址

fa2cef375fe049edbc11ba0142226ed5.png

⑩在Mysql1上查看 VIP 地址 192.168.204.24 是否存在

查看 Mysql1 的 VIP 地址 192.168.204.24是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。

数据库应用:MySQL MHA高可用集群_第30张图片

(3)故障模拟

① 在 Master 节点 Mysql1 上停止mysql服务

ac5c5a98dcde4354a1905b6ae7469ea9.png

②在Mysql1上停止mysql服务,MHA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。 mysql2 会自动接管 VIP,成为新的master。

 tail -f /var/log/masterha/app1/manager.log

数据库应用:MySQL MHA高可用集群_第31张图片

 ③查看manager节点的配置文件。MHA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。

数据库应用:MySQL MHA高可用集群_第32张图片

④ mysql2 已接管 VIP

0baa4fa70e0041e0b4573602e788ac5c.png

(4)故障修复

① 修复mysql1(即修复原来的主节点)

数据库应用:MySQL MHA高可用集群_第33张图片

② 修复主从数据

数据库应用:MySQL MHA高可用集群_第34张图片

③在 manager 节点上修改配置文件app1.cnf

重新把三台mysql节点服务器这个记录添加进去,因为它检测到主节点失效时候会自动删除主节点。将mysql1添加为新的候选master。

d76a0f41a07c43ffaba1ba847eec9863.png

④在 manager 节点上启动 MHA

  nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

三、问题

1.中英文符兼容报错

(1)解决方法

解决中英字符不兼容报错的问题,注释数据库配置文件相关行:

vim /etc/my.cnf

#default-character-set=utf8

2.MHA测试 ssh 无密码认证语法报错

(1)报错

b4c2b438d3a94f0190eb4a8a2dc6c88c.png

(2)原因分析

配置文件错误,

(3)解决方法

删除后注释相关行

数据库应用:MySQL MHA高可用集群_第35张图片

SSH成功

e5bc4ecc7f424240beb4006b4bee9071.png

3.MHA测试 ssh 无密码认证log-bin报错

(1)报错

从数据库配置问题

1305d1e16ab94b09bcc972333ed706e6.png

数据库应用:MySQL MHA高可用集群_第36张图片

(2)原因分析

未添加log-bin

(3)解决方法

添加log-bin

eb7e11b6ac7142c7892e9d6936ab87bd.png

4.MHA测试 mysql 主从连接情况报错slave replication

(1)报错

Other slaves can not start from replication from this host

c6cf648ebb314ba989da9a5391567bfd.png

(2)原因分析

未开启从数据库复制

(3)解决方法

grant replication slave on *.* to 'myslave'@'192.168.204.%' identified by '123456';

数据库应用:MySQL MHA高可用集群_第37张图片

5.MHA测试 mysql 主从连接情况报错 “FIXME_xxx“

(1)报错

Bareword “FIXME_xxx“ not allowed while “strict subs“

数据库应用:MySQL MHA高可用集群_第38张图片

(2)原因分析

配置文件修改

(3)解决方法

查看文件中103的内容,并注释
vim /usr/local/bin/master_ip_failover
查看文件中103行内容

31d9582025be4b62a204c954c5c10ef5.png

69825fa7bf3343af85b465ffa5a7cc36.png

测试 mysql 主从连接成功 

数据库应用:MySQL MHA高可用集群_第39张图片

四、总结

确保 IO 和 SQL 线程都是 Yes,代表同步正常:

show slave status\G

Slave_IO_Running: Yes

Slave_SQL_Running: Yes

MHA架构:数据库安装、一主两从、MHA搭建;

故障模拟:主库失效、备选主库成为主库、原故障主库恢复重新加入到MHA成为从库。


master_ip_failover管理 VIP 和故障切换

vim /usr/local/bin/master_ip_failover

app1.cnf配置文件来管理 mysql 节点服务器

vim /etc/masterha/app1.cnf

Master 节点上手动开启虚拟IP

/sbin/ifconfig ens33:1 192.168.204.24/24

manager 节点上测试 ssh

masterha_check_ssh -conf=/etc/masterha/app1.cnf

manager 节点上测试 mysql 主从连接

masterha_check_repl -conf=/etc/masterha/app1.cnf

在 manager 节点上启动 MHA

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

关闭manager服务

masterha_stop --conf=/etc/masterha/app1.cnf
#或者可以直接采用 kill 进程 ID 的方式关闭

查看 MHA 状态,可以看到当前的 master 是 master 节点。

masterha_check_status --conf=/etc/masterha/app1.cnf

查看 MHA 日志

cat /var/log/masterha/app1/manager.log | grep "current master"

你可能感兴趣的:(数据库)