前言:在实际的生产环境中,当MySQL主从复制和读写分离不能满足实际需求时,就需要考虑MySQL高可用集群了,本章和拐友们介绍一下MySQL-MMM实现MySQL高可用以及MHA高可用。
目录
一.关于MHA
1.1MHA的概述
1.2MHA的组成
1.3MHA的特点
1.4MHA的工作原理(重点)
二.实验准备
2.1构建的思路
2.2环境准备
2.3.关闭所有服务器的防火墙和增强功能
2.4修改master,slave1,slave2的主机名
2.5在Master,Slave1,Slave2添加域名解析
三.搭建MySQL MHA
3.1修改Master,Slave1,Slave2的配置文件
3.2给Master,Slave1,Slave2节点创建两个软链接
3.3配置MySQL一主两从
3.4在Master 节点查看二进制文件和同步点
3.5在 Slave1、Slave2 节点执行同步操作
3.6在Slave1、Slave2 设置为只读模式
3.7验证主从复制
四.安装MHA软件
4.1在所有的服务器上都要安装MHA依赖的环境,首先要安装epel源
4.2.在MHA-manager节点上安装 manager 组件(只需要在manager安装即可)
4.3manager 组件安装后在/usr/local/bin 下面会生成几个工具
4.4node组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下
4.5在所有服务器上配置无密码认证
4.6免密登录测试
4.7在manager节点上配置MHA
4.7.1在 manager 节点上复制相关脚本到/usr/local/bin 目录
4.7.2制上述的自动切换时VIP管理的脚本到/usr/local/bin目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
4.7.3修改master_ip_failover 全部删除,添加以下内容,修改相关参数
4.7.4创建MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
4.7.5在Master服务上开启虚拟IP
4.7.6在manager节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。
4.7.7在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常
4.7.8在manager节点上启动MHA
4.7.9查看 MHA 状态,可以看到当前的 master 是 master 节点。
4.7.10.查看 MHA 日志,也以看到当前的 master 是 192.168.226.10,如下所示。
4.7.11 查看 master的 VIP 地址 192.168.226.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
五.故障模拟
5.1在 manager 节点上监控观察日志记录
5.2在 Master上停止mysql服务
5.3查看配置文件里的文件内容,发现server1已经没有了
5.4在slave1,slave2上查看,查看 slave1 是否接管 VIP
5.5故障切换备选主库的算法
六.故障修复
6.1修复主服务器master
6.2修复主从(在现主库服务器 slave1(192.168.226.20)查看二进制文件和同步点)
6.3在原主库服务器 master(192.168.223.10)执行同步操作
6.4在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
6.5在 manager 节点上启动 MHA
七.总结
1.MHA架构
1)数据库安装
2)一主两从
3)MHA搭建
2.故障模拟
1)主库失效
2)备选主库成为主库
3)原故障主库恢复重新加入到MHA成为从库
master服务器: 192.168.226.10 mysql和MHA node组件 主机名:master
slave1服务器: 192.168.226.20 mysql和MHA node组件 主机名:slave1
slave2服务器: 192.168.226.30 mysql和MHA node组件 主机名:slave2
MHA manager服务器: 192.168.226.40 MHA node和manager组件 主机名:manager
#四台服务器上都要操作
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
192.168.226.10
hostnamectl set-hostname Master
192.168.226.20
hostnamectl set-hostname Slave1
192.168.226.30
hostnamectl set-hostname Slave2
###在主服务器和两台从服务器上都加上域名解析
vim /etc/hosts
192.168.226.10 master
192.168.226.20 slave1
192.168.226.30 slave2
###修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
###Master 节点###
vim /etc/my.cnf
[mysqld]
server-id = 1
log_bin = master-bin
log-slave-updates = true
systemctl restart mysqld
###Slave1 节点###
vim /etc/my.cnf
server-id = 2 ###三台服务器的 server-id 不能一样
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld
###Slave2 节点###
vim /etc/my.cnf
server-id = 3
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld
###主服务器和两台从服务器都创建
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
ls /usr/sbin/mysql*
#################Master、Slave1、Slave2 节点上都授权###################
grant replication slave on *.* to 'myslave'@'192.168.226.%' identified by '123456';
#允许mslvae用户通过密码在192.168.226网段的数据库上进行服务器复制操作
grant all privileges on *.* to 'mha'@'192.168.226.%' identified by 'manager';
#授权mha用户通过密码manager对192.168.226网段的数据库进行所有操作
grant all privileges on *.* to 'mha'@'master' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
#预防从服务器通过主机连接不上,再次根据主机名进行授权
#刷新库
flush privileges;
#################在master上##################
show master status;
ps:每个人的二进制文件名或者偏移量都是不一样的
change master to master_host='192.168.226.10',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1747;"
start slave;
show slave status\G
set global read_only=1;
###在master、slave1、slave2、mha服务器上都安装node组件(每台机子都要)
yum install epel-release --nogpgcheck -y
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
将软件包mha4mysql-node-0.57.tar.gz放入/opt目录下
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
##将需要的包下载到/opt下##
##每台服务器上解压安装node组件##
cd /opt
tar zxf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
masterha_check_ssh | 检查 MHA 的 SSH 配置状况 |
masterha_check_repl | 检查 MySQL 复制状况 |
masterha_manger | 启动 manager的脚本 |
masterha_check_status | 检测当前 MHA 运行状态 |
masterha_master_monitor | 检测 master 是否宕机 |
masterha_master_switch | 控制故障转移(自动或者 手动) |
masterha_conf_host | 添加或删除配置的 server 信息 |
masterha_stop | 关闭manager |
save_binary_logs | 保存和复制 master 的二进制日志 |
apply_diff_relay_logs | 识别差异的中继日志事件并将其差异的事件应用于其他的 slave |
filter_mysqlbinlog | 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具) |
purge_relay_logs | 清除中继日志(不会阻塞 SQL 线程) |
###在manager节点上配置到所有数据库节点的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.226.10
ssh-copy-id 192.168.226.20
ssh-copy-id 192.168.226.30
####数据库服务器之间互相导入即可####
###在master上
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.226.20
ssh-copy-id 192.168.226.30
###在slave1上
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.226.10
ssh-copy-id 192.168.226.30
###在slave2上
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.226.10
ssh-copy-id 192.168.226.20
###免密登录测试###
###在manager节点上
ssh 192.168.226.10
ssh 192.168.226.20
ssh 192.168.226.30
###在master节点上
ssh 192.168.226.20
ssh 192.168.226.30
###在slave1节点上
ssh 192.168.226.10
ssh 192.168.226.30
###在slave2节点上
ssh 192.168.226.10
ssh 192.168.226.20
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/
master_ip_failover | 自动切换时 VIP 管理的脚本 |
master_ip_online_change | 在线切换时 vip 的管理 |
power_manager | 故障发生后关闭主机的脚本 |
send_report | 因故障切换后发送报警的脚本 |
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
###修改master_ip_failover 全部删除,添加以下内容,修改相关参数
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.10.200'; #指定vip的地址
my $brdc = '192.168.10.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.59.188
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.59.188 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
#删除注释
:2,87 s/^#//
mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
#修改app1.cnf配置文件,删除原文所有内容,添加下面的
vim /etc/masterha/app1.cnf
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.10.5 -s 192.168.10.6
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.10.4
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.10.5
port=3306
[server3]
hostname=192.168.10.6
port=3306
配置文件的含义:
[server default]
manager_log=/var/log/masterha/app1/manager.log #manager日志
manager_workdir=/var/log/masterha/app1 #manager工作目录
master_binlog_dir=/usr/local/mysql/data/ #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
master_ip_failover_script=/usr/local/bin/master_ip_failover #设置自动failover时候的切换脚本,也就是上面的那个脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change #设置手动切换时候的切换脚本
password=manager #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
ping_interval=1 #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/tmp #设置远端mysql在发生切换时binlog的保存位置
repl_password=123456 #设置复制用户的密码
repl_user=myslave #设置复制用户的用户
report_script=/usr/local/send_report #设置发生切换后发送的报警的脚本
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.226.20 -s 192.168.226.30 #指定检查的从服务器IP地址
shutdown_script="" #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
ssh_user=root #设置ssh的登录用户名
user=mha #设置监控用户root
[server1]
hostname=192.168.226.10
port=3306
[server2]
hostname=192.168.226.20
port=3306
candidate_master=1
#设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave
check_repl_delay=0
#默认情况下如果一个slave落后master 超过100M的 relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
[server3]
hostname=192.168.226.30
port=3306
ifconfig ens33:1 192.168.226.200/24
masterha_check_ssh -conf=/etc/masterha/app1.cnf
masterha_check_repl -conf=/etc/masterha/app1.cnf
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
remove_dead_master_conf | 该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。 |
manger_log | 日志存放位置。 |
ignore_last_failover | 在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在日志记目录,也就是上面设置的日志app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为–ignore_last_failover。 |
masterha_check_status --conf=/etc/masterha/app1.cnf
cat /var/log/masterha/app1/manager.log | grep "current master"
ifconfig
###在 manager 节点上监控观察日志记录
tail -f /var/log/masterha/app1/manager.log
###在 Master 节点 192.168.226.10上停止mysql服务
systemctl stop mysqld
或
pkill -9 mysql
###在slave1,slave2上查看,正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 master(192.168.226.10)节点删除。
查看 slave12 是否接管 VIP
ifconfig
故障切换备选主库的算法:
1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
2.数据一致的情况下,按照配置文件顺序,选择备选主库。
3.设定有权重(candidate_master=1),按照权重强制指定备选主。
(1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
(2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
tail -f /var/log/masterha/app1/manager.log
systemctl stop mysqld
vim /etc/masterha/app1.cnf
默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
1.#修复mysql1
systemctl restart mysqld
2.#修复主从
#在现主库服务器 slave1 查看二进制文件和同步点
show master status;
#在原主库服务器 192.168.10.4上 执行同步操作
change master to master_host='192.168.10.5',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=154;
start slave;
show slave status\G;
3.#在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
vi /etc/masterha/app1.cnf
....
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.59.118 -s 192.168.59.114
....
[server1]
hostname=192.168.59.111
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.59.118
port=3306
[server3]
hostname=192.168.59.114
port=3306
4.#在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
mysql -u root -p
show master status;
reset slave;
change master to master_host='192.168.226.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000002',master_log_pos=154;
start slave;
show slave status\G
vim /etc/masterha/app1.cnf
……
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.223.10 -s 192.168.223.30
......
[server1]
hostname=192.168.226.20
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.226.10
port=3306
[server3]
hostname=192.168.226.30
port=3306
masterha_stop --conf=/etc/masterha/app1.cnf
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
masterha_check_status --conf=/etc/masterha/app1.cnf
1.MHA
①作用:MySQL的高可用,故障切换。
②核心部分:(1)MHA组件:manager:主要的功能:做MHA启动,关闭管理和检测MySQL的各种健康状态。
niode:在发生故障时,尽可能的保存二进制日志,并且实现故障切换(VIP地址飘逸)
③MHA需要的配置的文件(2个):
master_ip_failover:命令工具,定义的是基于VIP的检测和故障转移(VIP从master ----》新的 master)
appl.conf:MHA的主要配置文件,主要定义了mha的工作目录、日志mysql二进制日志位置,使用MHA的登录MySQL的用户、密码使用从服务器。身份同步master的账号、密码(五个)。
④故障切换MHA会做哪些动作:
(1)MHA会多次尝试检测master的存活状态。
(2)MHA会多次尝试,尽可能的保存master的二进制文件
(3)MHA会根据app1.cnf中的配置部分,进行从服务器------》主服务器的位置
(4)MHA最后会将master的VIP地址切换到从服务器的位置
(5)MHA再选择完新的master后,会在其余的slave上执行change master操作,指向新的master,来保证MySQL集群的健康性。
2.MHA的故障问题
①要做软链接。
②免交互(免密登录)
③五个账号授权(其中三个账号是测试环境需要做的)
④初次运行MHA功能时,需要临时添加虚拟ip
⑤配置文件 --- 校验 (master_ip_failover 1个故障切换脚本,appl.cnf.mha的主配置文件)
⑥先安装node节点,再安装主节点。