目录
一、MHA概念
1、MHA的组成
2、MHA的特点
3、主从复制有多少种复制方法
二、搭建MySql+MHA部署
1.Master、Slave1、Slave2 节点上安装 mysql
2.修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
3. 配置 mysql 一主两从
4、安装MHA所有组件
4.1 安装 MHA 软件
4.2 在所有服务器上配置无密码认证
4.3 在manager节点上配置MHA
编辑
4.4 第一次配置需要在master节点上手动开启虚拟ip
编辑
编辑
4.5 在manager中间件上测试ssh无密码认证
编辑
4.6 在manager中间件测试mysql主从连接情况
4.7 在manager节点上启动MHA
三、故障模拟
四、故障修复
1、修复master
编辑
2、修复主从
2.1 在现主库服务器 slave1(192.168.247.21) 查看二进制文件和同步点
2.2 在原主库服务器master(192.168.247.20)执行同步操作
2.3 在 manager节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
2.4 在 manager 节点上启动 MHA
五、总结
1、mha
2、mha故障问题
MHA(Master High Availability)是一套优秀的Mysql高可用环境下故障切换和主从复制的软件。
MHA的出现就是解决Mysql单点的问题。
Mysql故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
MHA能在故障切换的过程中最大程度受伤保证数据的一致性,以达到真正意义上的高可用。
MHA Node(数据节点)
MHA Manager(管理节点)
总共有三种:同步、半同步、异步
异步: 在主从架构中加入当客户端发送了一条update语句,主服务器上I/O 线程将二进制日志写入到binlog文件之后就返回客户端结构,不管从服务器是否已经同步到了自己的relay-log(中继日志中)。
同步: 也称全同步,当主服务器完成更新,并且同步到所有从服务器才会返回成功结果。
半同步: 将两个方法折中,当主服务器完成更新,至少有一个从服务器接收到并完成更新,主服务器就返回成功。
MHA高可用是基于主从复制的基础上进行安装部署一台新的MHKmanager服务器,该服务器用来监控master服务器,当master服务器出现故障时,它可以自动将最新的数据的slave提升为master(或者可指定直接新的master)。然后其它的slave重新指向新的master。
实验环境:
主机名 | 操作系统 | IP地址 | 安装包/软件 |
---|---|---|---|
manager | centos7-5 | 192.168.247.23 | MHAnode组件、MHAmanager组件 |
master | centos7-5 | 192.168.247.20 | mysql-boost-5.7.20.tar.gz、MHAnode组件 |
slave1 | centos7-5 | 192.168.247.21 | mysql-boost-5.7.20.tar.gz、MHAnode组件 |
slave2 | centos7-5 | 192.168.247.22 | mysql-boost-5.7.20.tar.gz、MHAnode组件 |
##Master 节点##
vim /etc/my.cnf
[mysqld]
server-id = 1
log_bin = master-bin
log-slave-updates = true
systemctl restart mysqld
ln -s /usr/local/mysql/bin/mysql /usr/sbin
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin
##slave1节点##
vim /etc/my.cnf
[mysqld]
server-id = 2 (另一台可配置server-id = 3)
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
###Slave2 节点##
server-id = 3
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
(1)所有数据库节点进行 mysql 授权
mysql -uroot -p
grant replication slave on *.* to 'myslave'@'192.168.247.%' identified by '123456';
##允许myslave用户在192.168.247.0网段使用密码123456登录到本机
grant all privileges on *.* to 'mha'@'192.168.247.%' identified by 'manager';
##允许mha用户在192.168.247.0网段使用密码manager登录到本机
grant all privileges on *.* to 'mha'@'mysql1' identified by 'manager';
grant all privileges on *.* to 'mha'@'mysql2' identified by 'manager';
grant all privileges on *.* to 'mha'@'mysql3' identified by 'manager';
##防止上面用户登录不上,再加三条授权主机名登录的用户
##在Master节点查看二进制文件和同步点##
show master statys;
#查看master节点上面的文件名和偏移量。每台机都不一样
##在slave1和slave2节点执行同步操作##
change master to master_host='192.168.247.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=4209;
##执行change,指定master服务器,登录的myslave用户和密码,以及二进制文件名和偏移量
start slave;
##启动主从同步
show slave status\G
#查看状态
##在slave1和slave2节点执行为只读模式##
set global read_only=1;
#设置只读模式
##在 Master 主库插入条数据,测试是否同步##
##所有服务器都安装MHA依赖环境,首先安装epel源##
yum install epel-release --nogpgcheck -y
#安装在线源
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
#安装依赖环境
将node组件包放在各个服务器的/opt目录下
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
#将node安装包解压当当前目录
cd mha4mysql-node-0.57
#进入目录
perl Makefile.PL
#进行编译
make && make install
#编译安装
##在manager中间件服务器上安装manager组件##
cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
#将安装包进行解压
cd mha4mysql-manager-0.57
#进入解压后的目录
perl Makefile.PL
#进行编译
make && make install
#安装
manager组件安装在/usr/local/bin 下面会生成几个工具,主要包括以下几个
工具 | 描述 |
---|---|
masterha_check_ssh | 检查MHA的SSH配置状况 |
masterha_check_repl | 检查MYSQL复制状况 |
masterha_manger | 启动manager的脚本 |
master_check_status | 检测当前MHA运行状态 |
masterha_master_monitor | 检测master是否宕机 |
masterha_master_switch | 控制故障转移(自动或手动) |
masterha_conf_host | 添加或删除配置的server信息 |
masterha_stop | 关闭manager |
node组件安装在/usr/local/bin 下面会生成几个脚本,主要包括以下几个(这些工具通常由MHAmabager的脚本触发,无需认为操作),主要如下
脚本工具 | 描述 |
---|---|
save_binary_logs | 保存和复制master的二进制日志 |
apply_diff_relay_logs | 识别差异的中继日志事件并将其差异的时间应用于其它的slave |
filter_mysqlbinlog | 去除不必要的ROLLBACK事件(MHA已不再使用的工具) |
purge_relay_logs | 清除中继日志(不会阻塞sql线程) |
##在manager中间件上配置到所有数据节点的无密码认证##
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.247.20
ssh-copy-id 192.168.247.21
ssh-copy-id 192.168.247.22
##在master节点上配置到数据库节点slave1和slave2的无密码认证##
ssh-keygen -t rsa
ssh-copy-id 196.168.247.21
ssh-copy-id 196.168.247.22
##在slave1节点上配置到所有数据库节点master和slave2的无密码认证##
ssh-keygen -t rsa
ssh-copy-id 196.168.247.20
ssh-copy-id 196.168.247.22
##在slave2节点上配置到所有数据节点master和salve1的无密码认证##
ssh-key -t rsa
ssh-copy-id 192.168.247.20
ssh-copy-id 192.168.247.21
##在 manager 节点上复制相关脚本到/usr/local/bin 目录##
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts/ /usr/local/bin/
#复制相关脚本到/usr/local/bin中
拷贝后会有四个执行文件
脚本文件 | 描述 |
---|---|
master_ip_failover | 自动切换时VIP管理的脚本 |
master_ip_online_change | 在线切换时vip的管理 |
power_manager | 故障发生后关闭主机的脚本 |
send_report | 因故障切换后发送报警的脚本 |
##复制自动切换vip管理的脚本到/usr/local/bin/目录下##
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
#复制上述的自动切换时VIP管理的脚本到/usr/local/bin目录,这里使用master_ip_failover脚本来管理VIP和故障切换
##修改管理脚本的内容(清空原有脚本)##
vim /usr/local/bin/master_ip_failover #清空以前的,添加内容如下记得修改ip地址
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.247.200'; #指定vip的地址
my $brdc = '192.168.247.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.247.200
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.247.200 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
##创建MHA软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理mysql节点服务器##
mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha/
vim /etc/masterha/app1.cnf #(清空以前的内容,添加内容如下)
[server default]
manager_log=/var/log/masterha/app1/manager.log #manager日志
manager_workdir=/var/log/masterha/app1 #manager工作目录
master_binlog_dir=/usr/local/mysql/data/ #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
master_ip_failover_script=/usr/local/bin/master_ip_failover #设置自动failover时候的切换脚本,也就是上面的那个脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change #设置手动切换时候的切换脚本
password=manager #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
ping_interval=1 #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/tmp #设置远端mysql在发生切换时binlog的保存位置
repl_password=123456 #设置复制用户的密码
repl_user=myslave #设置复制用户的用户
report_script=/usr/local/send_report #设置发生切换后发送的报警的脚本
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.247.21 -s 192.168.247.22 #指定检查的从服务器IP地址
shutdown_script="" #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
ssh_user=root #设置ssh的登录用户名
user=mha #设置监控用户root
[server1]
hostname=192.168.247.20
port=3306
[server2]
hostname=192.168.247.21
port=3306
candidate_master=1
#设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave
check_repl_delay=0
#默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
[server3]
hostname=192.168.247.22
port=3306
/sbin/ifconfig ens33:1 192.168.247.200/24
#手动开启虚拟ip
##如果正常最后会输出 successfully##
masterha_check_ssh -conf=/etc/masterha/app1.cnf
#测试ssh无密码认证
##最后出现 MySQL Replication Health is OK 字样说明正常##
masterha_check_repl -conf=/etc/masterha/masterha/app1.cnf
#测试mysql主从连接情况
#注意:如果出现问题:需要将slave1和salve2节点服务器上面的[mysq]中的字符集UTF8一行注释掉,开启二进制文件。
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
#启动MHA
--remove_dead_master_conf:该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
--manger_log:日志存放位置。
--ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在日志记录,也就是上面设置的日志app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。
##查看 MHA 状态,可以看到当前的 master 是 master 节点##
masterha_check_status --conf=/etc/masterha/app1.cnf
##查看 MHA 日志##
cat /var/log/masterha/app1/manager.log | grep "current master"
##查看master的VIP地址##
若要关闭 manager 服务,可以使用如下命令。
masterha_stop --conf=/etc/masterha/app1.cnf
或者可以直接采用 kill 进程 ID 的方式关闭
在manager节点上监控观察日志记录
tail -f /var/log/masterha/app1/manager.log
在master节点上停止mysql服务
systemctl stop mysql
#正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 master 节点删除。
查看 slave1 是否接管 VIP
查看manager中间件的日志信息
故障切换备选主库的算法:
1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
2.数据一致的情况下,按照配置文件顺序,选择备选主库。
3.设定有权重(candidate_master=1),按照权重强制指定备选主。
(1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
(2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
systemctl restart mysqld
#开启原master的MySQL数据库
show master status;
change master to master_host='192.168.147.21',master_user='myslave',master_password='123456',master_log_file='master-bin.000002',master_log_pos=4209;
#添加同步新的master
start slave;
#开始同步
masterha_stop --conf=/etc/masterha/app1.cnf
#停止MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
#启动MHA
masterha_check_status --conf=/etc/masterha/app1.cnf
#查看MHA
① 作用:mysql的高可用 + 故障切换
② 核心部分:
MHA组件:
③ MHA需要配置的文件(2个):
④ 故障切换mha会做哪些动作:
1)mha会多次尝试检测master的存活状态
2)mha会多次尝试、尽可能的保存master的二进制日志
3)mha会根据app1.cnf中的配置部分,进行从服务器------》 主服务器的位置
4)mha最后会将master的VIP地址切换到从服务器的位置
5)mha再选择完新的master之后,会在其余的salve上执行change master操作,指向性的master, 来保证Mysql的集群的健康性
①软连接必须要做
②MySQL配置文件,建议将中文字符集注释掉
③ssh免密钥交互必须要做
④mha的内存建议4G,否则可能导致vip地址漂移无效
⑤app1.cnf配置文件中,MySQL二进制文件位置,一定要指正确