MHA部署配置详解

此文档,没有逻辑线路,估计看时比较吃力。不知那儿跟哪儿。 在这里说明一下,此文档是在原 网络转载上 新增了一些内容。其他的基本保持不变。
阅读本文档,1, 建议从头到尾 阅读, 前面为 部署, 中间为 对应问题处理, 后段 为 mha 维护。
2, 增加了 双主模式,半同步复制。
3, 新增sudo mysql ,keepalived
4, 新增 mha 维护和参数简介。
5, 附上自己测试环境的配置参数。

--本文基于网络转载基础上做了补充和修改。请勿用于商业。 紫色
error: Failed dependencies:……
依赖关系非常复杂,当你试图先安装任何一个包时都会出现这样的依赖关系错误,这时候你就应该强制安装了,我认为只要你把服务或软件需要的包都装上,强制安装也不会出问题的,不会有什么影响。非常简单,只要加上一个--force (强制) 和--nodeps(不查找依赖关系)就可以了
如:rpm -vih httpd-2.2.3-6.el5.i386.rpm --force --nodeps

卸载时就不用--force了,只要加入--nodeps就ok了

简介:
MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于Facebook公司)开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。在MySQL故障切换过程中,MHA能做到在0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。
该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。
MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。
MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明。
在MHA自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据的不丢失,但这并不总是可行的。例如,如果主服务器硬件故障或无法通过ssh访问,MHA没法保存二进制日志,只进行故障转移而丢失了最新的数据。使用MySQL 5.5的半同步复制,可以大大降低数据丢失的风险。MHA可以与半同步复制结合起来。如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。
目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝也在该基础上进行了改造,目前淘宝TMHA已经支持一主一从。
我们自己使用其实也可以使用1主1从,但是master主机宕机后无法切换,以及无法补全binlog。master的mysqld进程crash后,还是可以切换成功,以及补全binlog的。
官方介绍:https://code.google.com/p/mysql-master-ha/ 同时需要:
(这个网站2012年后就没更新了,建议去 https://github.com 下载 最新 mha0.57 版本)
图01展示了如何通过MHA Manager管理多组主从复制。可以将MHA工作原理总结为如下:
新修改 环境:
Redhat 6.5 x86 64bit
MySQL 5.7.18 binary
主库 192.168.41.38
standby 192.168.41.37 (M-38)
slave 192.168.41.36 (M-38)
MHA node (192.168.41.38)

 
                                 ( 图01 )
(1)从宕机崩溃的master保存二进制日志事件(binlog events);
(2)识别含有最新更新的slave;
(3)应用差异的中继日志(relay log)到其他的slave;
(4)应用从master保存的二进制日志事件(binlog events);
(5)提升一个slave为新的master;
(6)使其他的slave连接新的master进行复制;
(7), master - standby mha 对应的目录必须一致 (app1.conf,app2.conf 等)
(8), 配置文件最好各自一份,切换后不一样,主重
(9) 切换后,需要重新配置主重复制。
(10), 启动前,最好使用 check_ssh,check_repl 检测一下状态。
(11), 数据切换后,恢复需要比对
MHA软件由两部分组成,Manager工具包和Node工具包,具体的说明如下。
Manager工具包主要包括以下几个工具:
masterha_check_ssh 检查MHA的SSH配置状况 masterha_check_repl 检查MySQL复制状况masterha_manger 启动MHAmasterha_check_status 检测当前MHA运行状态masterha_master_monitor 检测master是否宕机masterha_master_switch 控制故障转移(自动或者手动)masterha_conf_host 添加或删除配置的server信息
Node工具包(这些工具通常由MHA Manager的脚本触发,无需人为操作)主要包括以下几个工具:
save_binary_logs 保存和复制master的二进制日志apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的slavefilter_mysqlbinlog 去除不必要的ROLLBACK事件(MHA已不再使用这个工具)purge_relay_logs 清除中继日志(不会阻塞SQL线程)
注意:
为了尽可能的减少主库硬件损坏宕机造成的数据丢失,因此在配置MHA的同时建议配置成MySQL 5.5的半同步复制。关于半同步复制原理各位自己进行查阅。(不是必须)

主从复制:
Server-1上:
 [mysqld]
 server-id = 10
 log_bin = mysql-bin
binlog_format = mixed
 #replicate_do_db = mydb
 auto-increment-increment = 2
 auto-increment-offset = 1
binlog_ignore_db= sys
binlog_ignore_db= performance_schema
binlog_ignore_db=information_schema

Server-2上
 [mysqld]
 server-id = 20
 log_bin = mysql_bin
 #replicate-do-db = mydb
 auto-increment-increment = 2
 auto-increment-offset = 2
binlog_ignore_db= sys
binlog_ignore_db= performance_schema
binlog_ignore_db=information_schema 

MYSQL > change master to master_host='xxxx',master_port= ,master_user='xx',master_password='xxx',master_log_pos='xxx', master_log_file='xxxx';

半同步复制:
1,5.5 版本以上
2,have_dynamic_loading 为yes
3,异步复制已经存在
4,super权限 安装插件
主:
mysql> INSTALL PLUGIN rpl_semi_sync_master SONAME 'semisync_master.so';
从:
mysql> INSTALL PLUGIN rpl_semi_sync_slave SONAME 'semisync_slave.so'; (主从都需要,双主)

5,show plugins 查看
6,启动半同步复制:
主:
mysql> SET GLOBAL rpl_semi_sync_master_enabled = 1;
从:
mysql> SET GLOBAL rpl_semi_sync_slave_enabled = 1;
在有的高可用架构下,master和slave需同时启动,以便在切换后能继续使用半同步复制
plugin-load = "rpl_semi_sync_master=semisync_master.so;rpl_semi_sync_slave=semisync_slave.so" rpl-semi-sync-master-enabled = 1 rpl-semi-sync-slave-enabled = 1
7, 重启从上的IO线程
mysql> STOP SLAVE IO_THREAD;
mysql> START SLAVE IO_THREAD;
如果没有重启,则默认还是异步复制,重启后,slave会在master上注册为半同步复制的slave角色。
rpl_semi_sync_master_wait_for_slave_count
MySQL 5.7.3引入的,该变量设置主需要等待多少个slave应答,才能返回给客户端,默认为1。
说得直白一点,如果我的架构是1主2从,2个从都采用了半同步复制,且设置的是rpl_semi_sync_master_wait_for_slave_count=2,如果其中一个挂掉了,对于rpl_semi_sync_master_wait_no_slave设置为ON的情况,此时显示的仍然是半同步复制,如果rpl_semi_sync_master_wait_no_slave设置为OFF,则会立刻变成异步复制。

1.部署MHA
接下来部署MHA,具体的搭建环境如下(所有操作系统均为centos 6.2 64bit,不是必须,server03和server04是server02的从,复制环境搭建后面会简单演示,但是相关的安全复制不会详细说明,需要的童鞋请参考前面的文章, MySQL Replication需要注意的问题 ):
角色 ip地址 主机名 server_id 类型Monitor host 192.168 . 0.20 server01 - 监控复制组Master 192.168 . 0.50 server02 1 写入Candicate master 192.168 . 0.60 server03 2 读Slave 192.168 . 0.70 server04 3
其中master对外提供写服务,备选master(实际的slave,主机名server03)提供读服务,slave也提供相关的读服务,一旦master宕机,将会把备选master提升为新的master,slave指向新的master

--这里我是用的二进制文件,相对于rpm 来说,比较直观。
(1)在所有节点安装MHA node所需的perl模块(DBD:mysql),安装脚本如下:
[root@ 192.168 . 0.50 ~]# cat install . sh #!/bin/bash wget http: //xrl.us/cpanm --no-check-certificate mv cpanm /usr/bin chmod 755 /usr/bin/cpanm cat > /root/list << EOF install DBD::mysqlEOF for package in ` cat /root/list` do cpanm $package done [root@ 192.168 . 0.50 ~]#
如果有安装epel源,也可以使用yum安装
yum install perl -DBD-MySQL -y
(2)在所有的节点安装mha node:
wget http: //mysql-master-ha.googlecode.com/files/mha4mysql-node-0.53.tar.gz tar xf mha4mysql-node- 0.53 . tar .gzcd mha4mysql-node- 0.53 perl Makefile.PL make && make install
安装完成后会在/usr/local/bin目录下生成以下脚本文件:
[root@ 192.168 . 0.50 bin]# pwd /usr/local/bin[root@ 192.168 . 0.50 bin]# lltotal 40 -r-xr-xr-x 1 root root 15498 Apr 20 10:05 apply_diff_relay_logs-r-xr-xr-x 1 root root 4807 Apr 20 10:05 filter_mysqlbinlog-r-xr-xr-x 1 root root 7401 Apr 20 10:05 purge_relay_logs-r-xr-xr-x 1 root root 7263 Apr 20 10:05 save_binary_logs [root@ 192.168 . 0.50 bin]#
关于上面脚本的功能,上面已经介绍过了,这里不再重复了。
2.安装MHA Manager
MHA Manager中主要包括了几个管理员的命令行工具,例如master_manger,master_master_switch等。MHA Manger也依赖于perl模块,具体如下:
(1)安装MHA Node软件包之前需要安装依赖。我这里使用yum完成,没有epel源的可以使用上面提到的脚本(epel源安装也简单)。注意:在MHA Manager的主机也是需要安装MHA Node。
rpm -ivh http: //dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm
yum install perl -DBD-MySQL -y
安装MHA Node软件包,和上面的方法一样,如下:
wget http: //mysql-master-ha.googlecode.com/files/mha4mysql-node-0.53.tar.gz tar xf mha4mysql-node- 0.53 . tar .gzcd mha4mysql-node- 0.53 perl Makefile.PL make && make install
(2)安装MHA Manager。首先安装MHA Manger依赖的perl模块(我这里使用yum安装):
yum install perl -DBD-MySQL perl -Config-Tiny perl -Log-Dispatch perl -Parallel-ForkManager perl -Time-HiRes -y
安装MHA Manager软件包:
wget http: //mysql-master-ha.googlecode.com/files/mha4mysql-manager-0.53.tar.gz tar xf mha4mysql-manager- 0.53 . tar .gz cd mha4mysql-manager- 0.53 perl Makefile.PL make && make install
安装完成后会在/usr/local/bin目录下面生成以下脚本文件,前面已经说过这些脚本的作用,这里不再重复
[root@ 192.168 . 0.20 bin]# pwd /usr/local/bin[root@ 192.168 . 0.20 bin]# lltotal 76 -r-xr-xr-x 1 root root 15498 Apr 20 10 : 58 apply_diff_relay_logs-r-xr-xr-x 1 root root 4807 Apr 20 10 : 58 filter_mysqlbinlog-r-xr-xr-x 1 root root 1995 Apr 20 11 : 33 masterha_check_repl-r-xr-xr-x 1 root root 1779 Apr 20 11 : 33 masterha_check_ssh-r-xr-xr-x 1 root root 1865 Apr 20 11 : 33 masterha_check_status-r-xr-xr-x 1 root root 3201 Apr 20 11 : 33 masterha_conf_host-r-xr-xr-x 1 root root 2517 Apr 20 11 : 33 masterha_manager-r-xr-xr-x 1 root root 2165 Apr 20 11 : 33 masterha_master_monitor-r-xr-xr-x 1 root root 2373 Apr 20 11 : 33 masterha_master_switch-r-xr-xr-x 1 root root 3749 Apr 20 11 : 33 masterha_secondary_check-r-xr-xr-x 1 root root 1739 Apr 20 11 : 33 masterha_stop-r-xr-xr-x 1 root root 7401 Apr 20 10 : 58 purge_relay_logs-r-xr-xr-x 1 root root 7263 Apr 20 10 : 58 save_binary_logs[root@ 192.168 . 0.20 bin]#
复制相关脚本到/usr/local/bin目录(软件包解压缩后就有了,不是必须,因为这些脚本不完整,需要自己修改,这是软件开发着留给我们自己发挥的,如果开启下面的任何一个脚本对应的参数,而对应这里的脚本又没有修改,则会抛错,自己被坑的很惨)
[root@ 192.168 . 0.20 scripts]# pwd /root/mha4mysql-manager- 0.53 /samples/scripts[root@ 192.168 . 0.20 scripts]# lltotal 32 -rwxr-xr-x 1 root root 3443 Jan 8 2012 master_ip_failover #自动切换时vip管理的脚本,不是必须,如果我们使用keepalived的,我们可以自己编写脚本完成对vip的管理,比如监控mysql,如果mysql异常,我们停止keepalived就行,这样vip就会自动漂移-rwxr-xr-x 1 root root 9186 Jan 8 2012 master_ip_online_change #在线切换时vip的管理,不是必须,同样可以可以自行编写简单的shell完成-rwxr-xr-x 1 root root 11867 Jan 8 2012 power_manager #故障发生后关闭主机的脚本,不是必须-rwxr-xr-x 1 root root 1360 Jan 8 2012 send_report #因故障切换后发送报警的脚本,不是必须,可自行编写简单的shell完成。[root@ 192.168 . 0.20 scripts]# cp * /usr/local/bin/[root@ 192.168 . 0.20 scripts]#
3.配置SSH登录无密码验证(使用key登录,工作中常用)我的测试环境已经是使用key登录,服务器之间无需密码验证的。关于配置使用key登录,我想我不再重复。但是有一点需要注意: 不能禁止 password 登陆,否则会出现错误
4.搭建主从复制环境
注意:binlog-do-db 和 replicate-ignore-db 设置必须相同。 MHA 在启动时候会检测过滤规则,如果过滤规则不同,MHA 不启动监控和故障转移。
(1)在server02上执行备份(192.168.0.50)
[root@ 192.168 . 0.50 ~]# mysqldump --master-data= 2 --single-transaction -R --triggers -A > all.sql
其中--master-data=2代表备份时刻记录master的Binlog位置和Position,--single-transaction意思是获取一致性快照,-R意思是备份存储过程和函数,--triggres的意思是备份触发器,-A代表备份所有的库。更多信息请自行mysqldump --help查看。
(2)在server02上创建复制用户:
mysql > grant replication slave on * . * to 'repl' @ '192.168.0.%' identified by '123456' ;Query OK, 0 rows affected ( 0.00 sec)mysql > flush privileges ;Query OK, 0 rows affected ( 0.00 sec)mysql >
(3)查看主库备份时的binlog名称和位置,MASTER_LOG_FILE和MASTER_LOG_POS:
[root@ 192.168 . 0.50 ~]# head -n 30 all.sql | grep 'CHANGE MASTER TO' -- CHANGE MASTER TO MASTER_LOG_FILE= 'mysql-bin.000010' , MASTER_LOG_POS= 112 ;[root@ 192.168 . 0.50 ~]#
(4)把备份复制到server03和server04,也就是192.168.0.60和192.168.0.70
scp all.sql server03:/data/ scp all.sql server04:/data/
(5)导入备份到server03,执行复制相关命令
mysql < /data/all.sql
mysql > CHANGE MASTER TO MASTER_HOST = '192.168.0.50' ,MASTER_USER = 'repl' , MASTER_PASSWORD = '123456' ,MASTER_LOG_FILE = 'mysql-bin.000010' ,MASTER_LOG_POS = 112 ;Query OK, 0 rows affected ( 0.02 sec)mysql > start slave;Query OK, 0 rows affected ( 0.01 sec)mysql >
查看复制状态(可以看见复制成功):
[root@ 192.168 . 0.60 ~]# mysql -e 'show slave status\G' | egrep 'Slave_IO|Slave_SQL' Slave_IO_State: Waiting for master to send event Slave_IO_Running: Yes Slave_SQL_Running: Yes[root@ 192.168 . 0.60 ~]#
(6)在server04(192.168.0.70)上搭建复制环境,操作和上面一样。
mysql < /data/all.sql
mysql > CHANGE MASTER TO MASTER_HOST = '192.168.0.50' ,MASTER_USER = 'repl' , MASTER_PASSWORD = '123456' ,MASTER_LOG_FILE = 'mysql-bin.000010' ,MASTER_LOG_POS = 112 ;Query OK, 0 rows affected ( 0.07 sec)mysql > start slave;Query OK, 0 rows affected ( 0.00 sec)mysql >
查看复制状态:
[root@ 192.168 . 0.70 ~]# mysql -e 'show slave status\G' | egrep 'Slave_IO|Slave_SQL' Slave_IO_State: Waiting for master to send event Slave_IO_Running: Yes Slave_SQL_Running: Yes[root@ 192.168 . 0.70 ~]#
(7)两台slave服务器设置read_only(从库对外提供读服务,只所以没有写进配置文件,是因为 随时slave会提升为master
[root@ 192.168 . 0.60 ~]# mysql -e 'set global read_only=1' [root@ 192.168 . 0.60 ~]#
[root@ 192.168 . 0.70 ~]# mysql -e 'set global read_only=1' [root@ 192.168 . 0.70 ~]#
(8)创建监控用户(在master上执行,也就是192.168.0.50):
mysql > grant all privileges on * . * to 'root' @ '192.168.0.%' identified by '123456' ;Query OK, 0 rows affected ( 0.00 sec)mysql > flush privileges ;Query OK, 0 rows affected ( 0.01 sec)mysql >
到这里整个集群环境已经搭建完毕,剩下的就是配置MHA软件了。
5.配置MHA
(1)创建MHA的工作目录,并且创建相关配置文件(在软件包解压后的目录里面有样例配置文件)。
[root@ 192.168 . 0.20 ~]# mkdir -p /etc/masterha[root@ 192.168 . 0.20 ~]# cp mha4mysql-manager- 0.53 /samples/conf/app1.cnf /etc/masterha/[root@ 192.168 . 0.20 ~]#
修改app1.cnf配置文件,修改后的文件内容如下( 注意,配置文件中的注释需要去掉,我这里是为了解释清楚 ):
[root@ 192.168 . 0.20 ~]# cat /etc/masterha/app1.cnf [server default]manager_workdir=/var/log/masterha/app1.log //设置manager的工作目录 manager_log=/var/log/masterha/app1/manager.log //设置manager的日志 master_binlog_dir=/data/mysql //设置master 保存binlog的位置,以便MHA可以找到master的日志,我这里的也就是mysql的数据目录 master_ip_failover_script= /usr/local/bin/master_ip_failover //设置自动failover时候的切换脚本 master_ip_online_change_script= /usr/local/bin/master_ip_online_change //设置手动切换时候的切换脚本 password= 123456 //设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码 user=root 设置监控用户rootping_interval= 1 //设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行railover remote_workdir=/tmp //设置远端mysql在发生切换时binlog的保存位置 repl_password= 123456 //设置复制用户的密码 repl_user=repl //设置复制环境中的复制用户名 report_script=/usr/local/send_report //设置发生切换后发送的报警的脚本 secondary_check_script= /usr/local/bin/masterha_secondary_check -s server03 -s server02
shutdown_script= "" //设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机放在发生脑裂,这里没有使用) ssh_user=root //设置ssh的登录用户名 [server1] hostname = 192.168 . 0.50 port= 3306 [server2] hostname = 192.168 . 0.60 port= 3306 candidate_master= 1 //设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slave check_repl_delay= 0 //默认情况下如果一个slave落后master 100M的relay logs的话,MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master [server3] hostname = 192.168 . 0.70 port= 3306 [root@ 192.168 . 0.20 ~]#
配置文件最好有几个,app1.conf (38 为主时使用), app2.conf (37为主时使用) 这样切换后,就不需要修改配置参数了。

(2)设置relay log的清除方式(在每个slave节点上):
[root@ 192.168 . 0.60 ~]# mysql -e 'set global relay_log_purge=0' [root@ 192.168 . 0.70 ~]# mysql -e 'set global relay_log_purge=0'
注意:
MHA在发生切换的过程中,从库的恢复过程中依赖于relay log的相关信息,所以这里要将relay log的自动清除设置为OFF,采用手动清除relay log的方式。在默认情况下,从服务器上的中继日志会在SQL线程执行完毕后被自动删除。但是在MHA环境中,这些中继日志在恢复其他从服务器时可能会被用到,因此需要禁用中继日志的自动删除功能。定期清除中继日志需要考虑到复制延时的问题。在ext3的文件系统下,删除大的文件需要一定的时间,会导致严重的复制延时。为了避免复制延时,需要暂时为中继日志创建硬链接,因为在linux系统中通过硬链接删除大文件速度会很快。(在mysql数据库中,删除大表时,通常也采用建立硬链接的方式)
MHA节点中包含了pure_relay_logs命令工具,它可以为中继日志创建硬链接,执行SET GLOBAL relay_log_purge=1,等待几秒钟以便SQL线程切换到新的中继日志,再执行SET GLOBAL relay_log_purge=0。
pure_relay_logs脚本参数如下所示:
--user mysql 用户名--password mysql 密码--port 端口号--workdir 指定创建relay log的硬链接的位置,默认是/var/tmp,由于系统不同分区创建硬链接文件会失败,故需要执行硬链接具体位置,成功执行脚本后,硬链接的中继日志文件被删除--disable_relay_log_purge 默认情况下,如果relay_log_purge= 1 ,脚本会什么都不清理,自动退出,通过设定这个参数,当relay_log_purge=1的情况下会将relay_log_purge设置为0。清理relay log之后,最后将参数设置为OFF。
(3)设置定期清理relay脚本(两台slave服务器)
[root@ 192.168 . 0.60 ~]# cat purge_relay_log. sh #!/bin/bashuser=root passwd = 123456 port= 3306 log_dir= '/data/masterha/log' work_dir= '/data' purge= '/usr/local/bin/purge_relay_logs' if [ ! -d $log_dir ] then mkdir $log_dir -p fi $purge --user=$user --password=$ passwd --disable_relay_log_purge --port=$port --workdir=$work_dir >> $log_dir/purge_relay_logs.log 2 >& 1 [root@ 192.168 . 0.60 ~]#
添加到crontab定期执行
[root@ 192.168 . 0.60 ~]# crontab -l 0 4 * * * /bin/bash /root/purge_relay_log. sh [root@ 192.168 . 0.60 ~]#
purge_relay_logs脚本删除中继日志不会阻塞SQL线程。下面我们手动执行看看什么情况。
[root@ 192.168 . 0.60 ~]# purge_relay_logs --user=root --password= 123456 --port= 3306 -disable_relay_log_purge --workdir=/data/ 2014 - 04 - 20 15 : 47 : 24 : purge_relay_logs script started. Found relay_log. info : /data/mysql/relay-log. info Removing hard linked relay log files server03-relay-bin* under /data/.. done . Current relay log file : /data/mysql/server03-relay-bin. 000002 Archiving unused relay log files (up to /data/mysql/server03-relay-bin. 000001 ) ... Creating hard link for /data/mysql/server03-relay-bin. 000001 under /data //server03-relay-bin.000001 .. ok. Creating hard links for unused relay log files completed. Executing SET GLOBAL relay_log_purge= 1 ; FLUSH LOGS; sleeping a few seconds so that SQL thread can delete older relay log files ( if it keeps up); SET GLOBAL relay_log_purge= 0 ; .. ok. Removing hard linked relay log files server03-relay-bin* under /data/.. done . 2014 - 04 - 20 15 : 47 : 27 : All relay log purging operations succeeded.[root@ 192.168 . 0.60 ~]#
6.检查SSH配置
检查MHA Manger到所有MHA Node的SSH连接状态:
[root@ 192.168 . 0.20 ~]# masterha_check_ssh --conf=/etc/masterha/app1.cnf Sun Apr 20 17 : 17 : 39 2014 - [warning] Global configuration file /etc/masterha_default.cnf not found. Skipping.Sun Apr 20 17 : 17 : 39 2014 - [ info ] Reading application default configurations from /etc/masterha/app1.cnf..Sun Apr 20 17 : 17 : 39 2014 - [ info ] Reading server configurations from /etc/masterha/app1.cnf..Sun Apr 20 17 : 17 : 39 2014 - [ info ] Starting SSH connection tests..Sun Apr 20 17 : 17 : 40 2014 - [debug] Sun Apr 20 17 : 17 : 39 2014 - [debug] Connecting via SSH from root@ 192.168 . 0.50 ( 192.168 . 0.50 : 22 ) to root@ 192.168 . 0.60 ( 192.168 . 0.60 : 22 )..Sun Apr 20 17 : 17 : 39 2014 - [debug] ok.Sun Apr 20 17 : 17 : 39 2014 - [debug] Connecting via SSH from root@ 192.168 . 0.50 ( 192.168 . 0.50 : 22 ) to root@ 192.168 . 0.70 ( 192.168 . 0.70 : 22 )..Sun Apr 20 17 : 17 : 39 2014 - [debug] ok.Sun Apr 20 17 : 17 : 40 2014 - [debug] Sun Apr 20 17 : 17 : 40 2014 - [debug] Connecting via SSH from root@ 192.168 . 0.60 ( 192.168 . 0.60 : 22 ) to root@ 192.168 . 0.50 ( 192.168 . 0.50 : 22 )..Sun Apr 20 17 : 17 : 40 2014 - [debug] ok.Sun Apr 20 17 : 17 : 40 2014 - [debug] Connecting via SSH from root@ 192.168 . 0.60 ( 192.168 . 0.60 : 22 ) to root@ 192.168 . 0.70 ( 192.168 . 0.70 : 22 )..Sun Apr 20 17 : 17 : 40 2014 - [debug] ok.Sun Apr 20 17 : 17 : 41 2014 - [debug] Sun Apr 20 17 : 17 : 40 2014 - [debug] Connecting via SSH from root@ 192.168 . 0.70 ( 192.168 . 0.70 : 22 ) to root@ 192.168 . 0.50 ( 192.168 . 0.50 : 22 )..Sun Apr 20 17 : 17 : 40 2014 - [debug] ok.Sun Apr 20 17 : 17 : 40 2014 - [debug] Connecting via SSH from root@ 192.168 . 0.70 ( 192.168 . 0.70 : 22 ) to root@ 192.168 . 0.60 ( 192.168 . 0.60 : 22 )..Sun Apr 20 17 : 17 : 41 2014 - [debug] ok.Sun Apr 20 17 : 17 : 41 2014 - [ info ] All SSH connection tests passed successfully.
可以看见各个节点ssh验证都是ok的。
7.检查整个复制环境状况。
通过masterha_check_repl脚本查看整个集群的状态
[root@ 192.168 . 0.20 ~]# masterha_check_repl --conf=/etc/masterha/app1.cnfSun Apr 20 18 : 36 : 55 2014 - [ info ] Checking replication health on 192.168 . 0.60 ..Sun Apr 20 18 : 36 : 55 2014 - [ info ] ok.Sun Apr 20 18 : 36 : 55 2014 - [ info ] Checking replication health on 192.168 . 0.70 ..Sun Apr 20 18 : 36 : 55 2014 - [ info ] ok.Sun Apr 20 18 : 36 : 55 2014 - [ info ] Checking master_ip_failover_script status:Sun Apr 20 18 : 36 : 55 2014 - [ info ] /usr/local/bin/master_ip_failover --command=status --ssh_user=root --orig_master_host= 192.168 . 0.50 --orig_master_ip= 192.168 . 0.50 --orig_master_port= 3306 Bareword "FIXME_xxx" not allowed while "strict subs" in use at /usr/local/bin/master_ip_failover line 88 .Execution of /usr/local/bin/master_ip_failover aborted due to compilation errors.Sun Apr 20 18 : 36 : 55 2014 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln214] Failed to get master_ip_failover_script status with return code 255 : 0 .Sun Apr 20 18 : 36 : 55 2014 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln383] Error happend on checking configurations. at /usr/local/bin/masterha_check_repl line 48 Sun Apr 20 18 : 36 : 55 2014 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln478] Error happened on monitoring servers.Sun Apr 20 18 : 36 : 55 2014 - [ info ] Got exit code 1 (Not master dead).MySQL Replication Health is NOT OK!
发现最后的结论说我的复制不是ok的。但是上面的信息明明说是正常的,自己也进数据库查看了。这里一直踩坑。一直纠结,后来无意中发现火丁笔记的博客,这才知道了原因,原来Failover两种方式:一种是虚拟IP地址,一种是全局配置文件。MHA并没有限定使用哪一种方式,而是让用户自己选择,虚拟IP地址的方式会牵扯到其它的软件,比如keepalive软件,而且还要修改脚本 master_ip_failover 。(最后修改脚本后才没有这个报错,自己不懂perl也是折腾的半死,去年买了块表)
如果发现如下错误:
Can 't exec "mysqlbinlog": No such file or directory at /usr/local/share/perl5/MHA/BinlogManager.pm line 99. mysqlbinlog version not found!
Testing mysql connection and privileges.. sh : mysql: command not found
解决方法如下,添加软连接(所有节点)
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/local/bin/mysqlbinlog
ln -s /usr/local/mysql/bin/mysql /usr/local/bin/mysql
所以先暂时注释master_ip_failover_script= /usr/local/bin/master_ip_failover这个选项。后面引入keepalived后和修改该脚本以后再开启该选项。
[root@ 192.168 . 0.20 ~]# grep master_ip_failover /etc/masterha/app1.cnf#master_ip_failover_script= /usr/local/bin/master_ip_failover[root@ 192.168 . 0.20 ~]#
再次进行状态查看:
Sun Apr 20 18 : 46 : 08 2014 - [ info ] Checking replication health on 192.168 . 0.60 ..Sun Apr 20 18 : 46 : 08 2014 - [ info ] ok.Sun Apr 20 18 : 46 : 08 2014 - [ info ] Checking replication health on 192.168 . 0.70 ..Sun Apr 20 18 : 46 : 08 2014 - [ info ] ok.Sun Apr 20 18 : 46 : 08 2014 - [warning] master_ip_failover_script is not defined.Sun Apr 20 18 : 46 : 08 2014 - [warning] shutdown_script is not defined.Sun Apr 20 18 : 46 : 08 2014 - [ info ] Got exit code 0 (Not master dead).MySQL Replication Health is OK.
已经没有明显报错,只有两个警告而已,复制也显示正常了。
8.检查MHA Manager的状态:
通过master_check_status脚本查看Manager的状态:
[root@ 192.168 . 0.20 ~]# masterha_check_status --conf=/etc/masterha/app1.cnfapp1 is stopped( 2 :NOT_RUNNING).[root@ 192.168 . 0.20 ~]#
注意:如果正常,会显示"PING_OK",否则会显示"NOT_RUNNING",这代表MHA监控没有开启。
9.开启MHA Manager监控
[root@ 192.168 . 0.20 ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/ null > /var/log/masterha/app1/manager.log 2 >& 1 & [ 1 ] 30867
启动参数介绍:
--remove_dead_master_conf      该参数代表当发生主从切换后,老的主库的ip将会从配置文件中移除。
--manger_log                            日志存放位置
--ignore_last_failover                 在缺省情况下,如果MHA检测到连续发生宕机,且两次宕机间隔不足8小时的话,则不会进行Failover,之所以这样限制是为了避免ping-pong效应。 该参数代表忽略上次MHA触发切换产生的文件 ,默认情况下,MHA发生切换后会在日志目录,也就是上面我设置的/data产生app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。

查看MHA Manager监控是否正常:
[root@ 192.168 . 0.20 ~]# masterha_check_status --conf=/etc/masterha/app1.cnfapp1 (pid: 20386 ) is running( 0 :PING_OK), master: 192.168 . 0.50

可以看见已经在监控了,而且master的主机为192.168.0.50
10.查看启动日志
[root@ 192.168 . 0.20 ~]# tail -n20 /var/log/masterha/app1/manager.logSun Apr 20 19 : 12 : 01 2014 - [ info ] Connecting to root@ 192.168 . 0.70 ( 192.168 . 0.70 : 22 ).. Checking slave recovery environment settings.. Opening /data/mysql/relay-log. info ... ok. Relay log found at /data/mysql, up to server04-relay-bin. 000002 Temporary relay log file is /data/mysql/server04-relay-bin. 000002 Testing mysql connection and privileges.. done . Testing mysqlbinlog output.. done . Cleaning up test file (s).. done .Sun Apr 20 19 : 12 : 01 2014 - [ info ] Slaves settings check done .Sun Apr 20 19 : 12 : 01 2014 - [ info ] 192.168 . 0.50 (current master) +-- 192.168 . 0.60 +-- 192.168 . 0.70 Sun Apr 20 19 : 12 : 01 2014 - [warning] master_ip_failover_script is not defined.Sun Apr 20 19 : 12 : 01 2014 - [warning] shutdown_script is not defined.Sun Apr 20 19 : 12 : 01 2014 - [ info ] Set master ping interval 1 seconds.Sun Apr 20 19 : 12 : 01 2014 - [ info ] Set secondary check script: /usr/local/bin/masterha_secondary_check -s server03 -s server02 --user=root --master_host=server02 --master_ip= 192.168 . 0.50 --master_port= 3306 Sun Apr 20 19 : 12 : 01 2014 - [ info ] Starting ping health check on 192.168 . 0.50 ( 192.168 . 0.50 : 3306 )..Sun Apr 20 19 : 12 : 01 2014 - [ info ] Ping(SELECT) succeeded, waiting until MySQL doesn 't respond.. [root@ 192.168 . 0.20 ~]#
其中"Ping(SELECT) succeeded, waiting until MySQL doesn't respond.."说明整个系统已经开始监控了。
11.关闭MHA Manage监控
关闭很简单,使用masterha_stop命令完成。
[root@ 192.168 . 0.20 ~]# masterha_stop --conf=/etc/masterha/app1.cnfStopped app1 successfully.[ 1 ]+ Exit 1 nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover --manager_log=/data/mamanager.log


12.配置VIP
vip配置可以采用两种方式:
一种通过keepalived的方式管理虚拟ip的浮动;
另外一种通过脚本方式启动虚拟ip的方式(即不需要keepalived或者heartbeat类似的软件)。
1.keepalived方式管理虚拟ip,keepalived配置方法如下:
在master 及 standby 库上安装。 使用vip

(1)下载软件进行并进行安装(两台master,准确的说一台是master,另外一台是备选master,在没有切换以前是slave):
[root@ 192.168 . 0.50 ~]# wget http: //www.keepalived.org/software/keepalived-1.2.12.tar.gz
tar xf keepalived- 1.2 . 12 . tar .gz cd keepalived- 1.2 . 12 ./configure --prefix=/usr/local/keepalived make && make install cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
--(cp /usr/local/keepalived-1.3.6/keepalived/etc/init.d/keepalived /etc/init.d/) cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
--(cp /usr/local/keepalived-1.3.6/keepalived/etc/sysconfig/keepalived /etc/sysconfig/) mkdir /etc/keepalived cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
--(cp /usr/local/keepalived-1.3.6/etc/keepalived/keepalived.conf /etc/keepalived/) cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
(2)配置keepalived的配置文件,在master上配置(192.168.0.50)
[root@ 192.168 . 0.50 ~]# cat /etc/keepalived/keepalived.conf! Configuration File for keepalivedglobal_defs { notification_email { saltstack@ 163 .com } notification_email_from [email protected] smtp_server 127.0 . 0.1 smtp_connect_timeout 30 router_id MySQL-HA}vrrp_instance VI_1 { state BACKUP interface eth1 virtual_router_id 51 priority 150 advert_int 1 nopreempt authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168 . 0.88 }}[root@ 192.168 . 0.50 ~]#
其中router_id MySQL HA表示设定keepalived组的名称,将192.168.0.88这个虚拟ip绑定到该主机的eth1网卡上,并且设置了状态为backup模式,将keepalived的模式设置为非抢占模式(nopreempt),priority 150表示设置的优先级为150。下面的配置略有不同,但是都是一个意思。
在候选master上配置(192.168.0.60)
[root@ 192.168 . 0.60 ~]# cat /etc/keepalived/keepalived.conf ! Configuration File for keepalivedglobal_defs { notification_email { saltstack@ 163 .com } notification_email_from [email protected] smtp_server 127.0 . 0.1 smtp_connect_timeout 30 router_id MySQL-HA}vrrp_instance VI_1 { state BACKUP interface eth1 virtual_router_id 51 priority 120 advert_int 1 nopreempt authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168 . 0.88 }}[root@ 192.168 . 0.60 ~]#
(3)启动keepalived服务,在master上启动并查看日志
[root@ 192.168 . 0.50 ~]# /etc/init.d/keepalived startStarting keepalived: [ OK ][root@ 192.168 . 0.50 ~]# tail -f /var/log/messagesApr 20 20 : 22 : 16 192 Keepalived_healthcheckers[ 15334 ]: Opening file '/etc/keepalived/keepalived.conf' .Apr 20 20 : 22 : 16 192 Keepalived_healthcheckers[ 15334 ]: Configuration is using : 7231 BytesApr 20 20 : 22 : 16 192 kernel: IPVS: Connection hash table configured (size= 4096 , memory=64Kbytes)Apr 20 20 : 22 : 16 192 kernel: IPVS: ipvs loaded.Apr 20 20 : 22 : 16 192 Keepalived_healthcheckers[ 15334 ]: Using LinkWatch kernel netlink reflector...Apr 20 20 : 22 : 19 192 Keepalived_vrrp[ 15335 ]: VRRP_Instance(VI_1) Transition to MASTER STATEApr 20 20 : 22 : 20 192 Keepalived_vrrp[ 15335 ]: VRRP_Instance(VI_1) Entering MASTER STATEApr 20 20 : 22 : 20 192 Keepalived_vrrp[ 15335 ]: VRRP_Instance(VI_1) setting protocol VIPs.Apr 20 20 : 22 : 20 192 Keepalived_vrrp[ 15335 ]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth1 for 192.168 . 0.88 Apr 20 20 : 22 : 20 192 Keepalived_healthcheckers[ 15334 ]: Netlink reflector reports IP 192.168 . 0.88 addedApr 20 20 : 22 : 25 192 Keepalived_vrrp[ 15335 ]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth1 for 192.168 . 0.88
发现已经将虚拟ip 192.168.0.88绑定了网卡eth1上。
(4)查看绑定情况
[root@ 192.168 . 0.50 ~]# ip addr | grep eth1 3 : eth1: mtu 1500 qdisc pfifo_fast state UP qlen 1000 inet 192.168 . 0.50 / 24 brd 192.168 . 0.255 scope global eth1 inet 192.168 . 0.88 / 32 scope global eth1[root@ 192.168 . 0.50 ~]#
在另外一台服务器,候选master上启动keepalived服务,并观察
[root@ 192.168 . 0.60 ~]# /etc/init.d/keepalived start ; tail -f /var/log/messagesStarting keepalived: [ OK ]Apr 20 20 : 26 : 18 192 Keepalived_vrrp[ 9472 ]: Registering gratuitous ARP shared channelApr 20 20 : 26 : 18 192 Keepalived_vrrp[ 9472 ]: Opening file '/etc/keepalived/keepalived.conf' .Apr 20 20 : 26 : 18 192 Keepalived_vrrp[ 9472 ]: Configuration is using : 62976 BytesApr 20 20 : 26 : 18 192 Keepalived_vrrp[ 9472 ]: Using LinkWatch kernel netlink reflector...Apr 20 20 : 26 : 18 192 Keepalived_vrrp[ 9472 ]: VRRP_Instance(VI_1) Entering BACKUP STATE Apr 20 20 : 26 : 18 192 Keepalived_vrrp[ 9472 ]: VRRP sockpool: [ifindex( 3 ), proto( 112 ), unicast( 0 ), fd( 10 , 11 )]Apr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Netlink reflector reports IP 192.168 . 80.138 addedApr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Netlink reflector reports IP 192.168 . 0.60 addedApr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Netlink reflector reports IP fe80::20c:29ff:fe9d:6a9e addedApr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Netlink reflector reports IP fe80::20c:29ff:fe9d:6aa8 addedApr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Registering Kernel netlink reflectorApr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Registering Kernel netlink command channelApr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Opening file '/etc/keepalived/keepalived.conf' .Apr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Configuration is using : 7231 BytesApr 20 20 : 26 : 18 192 kernel: IPVS: Registered protocols (TCP, UDP, AH, ESP)Apr 20 20 : 26 : 18 192 kernel: IPVS: Connection hash table configured (size= 4096 , memory=64Kbytes)Apr 20 20 : 26 : 18 192 kernel: IPVS: ipvs loaded.Apr 20 20 : 26 : 18 192 Keepalived_healthcheckers[ 9471 ]: Using LinkWatch kernel netlink reflector...
从上面的信息可以看到keepalived已经配置成功。
注意:
上面两台服务器的keepalived都设置为了BACKUP模式,在keepalived中2种模式,分别是master->backup模式和backup->backup模式。这两种模式有很大区别。在master->backup模式下,一旦主库宕机,虚拟ip会自动漂移到从库,当主库修复后,keepalived启动后,还会把虚拟ip抢占过来,即使设置了非抢占模式(nopreempt)抢占ip的动作也会发生。在backup->backup模式下,当主库宕机后虚拟ip会自动漂移到从库上,当原主库恢复和keepalived服务启动后,并不会抢占新主的虚拟ip,即使是优先级高于从库的优先级别,也不会发生抢占。为了减少ip漂移次数,通常是把修复好的主库当做新的备库。
--keepalived 关键时权重 设置(priority) 如果设置不一样,数字越大权重越大,恢复后,还是会飘逸之前节点上。

[root@newmachine037 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived

global_defs {
notification_email {
}
notification_email_from [email protected]
smtp_server smtp.163.com
smtp_connect_timeout 30
router_id MartinLee_MHA
#vrrp_skip_check_adv_addr
# vrrp_strict
#vrrp_garp_interval 0
# vrrp_gna_interval 0
}

vrrp_instance MHA_1 {
state BACKUP --都设置为backup 模式(主备节点)
interface em1
virtual_router_id 51
priority 110 --主备权重都为110. 切换后,vip 不会在飘逸回去。
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.41.138
}
}

#virtual_server 192.168.41.138 6616 {
# delay_loop 6
# lb_algo rr
# lb_kind DR
# persistence_timeout 50
# protocol TCP
#
## real_server 192.168.41.38 6606 {
# weight 1
# # TCP_CHECK {
# connect_timeout 5
# nb_get_retry 3
# delay_before_retry 3
# connect_port 6606
# }
#}
# real_server 192.168.41.37 6606 {
# weight 1
# TCP_CHECK {
## connect_timeout 5
# nb_get_retry 3
# delay_before_retry 3
# connect_port 6606
# }
#}
#}
--keepalive 这里使用的时1.3.6 二进制版本。

(5)MHA引入keepalived(MySQL服务进程挂掉时通过MHA 停止keepalived):
要想把keepalived服务引入MHA,我们只需要修改切换是触发的脚本文件master_ip_failover即可,在该脚本中添加在master发生宕机时对keepalived的处理。
编辑脚本/usr/local/bin/master_ip_failover,修改后如下,我对perl不熟悉,所以我这里完整贴出该脚本(主库上操作,192.168.0.50)。
在MHA Manager修改脚本修改后的内容如下(参考资料比较少):

#!/usr/bin/env perl use strict; use warnings FATAL => 'all' ; use Getopt::Long; my ( $command , $ssh_user , $orig_master_host , $orig_master_ip , $orig_master_port , $new_master_host , $new_master_ip , $new_master_port ); my $vip = '192.168.0.88' ; my $ssh_start_vip = "/etc/init.d/keepalived start" ; my $ssh_stop_vip = "/etc/init.d/keepalived stop" ;GetOptions( 'command=s' => \ $command , 'ssh_user=s' => \ $ssh_user , 'orig_master_host=s' => \ $orig_master_host , 'orig_master_ip=s' => \ $orig_master_ip , 'orig_master_port=i' => \ $orig_master_port , 'new_master_host=s' => \ $new_master_host , 'new_master_ip=s' => \ $new_master_ip , 'new_master_port=i' => \ $new_master_port ,); exit &main(); sub main { print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n" ; if ( $command eq "stop" || $command eq "stopssh" ) { my $exit_code = 1 ; eval { print "Disabling the VIP on old master: $orig_master_host \n" ; &stop_vip(); $exit_code = 0 ; }; if ($@) { warn "Got Error: $@\n" ; exit $exit_code ; } exit $exit_code ; } elsif ( $command eq "start" ) { my $exit_code = 10 ; eval { print "Enabling the VIP - $vip on the new master - $new_master_host \n" ; &start_vip(); $exit_code = 0 ; }; if ($@) { warn $@; exit $exit_code ; } exit $exit_code ; } elsif ( $command eq "status" ) { print "Checking the Status of the script.. OK \n" ; #`ssh $ssh_user\@cluster1 \" $ssh_start_vip \"`; exit 0 ; } else { &usage(); exit 1 ; }} # A simple system call that enable the VIP on the new master sub start_vip() { `ssh $ssh_user \@ $new_master_host \ " $ssh_start_vip \"`;}# A simple system call that disable the VIP on the old_mastersub stop_vip() {
return 0  unless  ($ssh_user); `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;}sub usage { print " Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n ";}
现在已经修改这个脚本了,我们现在打开在上面提到过的参数,再检查集群状态,看是否会报错。
[root@ 192.168 . 0.20 ~]# grep 'master_ip_failover_script' /etc/masterha/app1.cnfmaster_ip_failover_script= /usr/local/bin/master_ip_failover[root@ 192.168 . 0.20 ~]#
[root@ 192.168 . 0.20 ~]# masterha_check_repl --conf=/etc/masterha/app1.cnf Sun Apr 20 23 : 10 : 01 2014 - [ info ] Slaves settings check done .Sun Apr 20 23 : 10 : 01 2014 - [ info ] 192.168 . 0.50 (current master) +-- 192.168 . 0.60 +-- 192.168 . 0.70 Sun Apr 20 23 : 10 : 01 2014 - [ info ] Checking replication health on 192.168 . 0.60 ..Sun Apr 20 23 : 10 : 01 2014 - [ info ] ok.Sun Apr 20 23 : 10 : 01 2014 - [ info ] Checking replication health on 192.168 . 0.70 ..Sun Apr 20 23 : 10 : 01 2014 - [ info ] ok.Sun Apr 20 23 : 10 : 01 2014 - [ info ] Checking master_ip_failover_script status:Sun Apr 20 23 : 10 : 01 2014 - [ info ] /usr/local/bin/master_ip_failover --command=status --ssh_user=root --orig_master_host= 192.168 . 0.50 --orig_master_ip= 192.168 . 0.50 --orig_master_port= 3306 Sun Apr 20 23 : 10 : 01 2014 - [ info ] OK.Sun Apr 20 23 : 10 : 01 2014 - [warning] shutdown_script is not defined.Sun Apr 20 23 : 10 : 01 2014 - [ info ] Got exit code 0 (Not master dead).MySQL Replication Health is OK.
可以看见已经没有报错了。哈哈
 /usr/local/bin/master_ip_failover添加或者修改的内容意思是当主库数据库发生故障时,会触发MHA切换,MHA Manager会停掉主库上的keepalived服务,触发虚拟ip漂移到备选从库,从而完成切换。当然可以在keepalived里面引入脚本,这个脚本监控mysql是否正常运行,如果不正常,则调用该脚本杀掉keepalived进程。
2.通过脚本的方式管理VIP。这里是修改/usr/local/bin/master_ip_failover,也可以使用其他的语言完成,比如php语言。使用php脚本编写的failover这里就不介绍了。修改完成后内容如下,而且如果使用脚本管理vip的话,需要手动在master服务器上绑定一个vip(发现修改修改对perl竟然有感觉了。难道我适合学Perl?^_^)
[root@ 192.168 . 0.50 ~]# /sbin/ ifconfig eth1: 1 192.168 . 0.88 / 24
通过脚本来维护vip的测试我这里就不说明了,童鞋们自行测试,脚本如下(测试通过)
--新增,一般使用mysql 用户操作,需要使用sudo ,sudo服务编辑
[root@newmachine038 etc]# vim /etc/sudoers
新增: mysql ALL=(ALL) NOPASSWD:ALL --sudo不需要密码
#Defaults requiretty --注释掉。
################ mysql 用户启动,需调用keepalived,但是mysql 对网卡 没有权限,所以要加sudo########
#!/usr/bin/env perl use strict; use warnings FATAL => 'all' ; use Getopt::Long; my ( $command , $ssh_user , $orig_master_host , $orig_master_ip , $orig_master_port , $new_master_host , $new_master_ip , $new_master_port ); my $vip = '192.168.0.88/24' ; my $key = '1' ; my $ssh_start_vip = " sudo /sbin/ifconfig eth1:$key $vip" ; --添加sudo my $ssh_stop_vip = " sudo /sbin/ifconfig eth1:$key down" ; --添加sudoGetOptions( 'command=s' => \ $command , 'ssh_user=s' => \ $ssh_user , 'orig_master_host=s' => \ $orig_master_host , 'orig_master_ip=s' => \ $orig_master_ip , 'orig_master_port=i' => \ $orig_master_port , 'new_master_host=s' => \ $new_master_host , 'new_master_ip=s' => \ $new_master_ip , 'new_master_port=i' => \ $new_master_port ,); exit &main(); sub main { print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n" ; if ( $command eq "stop" || $command eq "stopssh" ) { my $exit_code = 1 ; eval { print "Disabling the VIP on old master: $orig_master_host \n" ; &stop_vip(); $exit_code = 0 ; }; if ($@) { warn "Got Error: $@\n" ; exit $exit_code ; } exit $exit_code ; } elsif ( $command eq "start" ) { my $exit_code = 10 ; eval { print "Enabling the VIP - $vip on the new master - $new_master_host \n" ; &start_vip(); $exit_code = 0 ; }; if ($@) { warn $@; exit $exit_code ; } exit $exit_code ; } elsif ( $command eq "status" ) { print "Checking the Status of the script.. OK \n" ; exit 0 ; } else { &usage(); exit 1 ; }} sub start_vip() { `ssh $ssh_user \@ $new_master_host \ " $ssh_start_vip \"`;}sub stop_vip() {
 return 0  unless  ($ssh_user); `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;}sub usage { print " Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n ";}

为了防止脑裂发生,推荐生产环境采用脚本的方式来管理虚拟ip,而不是使用keepalived来完成。到此为止,基本MHA集群已经配置完毕。接下来就是实际的测试环节了。通过一些测试来看一下MHA到底是如何进行工作的。下面将从MHA自动failover,我们手动failover,在线切换三种方式来介绍MHA的工作情况。
一.自动Failover(必须先启动MHA Manager,否则无法自动切换,当然手动切换不需要开启MHA Manager监控。各位童鞋请参考前面启动MHA Manager)
测试环境再次贴一下,文章太长,自己都搞晕了。
角色 ip地址 主机名 server_id 类型Monitor host 192.168 . 0.20 server01 - 监控复制组Master 192.168 . 0.50 server02 1 写入Candicate master 192.168 . 0.60 server03 2 读Slave 192.168 . 0.70 server04 3
自动failover模拟测试的操作步骤如下。
(1)使用sysbench生成测试数据(使用yum快速安装)
yum install sysbench -y
在主库(192.168.0.50)上进行sysbench数据生成,在sbtest库下生成sbtest表,共100W记录。
[root@ 192.168 . 0.50 ~]# sysbench --test=oltp --oltp-table-size= 1000000 --oltp-read-only=off --init-rng=on --num-threads= 16 --max-requests= 0 --oltp-dist-type=uniform --max- time = 1800 --mysql-user=root --mysql-socket=/tmp/mysql.sock --mysql-password= 123456 --db-driver=mysql --mysql-table-engine=innodb --oltp-test-mode=complex prepare
(2)停掉slave sql线程,模拟主从延时。(192.168.0.60)
mysql > stop slave io_thread;Query OK, 0 rows affected ( 0.08 sec)mysql >
另外一台slave我们没有停止io线程,所以还在继续接收日志。
(3)模拟sysbench压力测试。
在主库上(192.168.0.50)进行压力测试,持续时间为3分钟,产生大量的binlog。
[root@ 192.168 . 0.50 ~]# sysbench --test=oltp --oltp-table-size= 1000000 --oltp-read-only=off --init-rng=on --num-threads= 16 --max-requests= 0 --oltp-dist-type=uniform --max- time = 180 --mysql-user=root --mysql-socket=/tmp/mysql.sock --mysql-password= 123456 --db-driver=mysql --mysql-table-engine=innodb --oltp-test-mode=complex run sysbench 0.4 . 12 : multi-threaded system evaluation benchmarkRunning the test with following options:Number of threads: 16 Initializing random number generator from timer.Doing OLTP test.Running mixed OLTP testUsing Uniform distributionUsing "BEGIN" for starting transactionsUsing auto_inc on the id columnThreads started!Time limit exceeded, exiting...( last message repeated 15 times)Done.OLTP test statistics: queries performed: read: 15092 write : 5390 other: 2156 total: 22638 transactions: 1078 ( 5.92 per sec.) deadlocks: 0 ( 0.00 per sec.) read/ write requests: 20482 ( 112.56 per sec.) other operations: 2156 ( 11.85 per sec.)Test execution summary: total time : 181 .9728s total number of events: 1078 total time taken by event execution: 2910.4518 per-request statistics: min: 934 .29ms avg: 2699 .86ms max: 7679 .95ms approx. 95 percentile: 4441 .47msThreads fairness: events (avg/stddev): 67.3750 / 1.49 execution time (avg/stddev): 181.9032 / 0.11
(4)开启slave(192.168.0.60)上的IO线程,追赶落后于master的binlog。
mysql > start slave io_thread; Query OK, 0 rows affected ( 0.00 sec)mysql >
(5)杀掉主库mysql进程,模拟主库发生故障,进行自动failover操作。
[root@ 192.168 . 0.50 ~]# pkill - 9 mysqld
(6)查看MHA切换日志,了解整个切换过程,在192.168.0.20上查看日志:
  View Code
看到最后的Master failover to 192.168.0.60(192.168.0.60:3306) completed successfully.说明备选master现在已经上位了。
从上面的输出可以看出整个MHA的切换过程,共包括以下的步骤:
1.配置文件检查阶段,这个阶段会检查整个集群配置文件配置
2.宕机的master处理,这个阶段包括虚拟ip摘除操作,主机关机操作(这个我这里还没有实现,需要研究)
3.复制dead maste和最新slave相差的relay log,并保存到MHA Manger具体的目录下
4.识别含有最新更新的slave
5.应用从master保存的二进制日志事件(binlog events)
6.提升一个slave为新的master进行复制
7.使其他的slave连接新的master进行复制
最后启动MHA Manger监控,查看集群里面现在谁是master(在切换后监控就停止了。。。还有东西没搞对?)后来在官方网站看到这句话就明白了 。
Running MHA Manager from daemontools
Currently MHA Manager process does not run as a daemon. If failover completed successfully or the master process was killed by accident, the manager stops working. To run as a daemon, daemontool. or any external daemon program can be used. Here is an example to run from daemontools.
[root@ 192.168 . 0.20 ~]# masterha_check_status --conf=/etc/masterha/app1.cnfapp1 (pid: 23971 ) is running( 0 :PING_OK), master: 192.168 . 0.60 [root@ 192.168 . 0.20 ~]#
二.手动Failover( MHA Manager必须没有运行
手动failover,这种场景意味着在业务上没有启用MHA自动切换功能,当主服务器故障时,人工手动调用MHA来进行故障切换操作,具体命令如下:
注意:如果,MHA manager检测到没有dead的server,将报错,并结束failover: 
Mon Apr 21 21 : 23 : 33 2014 - [ info ] Dead Servers:Mon Apr 21 21 : 23 : 33 2014 - [error][/usr/local/share/perl5/MHA/MasterFailover.pm, ln181] None of server is dead. Stop failover.Mon Apr 21 21 : 23 : 33 2014 - [error][/usr/local/share/perl5/MHA/ManagerUtil.pm, ln178] Got ERROR: at /usr/local/bin/masterha_master_switch line 53
进行手动切换命令如下:
[root@ 192.168 . 0.20 ~]# masterha_master_switch --master_state=dead --conf=/etc/masterha/app1.cnf --dead_master_host= 192.168 . 0.50 --dead_master_port= 3306 --new_master_host= 192.168 . 0.60 --new_master_port= 3306 --ignore_last_failover
输出的信息会询问你是否进行切换:
  View Code
上述模拟了master宕机的情况下手动把192.168.0.60提升为主库的操作过程。
三.在线进行切换
 在许多情况下, 需要将现有的主服务器迁移到另外一台服务器上。 比如主服务器硬件故障,RAID 控制卡需要重建,将主服务器移到性能更好的服务器上等等。维护主服务器引起性能下降, 导致停机时间至少无法写入数据。 另外, 阻塞或杀掉当前运行的会话会导致主主之间数据不一致的问题发生。 MHA 提供快速切换和优雅的阻塞写入,这个切换过程只需要 0.5-2s 的时间,这段时间内数据是无法写入的。在很多情况下,0.5-2s 的阻塞写入是可以接受的。因此切换主服务器不需要计划分配维护时间窗口。
MHA在线切换的大概过程:
1.检测复制设置和确定当前主服务器
2.确定新的主服务器
3.阻塞写入到当前主服务器
4.等待所有从服务器赶上复制
5.授予写入到新的主服务器
6.重新设置从服务器 
注意,在线切换的时候应用架构需要考虑以下两个问题:
1.自动识别master和slave的问题(master的机器可能会切换),如果采用了vip的方式,基本可以解决这个问题。
2.负载均衡的问题(可以定义大概的读写比例,每台机器可承担的负载比例,当有机器离开集群时,需要考虑这个问题)
为了保证数据完全一致性,在最快的时间内完成切换,MHA的在线切换必须满足以下条件才会切换成功,否则会切换失败。
1.所有slave的IO线程都在运行
2.所有slave的SQL线程都在运行
3.所有的show slave status的输出中Seconds_Behind_Master参数小于或者等于running_updates_limit秒,如果在切换过程中不指定running_updates_limit,那么默认情况下running_updates_limit为1秒。
4.在master端,通过show processlist输出,没有一个更新花费的时间大于running_updates_limit秒。
在线切换步骤如下:
首先,停掉MHA监控:
[root@ 192.168 . 0.20 ~]# masterha_stop --conf=/etc/masterha/app1.cnf
其次,进行在线切换操作(模拟在线切换主库操作,原主库192.168.0.50变为slave,192.168.0.60提升为新的主库)
[root@ 192.168 . 0.20 ~]# masterha_master_switch --conf=/etc/masterha/app1.cnf --master_state=alive --new_master_host= 192.168 . 0.60 --new_master_port= 3306 --orig_master_is_new_slave --running_updates_limit= 10000
最后查看日志,了解切换过程,输出信息如下:
  View Code
其中参数的意思:
--orig_master_is_new_slave 切换时加上此参数是将原 master 变为 slave 节点,如果不加此参数,原来的 master 将不启动
--running_updates_limit=10000,故障切换时,候选master 如果有延迟的话, mha 切换不能成功,加上此参数表示延迟在此时间范围内都可切换(单位为s),但是切换的时间长短是由recover 时relay 日志的大小决定 
注意:由于在线进行切换需要调用到master_ip_online_change这个脚本,但是由于该脚本不完整,需要自己进行相应的修改,我google到后发现还是有问题,脚本中new_master_password这个变量获取不到,导致在线切换失败,所以进行了相关的硬编码,直接把mysql的root用户密码赋值给变量new_master_password,如果有哪位大牛知道原因,请指点指点。这个脚本还可以管理vip。下面贴出脚本:
#!/usr/bin/env perl# Copyright (C) 2011 DeNA Co.,Ltd.## This program is free software; you can redistribute it and/or modify# it under the terms of the GNU General Public License as published by# the Free Software Foundation; either version 2 of the License, or# (at your option) any later version.## This program is distributed in the hope that it will be useful,# but WITHOUT ANY WARRANTY; without even the implied warranty of# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the# GNU General Public License for more details.## You should have received a copy of the GNU General Public License# along with this program; if not, write to the Free Software# Foundation, Inc.,# 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA## Note: This is a sample script and is not complete. Modify the script based on your environment. use strict; use warnings FATAL => 'all'; use Getopt::Long; use MHA::DBHelper; use MHA::NodeUtil; use Time::HiRes qw( sleep gettimeofday tv_interval ); use Data::Dumper; my $_tstart; my $_running_interval = 0.1; my ( $command, $orig_master_host, $orig_master_ip, $orig_master_port, $orig_master_user, $new_master_host, $new_master_ip, $new_master_port, $new_master_user, ); my $vip = '192.168.0.88/24'; # Virtual IP my $key = "1"; my $ssh_start_vip = "/sbin/ifconfig eth1:$key $vip"; my $ssh_stop_vip = "/sbin/ifconfig eth1:$key down"; my $ssh_user = "root"; my $new_master_password= '123456'; my $orig_master_password= '123456';GetOptions( 'command=s' => \ $command, #'ssh_user=s' => \$ssh_user, 'orig_master_host=s' => \ $orig_master_host, 'orig_master_ip=s' => \ $orig_master_ip, 'orig_master_port=i' => \ $orig_master_port, 'orig_master_user=s' => \ $orig_master_user, #'orig_master_password=s' => \$orig_master_password, 'new_master_host=s' => \ $new_master_host, 'new_master_ip=s' => \ $new_master_ip, 'new_master_port=i' => \ $new_master_port, 'new_master_user=s' => \ $new_master_user, #'new_master_password=s' => \$new_master_password,); exit &main(); sub current_time_us { my ( $sec, $microsec ) = gettimeofday(); my $curdate = localtime( $sec); return $curdate . " " . sprintf( "%06d", $microsec );} sub sleep_until { my $elapsed = tv_interval( $_tstart); if ( $_running_interval > $elapsed ) { sleep( $_running_interval - $elapsed ); }} sub get_threads_util { my $dbh = shift; my $my_connection_id = shift; my $running_time_threshold = shift; my $type = shift; $running_time_threshold = 0 unless ( $running_time_threshold); $type = 0 unless ( $type); my @threads; my $sth = $dbh->prepare( "SHOW PROCESSLIST"); $sth->execute(); while ( my $ref = $sth->fetchrow_hashref() ) { my $id = $ref->{Id}; my $user = $ref->{User}; my $host = $ref->{Host}; my $command = $ref->{Command}; my $state = $ref->{State}; my $query_time = $ref->{ Time}; my $info = $ref->{Info}; $info =~ s/^\s*(.*?)\s*$/$ 1/ if defined( $info); next if ( $my_connection_id == $id ); next if ( defined( $query_time) && $query_time < $running_time_threshold ); next if ( defined( $command) && $command eq "Binlog Dump" ); next if ( defined( $user) && $user eq "system user" ); next if ( defined( $command) && $command eq "Sleep" && defined( $query_time) && $query_time >= 1 ); if ( $type >= 1 ) { next if ( defined( $command) && $command eq "Sleep" ); next if ( defined( $command) && $command eq "Connect" ); } if ( $type >= 2 ) { next if ( defined( $info) && $info =~ m/^ select/i ); next if ( defined( $info) && $info =~ m/^show/i ); } push @threads, $ref; } return @threads;} sub main { if ( $command eq "stop" ) { ## Gracefully killing connections on the current master # 1. Set read_only= 1 on the new master # 2. DROP USER so that no app user can establish new connections # 3. Set read_only= 1 on the current master # 4. Kill current queries # * Any database access failure will result in script die. my $exit_code = 1; eval { ## Setting read_only=1 on the new master (to avoid accident) my $new_master_handler = new MHA::DBHelper(); # args: hostname, port, user, password, raise_error(die_on_error)_or_not $new_master_handler-> connect( $new_master_ip, $new_master_port, $new_master_user, $new_master_password, 1 ); print current_time_us() . " Set read_only on the new master.. "; $new_master_handler->enable_read_only(); if ( $new_master_handler->is_read_only() ) { print "ok.\n"; } else { die "Failed!\n"; } $new_master_handler->disconnect(); # Connecting to the orig master, die if any database error happens my $orig_master_handler = new MHA::DBHelper(); $orig_master_handler-> connect( $orig_master_ip, $orig_master_port, $orig_master_user, $orig_master_password, 1 ); ## Drop application user so that nobody can connect. Disabling per-session binlog beforehand #$orig_master_handler->disable_log_bin_local(); #print current_time_us() . " Drpping app user on the orig master..\n"; #FIXME_xxx_drop_app_user($orig_master_handler); ## Waiting for N * 100 milliseconds so that current connections can exit my $time_until_read_only = 15; $_tstart = [gettimeofday]; my @threads = get_threads_util( $orig_master_handler->{dbh}, $orig_master_handler->{connection_id} ); while ( $time_until_read_only > 0 && $ #threads >= 0 ) { if ( $time_until_read_only % 5 == 0 ) { printf "%s Waiting all running %d threads are disconnected.. (max %d milliseconds)\n", current_time_us(), $ #threads + 1, $time_until_read_only * 100; if ( $ #threads < 5 ) { print Data::Dumper->new( [ $_] )->Indent( 0)->Terse( 1)-> Dump . "\n" foreach ( @threads); } } sleep_until(); $_tstart = [gettimeofday]; $time_until_read_only--; @threads = get_threads_util( $orig_master_handler->{dbh}, $orig_master_handler->{connection_id} ); } ## Setting read_only=1 on the current master so that nobody(except SUPER) can write print current_time_us() . " Set read_only=1 on the orig master.. "; $orig_master_handler->enable_read_only(); if ( $orig_master_handler->is_read_only() ) { print "ok.\n"; } else { die "Failed!\n"; } ## Waiting for M * 100 milliseconds so that current update queries can complete my $time_until_kill_threads = 5; @threads = get_threads_util( $orig_master_handler->{dbh}, $orig_master_handler->{connection_id} ); while ( $time_until_kill_threads > 0 && $ #threads >= 0 ) { if ( $time_until_kill_threads % 5 == 0 ) { printf "%s Waiting all running %d queries are disconnected.. (max %d milliseconds)\n", current_time_us(), $ #threads + 1, $time_until_kill_threads * 100; if ( $ #threads < 5 ) { print Data::Dumper->new( [ $_] )->Indent( 0)->Terse( 1)-> Dump . "\n" foreach ( @threads); } } sleep_until(); $_tstart = [gettimeofday]; $time_until_kill_threads--; @threads = get_threads_util( $orig_master_handler->{dbh}, $orig_master_handler->{connection_id} ); } print "Disabling the VIP on old master: $orig_master_host \n"; &stop_vip(); ## Terminating all threads print current_time_us() . " Killing all application threads..\n"; $orig_master_handler->kill_threads( @threads) if ( $ #threads >= 0 ); print current_time_us() . " done.\n"; #$orig_master_handler->enable_log_bin_local(); $orig_master_handler->disconnect(); ## After finishing the script, MHA executes FLUSH TABLES WITH READ LOCK $exit_code = 0; }; if ($@) { warn "Got Error: $@\n"; exit $exit_code; } exit $exit_code; } elsif ( $command eq "start" ) { ## Activating master ip on the new master # 1. Create app user with write privileges # 2. Moving backup script if needed # 3. Register new master's ip to the catalog database# We don't return error even though activating updatable accounts/ip failed so that we don't interrupt slaves' recovery.# If exit code is 0 or 10, MHA does not abort my $exit_code = 10; eval { my $new_master_handler = new MHA::DBHelper(); # args: hostname, port, user, password, raise_error_or_not $new_master_handler-> connect( $new_master_ip, $new_master_port, $new_master_user, $new_master_password, 1 ); ## Set read_only=0 on the new master #$new_master_handler->disable_log_bin_local(); print current_time_us() . " Set read_only=0 on the new master.\n"; $new_master_handler->disable_read_only(); ## Creating an app user on the new master #print current_time_us() . " Creating app user on the new master..\n"; #FIXME_xxx_create_app_user($new_master_handler); #$new_master_handler->enable_log_bin_local(); $new_master_handler->disconnect(); ## Update master ip on the catalog database, etc print "Enabling the VIP - $vip on the new master - $new_master_host \n"; &start_vip(); $exit_code = 0; }; if ($@) { warn "Got Error: $@\n"; exit $exit_code; } exit $exit_code; } elsif ( $command eq "status" ) { # do nothing exit 0; } else { &usage(); exit 1; }} # A simple system call that enable the VIP on the new master sub start_vip() { `ssh $ssh_user\@ $new_master_host \ " $ssh_start_vip \"`;}# A simple system call that disable the VIP on the old_mastersub stop_vip() { `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;}sub usage { print"Usage: master_ip_online_change --command=start|stop|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n "; die;}

四.修复宕机的Master 
通常情况下自动切换以后,原master可能已经废弃掉,待原master主机修复后,如果数据完整的情况下,可能想把原来master重新作为新主库的slave,这时我们可以借助当时自动切换时刻的MHA日志来完成对原master的修复。下面是提取相关日志的命令:
[root@ 192.168 . 0.20 app1]# grep -i "All other slaves should start" manager.log Mon Apr 21 22 : 28 : 33 2014 - [ info ] All other slaves should start replication from here. Statement should be: CHANGE MASTER TO MASTER_HOST= '192.168.0.60' , MASTER_PORT= 3306 , MASTER_LOG_FILE= 'mysql-bin.000022' , MASTER_LOG_POS= 506716 , MASTER_USER= 'repl' , MASTER_PASSWORD= 'xxx' ;[root@ 192.168 . 0.20 app1]#
获取上述信息以后,就可以直接在修复后的master上执行change master to相关操作,重新作为从库了。
最后补充一下邮件发送脚本send_report ,这个脚本在询问一位朋友后可以使用,如下:
 
#!/usr/bin/perl# Copyright (C) 2011 DeNA Co.,Ltd.## This program is free software; you can redistribute it and/or modify# it under the terms of the GNU General Public License as published by# the Free Software Foundation; either version 2 of the License, or# (at your option) any later version.## This program is distributed in the hope that it will be useful,# but WITHOUT ANY WARRANTY; without even the implied warranty of# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the# GNU General Public License for more details.## You should have received a copy of the GNU General Public License# along with this program; if not, write to the Free Software# Foundation, Inc.,# 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA## Note: This is a sample script and is not complete. Modify the script based on your environment. use strict; use warnings FATAL => 'all'; use Mail::Sender; use Getopt::Long; #new_master_host and new_slave_hosts are set only when recovering master succeeded my ( $dead_master_host, $new_master_host, $new_slave_hosts, $subject, $body ); my $smtp= 'smtp.163.com'; my $mail_from= 'xxxx'; my $mail_user= 'xxxxx'; my $mail_pass= 'xxxxx'; my $mail_to=[ 'xxxx', 'xxxx'];GetOptions( 'orig_master_host=s' => \ $dead_master_host, 'new_master_host=s' => \ $new_master_host, 'new_slave_hosts=s' => \ $new_slave_hosts, 'subject=s' => \ $subject, 'body=s' => \ $body,);mailToContacts( $smtp, $mail_from, $mail_user, $mail_pass, $mail_to, $subject, $body); sub mailToContacts { my ( $smtp, $mail_from, $user, $passwd, $mail_to, $subject, $msg ) = @_; open my $DEBUG, "> /tmp/monitormail.log" or die "Can't open the debug file:$!\n"; my $sender = new Mail::Sender { ctype => 'text/plain; charset=utf-8', encoding => 'utf-8', smtp => $smtp, from => $mail_from, auth => 'LOGIN', TLS_allowed => '0', authid => $user, authpwd => $passwd, to => $mail_to, subject => $subject, debug => $DEBUG }; $sender->MailMsg( { msg => $msg, debug => $DEBUG } ) or print $Mail::Sender::Error; return 1;}
# Do whatever you want here exit 0;

最后切换以后发送告警的邮件示例,注意,这个是我后续的测试,和上面环境出现的ip不一致不要在意。

总结:
目前高可用方案可以一定程度上实现数据库的高可用,比如前面文章介绍的 MMMheartbeat+drbdCluster等。还有percona的Galera Cluster等。这些高可用软件各有优劣。在进行高可用方案选择时,主要是看业务还有对数据一致性方面的要求。最后出于对数据库的高可用和数据一致性的要求,推荐使用MHA架构。

参考:
https://keithlan.github.io/2016/08/05/mha_practice/
http://wubx.net/mha-parameters/
http://www.sohu.com/a/208223083_463989



################ 自建参数配置 ################
keepalive:
[root@newmachine038 etc]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived

global_defs {
notification_email {
}
notification_email_from [email protected]
smtp_server 121.14.110.56
smtp_connect_timeout 30
router_id MartinLee_MHA
}

vrrp_instance MHA_1 {
state BACKUP
interface em1
virtual_router_id 51
priority 110
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.41.138
}
}

#virtual_server 192.168.41.138 6616 {
# delay_loop 6
# lb_algo rr
# lb_kind DR
# persistence_timeout 50
# protocol TCP
#
# real_server 192.168.41.38 6606 {
# weight 1
# TCP_CHECK {
# connect_timeout 5
# nb_get_retry 3
# delay_before_retry 3
# connect_port 6606
# }
#}
# real_server 192.168.41.37 6606 {
# weight 1
# TCP_CHECK {
# connect_timeout 5
# nb_get_retry 3
# delay_before_retry 3
# connect_port 6606
# }
#}
##}
[root@newmachine038 scripts]# ls
master_ip_failover nohup.out
[root@newmachine038 scripts]# cat master_ip_failover
#!/usr/bin/env perl

use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);

my $vip = '192.168.41.138';
my $ssh_start_vip = "sudo /etc/init.d/keepalived start";
my $ssh_stop_vip = "sudo /etc/init.d/keepalived stop";

GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {

my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
#`ssh $ssh_user\@cluster1 \" $ssh_start_vip \"`;
exit 0;
}
else {
&usage();
exit 1;
}
}

# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
return 0 unless ($ssh_user);
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}

sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}


###### mha ######
[root@newmachine038 scripts]# cd /etc/masterha/
[root@newmachine038 masterha]# cat master1.conf
[server default]
manager_log=/data/mydbmha/manager.log
manager_workdir=/data/mydbmha
master_binlog_dir=/data/mysql/mylog
master_ip_failover_script=/data/mydbmha/scripts/master_ip_failover
master_ip_online_change_script=/data/mydbmha/scripts/master_ip_online_change
password=restore
ping_interval=5
remote_workdir=/tmp
repl_password=restore
repl_user=restore
report_script=/data/mydbmha/scripts/send_report
secondary_check_script=masterha_secondary_check -s newmachine038 -s newmachine037
shutdown_script=""
ssh_user=mysql
user=restore

[server1]
hostname=192.168.41.38
port=6606


[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.41.37
port=6606

[server3]
hostname=192.168.41.36
no_master=1
port=6606
[root@newmachine038 masterha]# cat master2.conf
[server default]
manager_log=/data/mydbmha/manager.log
manager_workdir=/data/mydbmha
master_binlog_dir=/data/mysql/mylog
master_ip_failover_script=/data/mydbmha/scripts/master_ip_failover
master_ip_online_change_script=/data/mydbmha/scripts/master_ip_online_change
password=restore
ping_interval=5
remote_workdir=/tmp
repl_password=restore
repl_user=restore
report_script=/data/mydbmha/scripts/send_report
secondary_check_script=masterha_secondary_check -s newmachine037 -s newmachine038
shutdown_script=""
ssh_user=mysql
user=restore

[server1]
candidate_master=1
check_repl_delay=0
hostname=192.168.41.37
port=6606

[server2]
candidate_master=2
check_repl_delay=0
hostname=192.168.41.38
port=6606

[server3]
hostname=192.168.41.36
no_master=1
port=6606


[root@newmachine038 etc]# cd /data/mydbmha/scripts/
[root@newmachine038 scripts]# cat master_ip_failover
#!/usr/bin/env perl

use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);

my $vip = '192.168.41.138';
my $ssh_start_vip = "sudo /etc/init.d/keepalived start";
my $ssh_stop_vip = "sudo /etc/init.d/keepalived stop";

GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {

my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
#`ssh $ssh_user\@cluster1 \" $ssh_start_vip \"`;
exit 0;
}
else {
&usage();
exit 1;
}
}

# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
return 0 unless ($ssh_user);
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}

sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}


#### 切换:

1, 主库切换:
--检测 keepalived (ip addr)
--mysql 状态,复制状态,读写状态
--主库 关闭,查看keepalived 日志(/var/log/messages) ,查看manager.log 日志
--切换到standy 库以后, standy 库 由read only 变为 write 可写
--standby 的 slave status 不存在 了。

2,原主库启动.
--standby(现主库) 重配置 replicate slave . (change master to master_host,master_port,master_user,master_password,master_log_pos,master_log_file)
--重启 keepalive.
--检测 mha conf 文件。


##### 报错信息 #######
Thu Jan 4 09:43:05 2018 - [info] Checking replication filtering settings..
Thu Jan 4 09:43:05 2018 - [info] binlog_do_db= , binlog_ignore_db= information_schema,perfo

rmance_schema,sys
Thu Jan 4 09:43:05 2018 - [error][/usr/local/share/perl5/MHA/ServerManager.pm, ln394] Binlog filtering check failed on 192.168.41.36(192.168.41.36:6606)! All log-bin enabled servers must have same binlog filtering rules (same binlog-do-db and binlog-ignore-db). Check SHOW MASTER STATUS output and set my.cnf correctly.
Thu Jan 4 09:43:05 2018 - [warning] Bad Binlog/Replication filtering rules:
192.168.41.38 (current_master)


解决方法:
根据提示: 192.168.41.36 这台机器的 binlog_do_db 及 binlog_ignore_db 与 主库不一致 导致报错原因:

#binlog_ignore_db=sys
#binlog_ignore_db=performance_schema
#binlog_ignore_db=information_schema

添加后,重启实例。



如果发现如下错误:(mysqlbinlog version not found)

Can't exec "mysqlbinlog": No such file or directory at /usr/local/share/perl5/MHA/BinlogManager.pm line 99.
mysqlbinlog version not found!

Testing mysql connection and privileges..sh: mysql: command not found

解决方法如下,添加软连接(所有节点)

ln -s /usr/local/mysql/bin/mysqlbinlog /usr/local/bin/mysqlbinlog

ln -s /usr/local/mysql/bin/mysql /usr/local/bin/mysql

chown -R mysql:mysql /usr/local/bin/mysql*




如果发现一下错误:(master_ip_failover)
Thu Jan 4 10:23:26 2018 - [info] Checking master_ip_failover_script status:
Thu Jan 4 10:23:26 2018 - [info] /data/mydbmha/scripts/master_ip_failover --command=status --ssh_user=mysql --orig_master_host=192.168.41.38 --orig_master_ip=192.168.41.38 --orig_master_port=6606
Thu Jan 4 10:23:26 2018 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln386] Error happend on checking configurations. Can't exec "/data/mydbmha/scripts/master_ip_failover": No such file or directory at /usr/local/share/perl5/MHA/ManagerUtil.pm line 68.
Thu Jan 4 10:23:26 2018 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln482] Error happened on monitoring servers.
Thu Jan 4 10:23:26 2018 - [info] Got exit code 1 (Not master dead).

MySQL Replication Health is NOT OK!
Thu Jan 4 10:23:26 2018 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln216] Failed to get master_ip_failover_script status with return code 1:0.
Thu Jan 4 10:23:26 2018 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln386] Error happend on checking configurations. at ./masterha_check_repl line 48
Thu Jan 4 10:23:26 2018 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln482] Error happened on monitoring servers.
Thu Jan 4 10:23:26 2018 - [info] Got exit code 1 (Not master dead).

MySQL Replication Health is NOT OK!

原因,原来Failover两种方式:一种是虚拟IP地址,一种是全局配置文件。MHA并没有限定使用哪一种方式,而是让用户自己选择,虚拟IP地址的方式会牵扯到其它的软件,比如keepalive软件,而且还要修改脚本master_ip_failover。(最后修改脚本后才没有这个报错,自己不懂perl也是折腾的半死,去年买了块表)

#没有配置vip, 先注释掉
[mysql@newmachine038 masterha]$ grep master_ip_failover /etc/masterha/app1.conf
#master_ip_failover_script=/data/mydbmha/scripts/master_ip_failover







## 我这里使用的是keepalived-1.3.8.tar.gz

[root@newmachine037 keepalived-1.3.8]# ./configure --prefix=/usr/local/keepalived-1.3.8/



*** WARNING - this build will not support IPVS with IPv6. Please install libnl/libnl-3 dev libraries to support IPv6 with IPVS.

解决办法: 缺少依赖包
yum -y install libnl libnl-devel


#######
CC parser.o
parser.c: In function ‘read_conf_file’:
parser.c:430: error: ‘O_PATH’ undeclared (first use in this function)
parser.c:430: error: (Each undeclared identifier is reported only once
parser.c:430: error: for each function it appears in.)
make[2]: *** [parser.o] Error 1
make[2]: Leaving directory `/usr/local/keepalived-1.3.8/lib'
make[1]: *** [all] Error 2
make[1]: Leaving directory `/usr/local/keepalived-1.3.8/lib'
make: *** [all-recursive] Error 1

升级:
yum update glib*

在这里,我不打算升级,降低keepalive版本试试。
选择 keepalived-1.3.6 后基本完成正常安装。 (不要使用最新的安装包)





##### MHA 管理维护总结 #####
1.查看ssh登陆是否成功
masterha_check_ssh --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf
masterha_check_ssh --conf=/etc/masterha/master1.conf

2.查看复制是否建立好
masterha_check_ssh --conf=/etc/masterha/master1.conf

3.启动mha
nohup masterha_manager --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf >/etc/masterha/mha_manager.log < /dev/null 2>&1 &

(1)当有slave节点宕掉的情况,manager是无法启动的,
如果在配置文件中设置ignore_fail=1 ,就可以加上--ignore_fail_on_start ,这时候即使有节点宕掉也能启动mha manager。如下:
nohup masterha_manager --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf --ignore_fail_on_start > /etc/masterha/mha_manager.log < /dev/null 2>&1 &


MySQL MHA 管理维护总结

第一部分:mha日常管理
1.查看ssh登陆是否成功
masterha_check_ssh --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf
2.查看复制是否建立好
masterha_check_repl --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf
3.启动mha
nohup masterha_manager --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf >/etc/masterha/mha_manager.log < /dev/null 2>&1 &
(1)当有slave节点宕掉的情况,manager是无法启动的,
如果在配置文件中设置ignore_fail=1 ,就可以加上--ignore_fail_on_start ,这时候即使有节点宕掉也能启动mha manager。如下:
nohup masterha_manager --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf --ignore_fail_on_start > /etc/masterha/mha_manager.log < /dev/null 2>&1 &
(2)wait_on_monitor_error=(seconds)
在监控的过程,当发出错误了,masterha_manager 等待 wait_no_monitor_error 的时间后,退出。如果设置为了0,直接退出。这个好处,是当后台运行master monitor 和 failover s的时候,masterha_manager 可以在 wait_no_monitor_error 时间到达之前重启监控。

4.检查启动的状态
masterha_check_status--global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf

5.停止mha
masterha_stop --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf

6.failover切换
(1)在failover后,下次重启mha manager
每次failover 切换后会在管理目录生成文件app1.failover.complete ,下次在切换的时候会发现有这个文件导致切换不成功,需要手动清理掉。
rm -rf /masterha/app1/app1.failover.complete
但是,也可以加上参数--ignore_last_failover 来启动mha manager

(2)参数 last_failover_minute=(minutes)
当最近的一个failover 切换发生在last_failover_minute(默认为8小时) 之内,MHA manager 将不会在切换。因为它会认为有些问题没有得到解决。如果设置了 --ignore_last_failover 参数,参数(--last_failover_minute) 将会失效

(3)参数ignore_last_failover
如果最近failover 失败,MHA 将不会再次开始failover机制,因为这个问题可能再次发生。常规步骤:手动清理failover 错误文件,此文件一般在manager_workdir/app_name.failover.error文件,然后在启动failover机制。如果设置此参数,MHA 将会继续failover 不管上次的failover状态

(4)参数wait_on_failover_error=(seconds)
在failover的过程,当发出错误了,masterha_manager 等待 wait_no_failover_error 的时间后,退出。如果设置为了0,直接退出。这个好处,是当后台运行master monitor 和 failover s的时候,masterha_manager 可以在 wait_no_failover_error 时间到达之前重启监控
--remove_dead_master_conf 如果设置此参数,当成功failover后,MHA manager将会自动删除配置文件中关于dead master的配置选项。

7.手工failover注意事项
手工failover 场景,master死掉,但是masterha_manager没有开启,这时候可以通过手工failover:
masterha_master_switch --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf --dead_master_host=old_ip --master_state=dead --new_master_host=new_ip --ignore_last_failover

8.masterha_manager是一种监视和故障转移的程序。但是另一方面,masterha_master_switch 程序不监控主库。 masterha_master_switch可以用于主库故障转移,也可用于在线总开关。

9.手动在线切换方法
(1)
masterha_master_switch --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf --master_state=alive --new_master_host=192.168.199.78 --orig_master_is_new_slave
或者
(2)
masterha_master_switch --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/masterha/app1.conf --master_state=alive --new_master_host=192.168.199.78 --orig_master_is_new_slave --running_updates_limit=10000
--orig_master_is_new_slave切换时加上此参数是将原master变为slave节点,如果不加此参数,原来的master将不启动
--running_updates_limit=10000 切换时候选master如果有延迟的话,mha切换不能成功,加上此参数表示延迟在此时间范围内都可切换(单位为s),但是切换的时间长短是由recover时relay日志的大小决定
注意:
(1)手动在线切换mha,切换时需要将在运行的mha停掉后才能切换。
(2)在备库先执行DDL,一般先stop slave,一般不记录mysql日志,可以通过set SQL_LOG_BIN = 0实现。然后进行一次主备切换操作,再在原来的主库上执行DDL。这种方法适用于增减索引,如果是增加字段就需要额外注意。
Online master switch开始只有当所有下列条件得到满足。
1.所有从库的 IO线程正常运行。
2. 所有从库的SQL线程正常运行。
3. 所有从库上slave参数Seconds_Behind_Master小于或者等于--running_updates_limit的时间
4. 主库上,没有更新查询操作多于running_updates_limit seconds 在show processlist输出结果上。
第二部分:配置文件部分参数说明
1、candidate_master
如果设置candidate_master的值为1,那么这个server会优先成为master,但是前提是它需要满足成为master的条件(binlog开启的,没有严重的复制延时等)
2 、no_master
当设置了no_master=1的服务器,这个服务器永远不会提升为新的master. 这个参数据对于永远不期望成为master的机器很有用。
比如:在一些特定场景下,使用raid0的机器上设置no_master = 1;或者,是希望在远程的idc里运行一个slave.
注意:当没有可以成为新master的机器是MHA就直接退出来了同时停止监控和master故障切换。
3、disable_log_bin
当设置了这个参数,在slave应用差异的relay log时不会产生二进制日志。 内部实现通过mysqlbinlog的disable-log-bin实现。
4、check_repl_delay
在默认情况下,当一个slave同步延迟超过100M relay log(需要应用超过100M relay log), MHA在做故障切换时不会选择这个slave做为新的master,因为恢复需要经过很长时间.当设置了check_repl_delay = 0, MHA将忽略被选择的slave上的同步延迟。 这个选项在设置了candidate_master = 1特声明的期望这台机器成为master的情况下特别有用。
5、latest_priority
在默认情况下,和Master最接近的slave(一个slave从Master上获得了最一个binlog事件)是最有优先权成为新的master。 如果你想控制一下切换的策略(如: 先选择host2,如果不行,选host3;host3不行,选host4…) 那么设置latest_priority = 0 就可以了。
6、log_level
MHA manager 的日志级别,默认是info级别,在大多数环境下没有问题.可用的级别有.debug/info/warning/error四种级别。
7、multi_tier_slave
从MHA 0.52开始, 多层复制可以支持了。在默认情况下,不支持三层或是更多层的复制配置
8、ping_interval
这个参数设置MHA Manager多长时间去ping一下master(执行一些SQL语句). 当失去和master三次偿试,MHA Manager会认为MySQL Master死掉了。即最大的故障切换时间是4次ping_interval的时间,默认是3秒。
9、ping_type
MHA 0.53后出现的参数.
(1)在默认情况下,MHA manager和MySQL创建一个连接执行”select 1″(ping_type=select)用于检查master是否健康。 
(2)每次检测都连接/然后断开会比较好一点,这样对于tcp方面的错误感知更快一点。设置ping_type=CONNECT 就行了。
(3) 从MHA 0.56后pint_type=INSERT也被添加。
三、脚本说明
1、master_ip_failover_
负责故障切换动作的脚本
2、master_ip_online_change_
负责在线切换动作的脚本
3、secondary_check_
默认MHA是通过一个路由检测:从manager到master.但是secondary_check_脚本,让MHA manager可以通过t参数调用一个内部脚本来实现两个或者多个路由的检测.
4、shutdown_
为避免脑裂,有时候需要强制关闭master服务器,避免他再次提供服务。
如:shutdown_= /usr/local/custom_/master_shutdown
相关参数:
--command=stopssh (这个意思就是指停止服务,不会关机)
--ssh_user=(ssh username so that you can connect to the master)
--host=(master's hostname)
--ip=(master's ip address)
--port=(master's port number)
--pid_file=(master's pid file)
5、report_
这个脚本的功能:是在Master故障完毕后,也许想发一个送一个报告(如email)报告一下切换完毕或是发生的错误。
相关参数:
--orig_master_host = (死掉master机器名)
--new_master_host = (新的master机器名)
--new_slave_hosts = (新的slave机器名列表,用逗号隔开)
--subject = (邮件名)–body = (正文)


你可能感兴趣的:(㊣,Mysql-Cluster,㊣)