docker mysql MGR 集群

简介

MySQL Group Replication(简称MGR)字面意思是mysql组复制的意思,但其实他是一个高可用的集群架构,暂时只支持mysql5.7和mysql8.0版本.

是MySQL官方于2016年12月推出的一个全新的高可用与高扩展的解决方案,提供了高可用、高扩展、高可靠的MySQL集群服务.

也是mysql官方基于组复制概念并充分参考MariaDB Galera Cluster和Percona XtraDB Cluster结合而来的新的高可用集群架构.

MySQL Group Replication是建立在基于Paxos的XCom之上的,正因为有了XCom基础设施,保证数据库状态机在节点间的事务一致性,才能在理论和实践中保证数据库系统在不同节点间的事务一致性。

由一般主从复制概念扩展,多个节点共同组成一个数据库集群,事务的提交必须经过半数以上节点同意方可提交,在集群中每个节点上都维护一个数据库状态机,保证节点间事务的一致性。

优点:

高一致性,基于原生复制及paxos协议的组复制技术.

高容错性,有自动检测机制,当出现宕机后,会自动剔除问题节点,其他节点可以正常使用(类似zk集群),当不同节点产生资源争用冲突时,会按照先到先得处理,并且内置了自动化脑裂防护机制.

高扩展性,可随时在线新增和移除节点,会自动同步所有节点上状态,直到新节点和其他节点保持一致,自动维护新的组信息.

高灵活性,直接插件形式安装(5.7.17后自带.so插件),有单主模式和多主模式,单主模式下,只有主库可以读写,其他从库会加上super_read_only状态,只能读取不可写入,出现故障会自动选主.

缺点:

还是太新,不太稳定,暂时性能还略差于PXC,对网络稳定性要求很高,至少是同机房做.

  • 多主模式下最好有三台以上的节点,单主模式则视实际情况而定,不过同个Group最多节点数为9.服务器配置尽量保持一致,因为和PXC一样,也会有"木桶短板效应".
  • 需要特别注意,mysql数据库的服务端口号和MGR的服务端口不是一回事,需要区分开来.

首先我们来配置 多主集群

我们准备了三个docker容器,在此之前设置了一个network,便于容器间的互联(mysql版本皆是8.0.13)
docker network create mysql_group

network:group1,username=root,password=root,port=3306,MGR_port=33066

docker命令:
docker run --name mysql_group1 -v D:\my-project\docker-mysql\group1\datadir:/var/lib/mysql -v D:\my-project\docker-mysql\group1\conf\my.cnf:/etc/mysql/my.cnf -e MYSQL_ROOT_PASSWORD=root -p 3306:3306 --network mysql_group --network-alias group1 -d mysql

network:group2,username=root,password=root,port=3306,MGR_port=33066

docker命令:
docker run --name mysql_group2 -v D:\my-project\docker-mysql\group2\datadir:/var/lib/mysql -v D:\my-project\docker-mysql\group2\conf\my.cnf:/etc/mysql/my.cnf -e MYSQL_ROOT_PASSWORD=root -p 3307:3306 --network mysql_group --network-alias group2 -d mysql

network:group3,username=root,password=root,port=3306,MGR_port=33066

docker命令:
docker run --name mysql_group3 -v D:\my-project\docker-mysql\group3\datadir:/var/lib/mysql -v D:\my-project\docker-mysql\group3\conf\my.cnf:/etc/mysql/my.cnf -e MYSQL_ROOT_PASSWORD=root -p 3308:3306 --network mysql_group --network-alias group3 -d mysql

我在本地挂载了 mysql 的配置文件 以及datadir,datadir是空的, my.cnf的内容如下

[mysqld]
# 开启GTID,必须开启
gtid_mode=on
# 强制GTID的一致性
enforce-gtid-consistency=on
# binlog格式,MGR要求必须是ROW,不过就算不是MGR,也最好用row
binlog_format=row
# server-id必须是唯一的
server-id=1
# MGR使用乐观锁,所以官网建议隔离级别是RC,减少锁粒度
transaction_isolation=READ-COMMITTED
# 因为集群会在故障恢复时互相检查binlog的数据,
# 所以需要记录下集群内其他服务器发过来已经执行过的binlog,按GTID来区分是否执行过.
log-slave-updates=1
# binlog校验规则,5.6之后的高版本是CRC32,低版本都是NONE,但是MGR要求使用NONE
binlog_checksum=NONE
# 基于安全的考虑,MGR集群要求复制模式要改成slave记录记录到表中,不然就报错
master_info_repository=TABLE
# 同上配套
relay_log_info_repository=TABLE
# 记录事务的算法,官网建议设置该参数使用 XXHASH64 算法
transaction_write_set_extraction = XXHASH64
# 相当于此GROUP的名字,是UUID值,不能和集群内其他GTID值的UUID混用,可用uuidgen来生成一个新的,
# 主要是用来区分整个内网里边的各个不同的GROUP,而且也是这个group内的GTID值的UUID
loose-group_replication_group_name = 'cc5e2627-2285-451f-86e6-0be21581539f'
#是否随服务器启动而自动启动组复制,不建议直接启动,怕故障恢复时有扰乱数据准确性的特殊情况
loose-group_replication_start_on_boot = OFF
# 本地MGR的IP地址和端口,host:port,是MGR的端口,不是数据库的端口
loose-group_replication_local_address = 'group1:33066'
# 需要接受本MGR实例控制的服务器IP地址和端口,是MGR的端口,不是数据库的端口
loose-group_replication_group_seeds = 'group2:33066,group3:33066,group1:33066'
# 开启引导模式,添加组成员,用于第一次搭建MGR或重建MGR的时候使用,只需要在集群内的其中一台开启,
loose-group_replication_bootstrap_group = OFF
# 是否启动单主模式,如果启动,则本实例是主库,提供读写,其他实例仅提供读,如果为off就是多主模式了
loose-group_replication_single_primary_mode = off
# 多主模式下,强制检查每一个实例是否允许该操作,如果不是多主,可以关闭
loose-group_replication_enforce_update_everywhere_checks = on

log-bin=mysql-bin
pid-file        = /var/run/mysqld/mysqld.pid
socket          = /var/run/mysqld/mysqld.sock
datadir         = /var/lib/mysql
secure-file-priv= NULL
default_authentication_plugin=mysql_native_password
# Disabling symbolic-links is recommended to prevent assorted security risks
symbolic-links=0

# Custom config should go here
!includedir /etc/mysql/conf.d/

注意:

server-idloose-group_replication_local_address 不同数据库是不同的,其余要保持相同,
host后面跟的端口号是自定义的,只要保证和本机的端口不冲突就好


进入group1 来引导启动我们的集群
  • MGR在mysql5.7.17版本之后就都是自带插件了,只是没有安装上而已,和半同步插件一个套路,所以默认是没有选项。
  • 所有集群内的服务器都必须安装MGR插件才能正常使用该功能。
  • 查找插件位置,show variables like 'plugin_dir'; 搜索一下我们需要的MGR插件group_replication.so是否存在 ( 本文不讨论不存在的情况)
  • 重新进入mysql 开始安装插件,install PLUGIN group_replication SONAME 'group_replication.so';
  • 检查是否安装成功
mysql> show plugins;
+----------------------------+----------+--------------------+----------------------+---------+
| Name                       | Status   | Type               | Library              | License |
+----------------------------+----------+--------------------+----------------------+---------+
    .
    .
    .
| group_replication          | ACTIVE   | GROUP REPLICATION  | group_replication.so | GPL     |
+----------------------------+----------+--------------------+----------------------+---------+
  • 执行 show variables like 'group%';会发现有很多相关的参数了
  • 开始执行引导
#启动引导,注意,只有这套开启引导,其他两台都请忽略这一步
mysql> set global group_replication_bootstrap_group=ON;
#创建一个用户来做同步的用户,并授权,所有集群内的服务器都需要做
mysql> create user 'group'@'%' identified by 'group';
mysql> grant REPLICATION SLAVE on *.* to 'group'@'%' with grant option;
#清空所有旧的GTID信息,避免冲突
mysql> reset master;
#创建同步规则认证信息,就是刚才授权的那个用户,和一般的主从规则写法不太一样
mysql> CHANGE MASTER TO MASTER_USER='group', MASTER_PASSWORD='group' FOR CHANNEL 'group_replication_recovery';
#启动MGR
mysql> start group_replication;
#查看是否启动成功,看到online就是成功了
mysql> select* from performance_schema.replication_group_members;
#这个时候,就可以先关闭引导了
mysql> set global group_replication_bootstrap_group=OFF;
  • 另外两台服务器也是照葫芦画瓢 只不过少了引导这一步,直接创建用户,创建规则,start group_replication就可以了
  • 至此
mysql> select * from performance_schema.replication_group_members;
+---------------------------+--------------------------------------+--------------+-------------+--------------+-------------+----------------+
| CHANNEL_NAME              | MEMBER_ID                            | MEMBER_HOST  | MEMBER_PORT | MEMBER_STATE | MEMBER_ROLE | MEMBER_VERSION |
+---------------------------+--------------------------------------+--------------+-------------+--------------+-------------+----------------+
| group_replication_applier | 4d62b085-e255-11e8-b647-0242ac140002 | b8856ec7be3d |        3306 | ONLINE       | PRIMARY     | 8.0.13         |
| group_replication_applier | 6314d357-e255-11e8-8be1-0242ac140003 | d5e19f805db4 |        3306 | ONLINE       | PRIMARY     | 8.0.13         |
| group_replication_applier | 731bb817-e255-11e8-9cdc-0242ac140004 | 8720afb1301e |        3306 | ONLINE       | PRIMARY     | 8.0.13         |
+---------------------------+--------------------------------------+--------------+-------------+--------------+-------------+----------------+
3 rows in set (0.01 sec)

注意:

  • 如果其中一台出现了故障集群则是会直接提出集群,并不会表现在这张表上
  • 故障数据库重启后,需要登录重新执行start group_replication;此条命令加入集群

明天搭建 1主多从集群

参考
http://blog.51cto.com/arthur376/2114026

你可能感兴趣的:(docker mysql MGR 集群)