简介

Percona XtraDB Cluster是针对MySQL用户的高可用性和扩展性解决方案,基于Percona Server 。其包括了Write Set REPlication补丁,使用Galera 2.0库,这是一个针对事务性应用程序的同步多主机复制插件。

Percona XtraDB Cluster特点:

  (1)同步复制,事务在所有集群节点要么同时提交,要么不提交。

  (2)多主复制,可以在任意一个节点写入。

  (3)从服务器上的并行应用事件,真正的“并行复制”。

  (4)自动配置节点。

  (5)数据一致性,没有不同步的从服务器。

pxc框架图

优点总结:

  1. 可以达到时时同步,无延迟现象发生

  2. 完全兼容MySQL

  3. 对于集群中新节点的加入,维护起来很简单

  4. 数据的强一致性

不足之处总结:

  1. 只支持Innodb存储引擎

  2. 最大的缺点是多写问题,最短板性能上限问题

  3. 在线DDL语句,锁表问题

  4. sst针对新节点加入的传输代价过高的问题

测试场景测试:

  1. 在我们硬件水平是256G内存,32核CPU,SSD硬件,单行数据大概1K,单表1千万,512表。 QPS在2.5k写+5K读时,就会有节点同步阻塞问题。当时我们临时切成只读(不执行写SQL)10分钟后,才缓解过来。写queue配置参数在下面。

  2. 建议场景:低写QPS的DB,使用PXC集群,以防硬件故障,达到高可用。


一、环境准备

1、系统环境

[root@master ~]# cat /etc/redhat-release

CentOS Linux release 7.5.1804 (Core)

2、数据库环境

数据库IP地址

数据库版本

主机名

server_id

192.168.56.129

master

129

192.168.56.130

slave1

130

192.168.56.131

slave2

131

3、注意事项

暂时关闭防火墙和selinux服务

使用端口 3306 、4444、4567、4568

二、搭建(yum安装)(三台都要)

1、安装percona环境

1.1、配置yum源

[root@master ~]# yum install http://www.percona.com/downloads/percona-release/redhat/0.1-4/percona-release-0.1-4.noarch.rpm

[root@master ~]# yum install perl-IO-Socket-SSL perl-DBD-MySQL perl-Time-HiRes socat nc openssl -y

1.3、下载安装Percona-XtraDB-Cluster

[root@master ~]# yum install -y libaio*

[root@master ~]# yum groupinstall -y 'Development tools'

[root@master ~]# yum install -y libssl.so.6

[root@master lib64]# ln -sf /usr/lib64/libssl.so.10 /usr/lib64/libssl.so.6

[root@master lib64]# ln -sf /usr/lib64/libcrypto.so.10 /usr/lib64/libcrypto.so.6

yum安装

[root@master ~]# yum install Percona-XtraDB-Cluster-57

2、启动服务

[root@master ~]# systemctl start mysqld.service (第一个节点启动方式不一样

查看默认密码

[root@master ~]# grep "temporary password" /var/log/mysqld.log

3、登录数据库修改

mysql> alter user 'root'@'localhost' identified by 'Jsq@2018';

Query OK, 0 rows affected (0.00 sec)

mysql> flush privileges;

Query OK, 0 rows affected (0.00 sec)

4、创建sst账号密码(只在第一个节点添加,其他同步即可

mysql> GRANT RELOAD,LOCK TABLES,PROCESS,REPLICATION CLIENT ON *.* TO 'sstuser1'@'localhost' IDENTIFIED BY '123456';

mysql> FLUSH PRIVILEGES;

5、配置mysqld.cnf文件

cat /etc/percona-xtradb-cluster.conf.d/mysqld.cnf

默认状态

现在在/etc/my.cnf第一行添加[mysqld],然后重新启动服务成功(节点2和节点3的也需要参照节点1在配置文件/etc/my.cnf的第一行添加[mysqld])。

master配置如下:

[mysqld]

#!includedir /etc/my.cnf.d/

#!includedir /etc/percona-xtradb-cluster.conf.d/

#PXC

# Path to Galera library

wsrep_provider=/usr/lib64/galera3/libgalera_smm.so

# Cluster connection URL contains the IPs of node#1, node#2 and node#3

wsrep_cluster_address=gcomm://192.168.56.129,192.168.56.130,192.168.56.131

# In order for Galera to work correctly binlog format should be ROW

binlog_format=ROW

# MyISAM storage engine has only experimental support

default_storage_engine=InnoDB

# This changes how InnoDB autoincrement locks are managed and is a requirement for Galera

innodb_autoinc_lock_mode=2

# Node #1 address

wsrep_node_address=192.168.56.129

wsrep_node_name=pxc1

# SST method

wsrep_sst_method=xtrabackup-v2

# Cluster name

wsrep_cluster_name=pxc-cluster

# Authentication for SST method

wsrep_sst_auth="sstuser1:123456"

slave1配置如下:

[mysqld]

#PXC

wsrep_provider=/usr/lib64/galera3/libgalera_smm.so

wsrep_cluster_address=gcomm://192.168.56.129,192.168.56.130,192.168.56.131

binlog_format=ROW

default_storage_engine=InnoDB

innodb_autoinc_lock_mode=2

wsrep_node_address=192.168.56.130

wsrep_node_name=pxc2

wsrep_sst_method=xtrabackup-v2

wsrep_cluster_name=pxc-cluster

wsrep_sst_auth="sstuser1:123456"

slave2配置如下:

[mysqld]

#PXC

wsrep_provider=/usr/lib64/galera3/libgalera_smm.so

wsrep_cluster_address=gcomm://192.168.56.129,192.168.56.130,192.168.56.131

binlog_format=ROW

default_storage_engine=InnoDB

innodb_autoinc_lock_mode=2

wsrep_node_address=192.168.56.131

wsrep_node_name=pxc3

wsrep_sst_method=xtrabackup-v2

wsrep_cluster_name=pxc-cluster

wsrep_sst_auth="sstuser1:123456"

启动第一个节点

[root@master ~]# systemctl start [email protected]

[root@master ~]# systemctl status [email protected]

[root@master ~]# ss -tnl

其他节点采用正确方式启动

[root@slave1 ~]# systemctl start mysqld.service

[root@slave2 ~]# systemctl start mysqld.service

6、查看三个节点状态

mysql> show status like '%wsrep%';

三、测试

在master更新数据

在slave1更新数据

在slave2更新数据

到此即可!!!!!!!!!!!!!!!!!