手动开启的防火墙,内部可以访问外网不能;阿里云安全组开启后外网可以访问。
# 查看9066端口是否被占用
netstat -anp|grep 9066
# 永久开放9066端口
firewall-cmd --add-port=9066/tcp --permanent
# 重新加载
firewall-cmd --reload
# 查看已经开发的端口
firewall-cmd --list-ports
错误日志是MySQL中最重要的日志之一,他记录了当mysqld启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,建议首先查看此日志。
该日志是默认开启的,默认存放目录/var/log/,默认的日志文件名为 mysqld.log。查看日志位置:
show variables like '%log_error%';
window操作系统的位置
C:\Program Files\MySQL\MySQL Server 5.7\data
路径: /www/server/data/
1.实时监控错误日志
tail -f /www/server/data/Jsxs.err
二进制日志(BINLOG)记录了所有的DDL(数据定义语言)语句和DML(数据操纵语言)语句,但不包含数据查询(select、show)语句。
查看二进制文件位置和是否开启
show variables like '%log_bin%';
window下5.7是默认关闭的,我们需要在my.inf中配置
MySQL服务器中提供了多种格式来记录二进制日志,具体格式及特点如下:
日志格式 | 含义 |
---|---|
STATEMENT | 基于SQL语句的日志记录,记录的是SQL语句,对数据进行修改的SQL都会记录在日志文件中。 |
ROW | 基于行的日志记录,记录的是每一行的数据变更。(默认) |
MIXED | 混合了STATEMENT和ROW两种格式,默认采用STATEMENT,在某些特殊情况下会自动切换为ROW进行记录。 |
show variables like '%binlog_format%';
- 基于日志格式是行 -> ROW 的
因为是二进制数据,我们不能直接查看,我们需要使用我们的二进制专业查看工具。
由于日志是以二进制方式存储的,不能直接读取,需要通过二进制日志查询工具 mysqlbinlog 来查看,具体语法:
mysqlbinlog [ 参数选项 ] logfilename
参数选项:
-d 指定数据库名称,只列出指定的数据库相关操作。
-o 忽略掉日志中的前n行命令。
-v 将行事件(数据变更)重构为SQL语句
-vv 将行事件(数据变更)重构为SQL语句,并输出注释信息
一定要提前进入二进制文件所在的目录,再执行mysqlbinlog
cd C:\ProgramData\MySQL\MySQL Server 5.7\Data
mysqlbinlog mysql-bin.000001 #切记不能加分号
mysqlbinlog -v mysql-bin.000001 #加一个-v的操作
总结: 记录的是每一行修改的数据,也就是有几行数据改变就会有几行日志。
- 基于日志格式是 STATEMENT 的
# 设置格式为 STATEMENT 关闭客户端就恢复成ROW了
set binlog_format =STATEMENT;
cd C:\ProgramData\MySQL\MySQL Server 5.7\Data
mysqlbinlog mysql-bin.000002
对于比较繁忙的业务系统,每天生成的binlog数据巨大,如果长时间不清除,将会占用大量磁盘空间。可以通过以下几种方式清理日志:
指令 | 含义 |
---|---|
reset master | 删除全部 binlog 日志,删除之后,日志编号,将从 binlog.000001重新开始 |
purge master logs to’binlog.*’ | 删除 * 编号之前的所有日志 |
purge master logs before’yyyy-mm-dd hh24:mi:ss’ | 删除日志为 “yyyy-mm-dd hh24:mi:ss” 之前产生的所有日志 |
purge master logs to 'mysql-bin.000001';
rest master;
也可以在mysql的配置文件中配置二进制日志的过期时间,设置了之后,二进制日志过期会自动删除。
5.7版本不支持!!!!!
show variables like '%binlog_expire_logs_seconds%';
查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句。默认情况下,查询日志是未开启的。如果需要开启查询日志,可以设置以下配置:
show variables like '%general%';
C:\ProgramData\MySQL\MySQL Server 5.7\Data
日常开发建议关闭我们的这个查询日志: 非常占内存
慢查询日志记录了所有执行时间超过参数 long_query_tine 设置值并且扫描记录数不小于 min_eamined_row_limit 的所有的SQL语句的日志,默认未开启。 log_query_time 默认为10秒,最小为0,精度可以到微妙。
# 查看慢日志是否开启
show variables like '%slow_query%';
# 慢查询日志开启
slow_query_log=1
#执行时间参数 超过两秒就说明属于慢日志了
long_query_time=2
默认情况下,不会记录管理语句,也不会记录不使用索引进行查找的查询。可以使用low_admin_statements 和 更改此行为 log_queries_not_using_indexs, 如下所述:
# 记录执行较慢的管理语句
log_slow_admin_statements=1
# 记录执行较慢的未使用索引的语句
log_queries_not_using_indexs=1
主从复制时指将主数据库的 DDL 和 DML 操作通过二进制日志传到从库服务器中
,然后在从库上对这些日志重新执行 (也叫重做),从而使得从库和主库的数据保持同步。
MySQL 复制的优点主要包含以下三个方面:
MySQL主从复制的核心就是 二进制日志,具体的过程如下:
因为我们只有一个服务器,但是主从复制是需要两个服务器我们该怎么办呢?我们可以使用Docker虚拟化一个数据库。
1.第一步拉取MySQL的数据信息并启动
# 拉取mysql5.7的数据库
docker pull mysql:5.7
# 查看是否拉取成功
docker images
# 创建数据卷用于存DockerMysql的数据,在/home
mkdir -p docker_mysql/mysql01
cd /home/docker_mysql/mysql01
mkdir conf
mkdir data #同级
mkdir conf #同级
cd conf
vim my.cnf
cd ..
mkdir logs #同级
# 执行这下面的命令需要在 /home/docker_mysql/mysql01 目录下
# 使用镜像启动容器 9090是阿里云服务器开启的端口, 3306是Docker容器的端口信息 并挂载数据卷
docker run -p 9090:3306 --name mysql01 \
-v $PWD/logs:/var/log/mysql \
-v $PWD/data:/var/lib/mysql \
-v $PWD/conf:/etc/mysql \
--restart=always --privileged=true \
-e MYSQL_ROOT_PASSWORD=123456 \
-d mysql:5.7
# 查看是否启动成功?
docker ps
docker exec -it mysql01 bash
3.配置Docker上的MySQL配置文件
cat /etc/mysql/my.cnf
4. 编辑我们的配置文件:
因为我们Docker中没有vim编译器,所以我们要执行下面的两个命令语句帮助我们安装vim编译器。
apt-get update #更新软件列表
apt-get install vim #安装vim
5.我们修改之后,重启服务器失败,所以改用全局变量 /etc/mysql/my.cnf
[client]
default-character-set=utf8
[mysql]
default-character-set=utf8
[mysqld]
init_connect='SET collation_connection = utf8_unicode_ci'
init_connect='SET NAMES utf8'
character-set-server=utf8
collation-server=utf8_unicode_ci
skip-character-set-client-handshake
skip-name-resolve
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 232-1,默认为1
server-id=1
#是否只读,1 代表只读, 0 代表读写
read-only=0
#忽略的数据, 指不需要同步的数据库
#binlog-ignore-db=mysql
#指定同步的数据库
#binlog-do-db=db01
systemctl restart mysqld
登入mysql,创建远程连接的账号,该用户可在任意主机连接MySQL服务。
#创建itcast用户,并设置密码,该用户可在任意主机连接该MySQL服务
CREATE USER 'itcast'@'%' IDENTIFIED WITH mysql_native_password BY 'Root@123456';
#为 'itcast'@'%' 用户分配主从复制权限
GRANT REPLICATION SLAVE ON *.* TO 'itcast'@'%';
通过指令,查看二进制日志坐标
show master status ;
mysql-bin.000010
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 2^32-1,和主库不一样即可
server-id=2
#是否只读,1 代表只读, 0 代表读写
read-only=1
# 我们在Docker修改完my.cnf之后,我们重启不了Mysql了,会报错
docker restart mysqlID
# 查看我们的日志信息
docker logs mysql01
1.登入mysql.设置从库配置 8.0+
CHANGE REPLICATION SOURCE TO SOURCE_HOST='8.130.48.9', SOURCE_USER='itcast',SOURCE_PASSWORD='Root@123456', SOURCE_LOG_FILE='binlog.000004',SOURCE_LOG_POS=663;
2.登入mysql,设置从库配置 8.0以下
CHANGE MASTER TO MASTER_HOST='8.130.48.9',MASTER_USER='itcast',MASTER_PASSWORD='Root@123456',MASTER_LOG_FILE='mysql-bin.000010',MASTER_LOG_POS=591;
参数名 | 含义 | 8.0.23之前 |
---|---|---|
SOURCE_HOST | 主库IP地址 | MASTER_HOST |
SOURCE_USER | 连接主库的用户名 | MASTER_USER |
SOURCE_PASSWORD | 连接主库的密码 | MASTER_PASSWORD |
SOURCE_LOG_FILE | binlog日志文件名 | MASTER_LOG_FILE |
SOURCE_LOG_POS | binlog日志文件位置 | MASTER_LOG_POS |
在命令行中输入,并不是配置文件中。
start replica; #8.0.22之后
start slave; # 8.0.22之前
show replica status; # 8.022之后
show slave status; # 8.022之前
mysql-bin.000010
是否和主库一致。# 停止服务
stop slave;
# 配置从库
SET GLOBAL SQL_SLAVE_SKIP_COUNTER=1; START SLAVE;
# 开始从库
start slave;
# 展示状态
show slave status\G
然后如下:
在主库上进行增删改查,然后查看是否从库上能查询到。
create database db01;
use db01;
create table tb_user(
id int(11) primary key not null auto_increment,
name varchar(50) not null,
sex varchar(1)
)engine=innodb default charset=utf8mb4;
insert into tb_user(id,name,sex) values(null,'Tom', '1'),(null,'Trigger','0'),(null,'Dawn','1');
随着互联网及移动互联网的发展,应用系统的数据库i昂也是成指数式增长,若采用单数据库进行数据存储,存在以下性能瓶颈ng:
分库分表的中心思想都是将数据分散存储,使得单一数据库/表的数据量变小来缓解单一数据库的性能问题,从而达到提升数据库性能的目的。
分库分表的形式,主要是两种:垂直拆分和水平拆分。而拆分的粒度,一般又分为分库和分表,所以组成的拆分策略最终如下:
- 垂直分库 (主库多表)
垂直分库:以表为依据,根据业务将不同表拆分到不同库中。比如:原先单个数据库有很多表,随着业务的增大出现了IO的上限和CPU的上限,所以我们将单个数据库的每个表都拆分到一个服务器的一个数据库中。一张表对应一个服务器。
特点:
- 垂直分表 (主库单表)
垂直分表: 以字段为依据,根据字段属性将不同字段拆分到不同表中。 比如说我们垂直分库之后,每一个服务器都只对应着一张表,假如随着业务的逐渐增大,那么我们的这个只放着一张表的服务器也会出现IO上限、CPU上限。所以我们将这张表的字段再进行拆分,拆分到多个服务器。
特点:
- 水平分库 (主库多表)
水平分库: 以字段为依据,按照一定策略,将一个库的数据拆分到多个库中。比如说一个数据库有四张表,每个表各自有三百。假如到水平分库的话,那么每个数据库依然获取四张表,且每个表只有一百。
特点:
- 水平分表 (主库单表)
水平分表: 以字段为依据,按照一定策略,将一个表的数据拆分到多个表中。比如说: 原本只有一个数据库放着一张有900条数据的表,那么拆分到三个数据库之后,拆分的数据库一个只有300条数据。
特点:
我们以前单体数据库的时候,只需要写一个相同的SQL代码就行。假如牵扯到多个数据库之后,那么我们在执行SQL语句的时候就需要改变数据库的名字和一些代码,增加了代码的冗余性和复杂性。
MyCat 是开源的、活跃的、基于Java语言编写的MySQL数据库中间件。可以像使用mysql一样来使用mycat,对于开发人员来说根本感觉不到mycat的存在。
MyCat官网: http://www.mycat.org.cn/mycat1.html
MyCat是采用java语言开发的开源的数据库中间件,支持windows和linux运行环境,下面介绍MyCat的Linux中的环境搭建。我们需要在准备好的服务器中安装如下软件:
服务器 | 安装软件 | 说明 |
---|---|---|
主服务器 | JDK、MyCat | MyCat中间件服务器 |
mysql01容器 | MySQL | 分片服务器 |
mysql02容器 | MySQL | 分片服务器 |
mysql03容器 | MySQL | 分片服务器 |
1. 上传MyCat的压缩包到 /opt目录下 ⭐
2.解压MyCat的压缩包到 /usr/local ⭐⭐
tar -zxvf Mycat-server-1.6.7.3-release--20190923113828-linux.tar.gz -C /usr/local/
# 切换到 /usr/local
cd /usr/local
3.进入lib目录发现mysql的驱动包不合适,需要替换,否则跳过这一步 ⭐⭐⭐
cd lib
# 删除驱动包 (但是因为我们的是5.7版本的,所以可以省略不用删除)
rm -rf mysql-connector-java-5.1.35.jar
# 删除之后上传对应的包到
/usr/local/mycat/lib
# 假如上传之后我们发现新上传的包会爆红,因为没授权 进行授权
chmod 777 mysql-connector-java-5.1.35.jar
- 概念介绍
在MyCat的逻辑结构主要负责逻辑库
、逻辑表
、分片规则
、分片节点
等逻辑结构的处理,而具体的数据存储还是在物理结构,也就是数据库服务器中存储的。
由于tb_order表中的数据量很大,磁盘IO及容量都到达了瓶颈,现在需要tb_order表进行数据分片,分为三个数据节点,每一个节点主机位于不同的服务器上,具体的结构,如下:
1. 创建三个MySQL容器,并为每一个MySQL容器创建一个db01数据库
1.在/usr/local/mycat/conf 配备 schema.xml
cd /usr/local/mycat/conf
# 编辑我们的文件
vim schema.xml
DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">
# 逻辑库名: DB01, 逻辑表名: TB_ORDER,逻辑表分为三片: dn1 dn2 dn3
<schema name="DB01" checkSQLschema="true" sqlMaxLimit="100">
<table name="TB_ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long" />
schema>
# 三个分片分别关联节点主机 dhost1 dhost2 dhost3 ,且都管理数据库 db01
<dataNode name="dn1" dataHost="dhost1" database="db01" />
<dataNode name="dn2" dataHost="dhost2" database="db01" />
<dataNode name="dn3" dataHost="dhost3" database="db01" />
# 第一个节点主机 : 配置jdbc驱动
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9090?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
dataHost>
# 第二个节点主机 : 配置jdbc驱动
<dataHost name="dhost2" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9091?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
dataHost>
# 第三个节点主机 : 配置jdbc驱动
<dataHost name="dhost3" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9092?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
dataHost>
mycat:schema>
这里的编码格式一定要修改成 gbk
<user name="root" defaultAccount="true">
<property name="password">123456property>
<property name="schemas">DB01property>
user>
<user name="user">
<property name="password">123456property>
<property name="schemas">DB01property>
<property name="readOnly">trueproperty>
user>
上述的配置表示,定义了两个用户 root 和 user ,这两个用户都可以访问 DB01 这个逻辑库,访问密码都是123456,但是root用户访问DB01逻辑库,既可以读,又可以写,但是 user用户访问DB01逻辑库是只读的。
切换到Mycat的安装目录,执行如下指令,启动Mycat (占用8066):
# 去往mycat的位置
cd /usr/local/mycat
#启动
bin/mycat start
# 查阅日志
cat /usr/local/mycat/logs/wrapper.log
# 删除日志信息
truncate -s 0 /usr/local/mycat/logs/wrapper.log
#停止
bin/mycat stop
1. 通过如下指令,就可以连接并登陆MyCat。
mysql -h 127.0.0.1 -P 8066 -uroot -p123456
2.然后就可以在MyCat中来创建表,并往表结构中插入数据,查看数据在MySQL中的分布情况。
use DB01;
CREATE TABLE TB_ORDER (
id BIGINT(20) NOT NULL,
title VARCHAR(100) NOT NULL ,
PRIMARY KEY (id)
) ENGINE=INNODB DEFAULT CHARSET=utf8 ;
INSERT INTO TB_ORDER(id,title) VALUES(1,'goods1');
INSERT INTO TB_ORDER(id,title) VALUES(2,'goods2');
INSERT INTO TB_ORDER(id,title) VALUES(3,'goods3');
INSERT INTO TB_ORDER(id,title) VALUES(1,'goods1');
INSERT INTO TB_ORDER(id,title) VALUES(2,'goods2');
INSERT INTO TB_ORDER(id,title) VALUES(3,'goods3');
INSERT INTO TB_ORDER(id,title) VALUES(5000000,'goods5000000');
INSERT INTO TB_ORDER(id,title) VALUES(10000000,'goods10000000');
INSERT INTO TB_ORDER(id,title) VALUES(10000001,'goods10000001');
INSERT INTO TB_ORDER(id,title) VALUES(15000000,'goods15000000');
INSERT INTO TB_ORDER(id,title) VALUES(15000001,'goods15000001');
假如我们这里对MyCat进行操作后,其他对应的表也会有
经过测试,我们发现,在往 TB_ORDER 表中插入数据时:
为什么会出现这种现象,数据到底落在哪一个分片服务器到底是如何决定的呢? 这是由逻辑表配置时的一个参数 rule 决定的,而这个参数配置的就是分片规则,关于分片规则的配置,在后面的课程中会详细讲解
schema.xml 作为MyCat中最重要的配置文件之一 , 涵盖了MyCat的逻辑库
、 逻辑表
、 分片规则
、分片节点
及数据源
的配置。
主要包含以下三组标签
<schema name="DB01" checkSQLschema="true" sqlMaxLimit="100">
<table name="TB_ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long"/>
</schema>
schema 标签用于定义 MyCat实例中的逻辑库 。一个MyCat实例中, 可以有多个逻辑库
, 可以通过 schema 标签来划分不同的逻辑库。MyCat中的逻辑库的概念,等同于MySQL中的database概念, 需要操作某个逻辑库下的表时, 也需要切换逻辑库(use xxx)。
核心属性:
select *from DB01.tb_order ;
)select *from tb_order;
)会查询前 100 条信息。table 标签定义了MyCat中逻辑库schema下的逻辑表 , 所有需要拆分的表都需要在table标签中定义
核心属性:
rule.xml
中定义的。全局表
和普通表
,如果未配置,就是普通表
;全局表,配置为 globaldataNode标签中定义了MyCat中的数据节点,也就是我们通常所说的数据分片。一个dataNode标签就是一个独立的数据分片。
<dataNode name="dn1" dataHost="dhost1" database="db01" />
<dataNode name="dn2" dataHost="dhost2" database="db01" />
<dataNode name="dn3" dataHost="dhost3" database="db01" />
核心属性:
该标签在MyCat逻辑库中作为底层标签存在,直接定义了具体的数据库实列
、读写分离
、心跳语句
。
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9090?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</dataHost>
核心属性:
供上层标签使用
最大连接数/最小连接数
负载均衡策略
,取值 0,1,2,3写操作分发方式
(0:写操作转发到第一个writeHost,第一个挂了,切换到第二个;1:写操作随机分发到配置的writeHost)数据库驱动
,支持 native、jdbc
一个逻辑库(database)下面可以拥有多个逻辑表(table),一个逻辑表可以对应多个字段(数据节点/切片),一个字段对应一个信息(节点主机)。
rule.xml中定义所有拆分表的规则, 在使用过程中可以灵活的使用分片算法
, 或者对同一个分片算法使用不同的参数, 它让分片过程可配置化
。主要包含两类标签:tableRule
、Function
。
server.xml配置文件包含了MyCat的系统配置信息
,主要有两个重要的标签:system
、user
。
主要配置MyCat中的系统配置信息,对应的系统配置项及其含义,如下:
配置MyCat中的用户、访问密码,以及用户针对于逻辑库、逻辑表的权限信息,具体的权限描述方式及配置说明如下:
在测试权限操作时,我们只需要将 privileges 标签的注释放开。 在 privileges 下的schema标签中配置的dml属性配置的是逻辑库的权限。 在privileges的schema下的table标签的dml属性
中配置逻辑表的权限。 顺序 (增改查删)
在业务系统中,设计以下表结构,但是由于用户与订单每天都会产生大量的数据,单台数据存储及处理能力是有限的,可以对数据库表进行拆分,原有的数据库表如下:
现在考虑将其进行垂直分库操作,将商品相关的表拆分到一个数据库服务器,订单表拆分的一个数据库服务器,用户及省市区表拆分到一个服务器。最终结构如下:
1. 在每一个节点主机上创建一个数据库 shopping。
<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">
<schema name="SHOPPING" checkSQLschema="true" sqlMaxLimit="100">
<table name="tb_goods_base" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_brand" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_cat" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_desc" dataNode="dn1" primaryKey="goods_id" />
<table name="tb_goods_item" dataNode="dn1" primaryKey="id" />
<table name="tb_order_item" dataNode="dn2" primaryKey="id" />
<table name="tb_order_master" dataNode="dn2" primaryKey="order_id" />
<table name="tb_order_pay_log" dataNode="dn2" primaryKey="out_trade_no" />
<table name="tb_user" dataNode="dn3" primaryKey="id" />
<table name="tb_user_address" dataNode="dn3" primaryKey="id" />
<table name="tb_areas_provinces" dataNode="dn3" primaryKey="id"/>
<table name="tb_areas_city" dataNode="dn3" primaryKey="id"/>
<table name="tb_areas_region" dataNode="dn3" primaryKey="id"/>
</schema>
<dataNode name="dn1" dataHost="dhost1" database="shopping" />
<dataNode name="dn2" dataHost="dhost2" database="shopping" />
<dataNode name="dn3" dataHost="dhost3" database="shopping" />
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9090?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</dataHost>
<dataHost name="dhost2" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9091?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</dataHost>
<dataHost name="dhost3" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9092?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</dataHost>
</mycat:schema>
3.配置 server.xml,如果有中文注释编码要为 gbk
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING</property>
</user>
<user name="user">
<property name="password">123456</property>
<property name="schemas">SHOPPING</property>
<property name="readOnly">true</property>
</user>
1.启动MyCat,并进入账户
cd /usr/local/mycat
#启动我们的MyCat
bin/mycat start
#进入我们的MyCat账户
mysql -h 127.0.0.1 -P 8066 -u root -p
2.执行指令导入测试数据
重新启动MyCat后,在mycat的命令行中,通过source指令导入表结构,以及对应的数据,查看数据分布情况.
source /root/shopping-table.sql
source /root/shopping-insert.sql
将表结构及对应的测试数据导入之后,可以检查一下各个数据库服务器中的表结构分布情况。 检查是否和我们准备工作中规划的服务器一致:
1.查询用户的收件人及收件人地址信息(包含省、市、区)。
在MyCat的命令行中,当我们执行以下多表联查的SQL语句时,可以正常查询出数据。
select ua.user_id, ua.contact, p.province, c.city, r.area , ua.address
from tb_user_address ua ,tb_areas_city c , tb_areas_provinces p ,tb_areas_region r
where ua.province_id = p.provinceid and ua.city_id = c.cityid and ua.town_id =r.areaid ;
1. 查询每一笔订单及订单的收件地址信息(包含省、市、区)。
实现该需求对应的SQL语句如下:
SELECT order_id , payment ,receiver, province , city , area
FROM tb_order_master o, tb_areas_provinces p , tb_areas_city c , tb_areas_region r
WHERE o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND o.receiver_region = r.areaid ;
但是现在存在一个问题,订单相关的表结构是在 127.0.0.1:9090 数据库服务器中,而省市区的数据库表是在 127.0.0.1:9092 数据库服务器中。那么在MyCat中执行是否可以成功呢?
经过测试,我们看到SQL语句执行报错。原因就是因为MyCat在执行该SQL语句时,需要往具体的数据库服务器中路由,而当前没有一个数据库服务器完全包含了订单以及省市区的表结构,造成SQL语句失败,报错。
对于上述的这种现象,我们如何来解决呢? 下面我们介绍的全局表,就可以轻松解决这个问题。
对于省、市、区/县表tb_areas_provinces , tb_areas_city , tb_areas_region,是属于数据字典表,在多个业务模块中都可能会遇到,可以将其设置为全局表,利于业务操作。
修改 schema.xml
中的逻辑表的配置,修改 tb_areas_provinces、tb_areas_city、tb_areas_region 三个逻辑表,增加 type 属性,配置为global,就代表该表是全局表,就会在所涉及到的dataNode中创建给表。对于当前配置来说,也就意味着所有的节点中都有该表了。
<table name="tb_areas_provinces" dataNode="dn1,dn2,dn3" primaryKey="id" type="global" />
<table name="tb_areas_city" dataNode="dn1,dn2,dn3" primaryKey="id" type="global" />
<table name="tb_areas_region" dataNode="dn1,dn2,dn3" primaryKey="id" type="global" />
# 需要登入我们MyCar的客户端
source /root/shopping-table.sql
source /root/shopping-insert.sql
3.再次查询
SELECT order_id , payment ,receiver, province , city , area
FROM tb_order_master o, tb_areas_provinces p , tb_areas_city c , tb_areas_region r
WHERE o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND o.receiver_region = r.areaid ;
当我们在MyCat的客户端执行修改我们的全局表的时候,那么每一个节点主机中对应的全局表的数据都会发生变化的。
update tb_areas_provinces set province = '北京' where id =1;
如果只在一个节点主机中修改全局表,那么全局表不会保持数据一致性。
在业务系统中,有一张表(日志表),业务系统每天都会产生大量的日志数据,单台服务器的数据存储能力是有限的,可以对数据库进行拆分。
1.在Docker容器中分别创建一个数据库 itcast
2.配置逻辑库 schem.xml
tb_log表最终落在3个节点中,分别是 dn4、dn5、dn6 ,而具体的数据分别存储在 dhost1、dhost2、dhost3的itcast数据库中。
<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">
<schema name="SHOPPING" checkSQLschema="true" sqlMaxLimit="100">
<table name="tb_goods_base" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_brand" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_cat" dataNode="dn1" primaryKey="id" />
<table name="tb_goods_desc" dataNode="dn1" primaryKey="goods_id" />
<table name="tb_goods_item" dataNode="dn1" primaryKey="id" />
<table name="tb_order_item" dataNode="dn2" primaryKey="id" />
<table name="tb_order_master" dataNode="dn2" primaryKey="order_id" />
<table name="tb_order_pay_log" dataNode="dn2" primaryKey="out_trade_no" />
<table name="tb_user" dataNode="dn3" primaryKey="id" />
<table name="tb_user_address" dataNode="dn3" primaryKey="id" />
<table name="tb_areas_provinces" dataNode="dn1,dn2,dn3" primaryKey="id" type="global" />
<table name="tb_areas_city" dataNode="dn1,dn2,dn3" primaryKey="id" type="global" />
<table name="tb_areas_region" dataNode="dn1,dn2,dn3" primaryKey="id" type="global" />
</schema>
<schema name="ITCAST" checkSQLschema="true" sqlMaxLimit="100">
# ⭐ 取模分布也就是: id % 配置的物理机数 。 0为第一个物理机依次排序
<table name="tb_log" dataNode="dn4,dn5,dn6" rule="mod-long" />
</schema>
<dataNode name="dn1" dataHost="dhost1" database="shopping" />
<dataNode name="dn2" dataHost="dhost2" database="shopping" />
<dataNode name="dn3" dataHost="dhost3" database="shopping" />
⭐⭐
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9090?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</dataHost>
<dataHost name="dhost2" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9091?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</dataHost>
<dataHost name="dhost3" maxCon="1000" minCon="10" balance="0"
writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://127.0.0.1:9092?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</dataHost>
</mycat:schema>
3. 配置server.xml : MyCat可以一起使用 SHOPPING 和 ITCAST
配置root用户既可以访问 SHOPPING 逻辑库,又可以访问ITCAST逻辑库。
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST</property>
</user>
<user name="user">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST</property>
<property name="readOnly">true</property>
</user>
4. 展示逻辑库和逻辑表
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
5.添加物理表结构
CREATE TABLE tb_log (
id bigint(20) NOT NULL COMMENT 'ID',
model_name varchar(200) DEFAULT NULL COMMENT '模块名',
model_value varchar(200) DEFAULT NULL COMMENT '模块值',
return_value varchar(200) DEFAULT NULL COMMENT '返回值',
return_class varchar(200) DEFAULT NULL COMMENT '返回值类型',
operate_user varchar(20) DEFAULT NULL COMMENT '操作用户',
operate_time varchar(20) DEFAULT NULL COMMENT '操作时间',
param_and_value varchar(500) DEFAULT NULL COMMENT '请求参数名及参数值',
operate_class varchar(200) DEFAULT NULL COMMENT '操作类',
operate_method varchar(200) DEFAULT NULL COMMENT '操作方法',
cost_time bigint(20) DEFAULT NULL COMMENT '执行方法耗时, 单位 ms',
source int(1) DEFAULT NULL COMMENT '来源 : 1 PC , 2 Android , 3 IOS',
PRIMARY KEY (id)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class,
operate_user, operate_time, param_and_value, operate_class, operate_method,
cost_time,source)
VALUES('1','user','insert','success','java.lang.String','10001','2022-01-06
18:12:28','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro
ller.UserController','insert','10',1);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class,
operate_user, operate_time, param_and_value, operate_class, operate_method,
cost_time,source)
VALUES('2','user','insert','success','java.lang.String','10001','2022-01-06
18:12:27','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro
ller.UserController','insert','23',1);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class,
operate_user, operate_time, param_and_value, operate_class, operate_method,
cost_time,source)
VALUES('3','user','update','success','java.lang.String','10001','2022-01-06
18:16:45','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro
ller.UserController','update','34',1);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class,
operate_user, operate_time, param_and_value, operate_class, operate_method,
cost_time,source)
VALUES('4','user','update','success','java.lang.String','10001','2022-01-06
18:16:45','{\"age\":\"20\",\"name\":\"Tom\",\"gender\":\"1\"}','cn.itcast.contro
ller.UserController','update','13',2);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class,
operate_user, operate_time, param_and_value, operate_class, operate_method,
cost_time,source)
VALUES('5','user','insert','success','java.lang.String','10001','2022-01-06
18:30:31','{\"age\":\"200\",\"name\":\"TomCat\",\"gender\":\"0\"}','cn.itcast.co
ntroller.UserController','insert','29',3);
INSERT INTO tb_log (id, model_name, model_value, return_value, return_class,
operate_user, operate_time, param_and_value, operate_class, operate_method,
cost_time,source)
VALUES('6','user','find','success','java.lang.String','10001','2022-01-06
18:30:31','{\"age\":\"200\",\"name\":\"TomCat\",\"gender\":\"0\"}','cn.itcast.co
ntroller.UserController','find','29',2);
根据指定的字段及其配置的数据节点(0 1 2)
的对应情况,来决定该数据属于哪一个分片。
我们这里指定的字段是id与范围做比较大小。
# auto-sharding-long
<table name="TB_ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long" />
2.schema.xml数据节点配置:
<dataNode name="dn1" dataHost="dhost1" database="db01" />
<dataNode name="dn2" dataHost="dhost2" database="db01" />
<dataNode name="dn3" dataHost="dhost3" database="db01" />
3.rule.xml分片规则配置:
<tableRule name="auto-sharding-long"> ⭐
<rule>
# 指定的字段
<columns>idcolumns> ⭐⭐
<algorithm>rang-longalgorithm>
rule>
tableRule>
<function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong">
#配置文件在哪 ⭐⭐⭐
<property name="mapFile">autopartition-long.txtproperty>
<property name="defaultNode">0property>
function>
4.分片规则配置属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
mapFile | 对应的外部配置文件 |
type | 默认值为0 ; 0 表示Integer , 1 表示String |
defaultNode | 默认节点 默认节点的所用:枚举分片时,如果碰到不识别的枚举值, 就让它路由到默认节点 ; 如果没有默认值,碰到不识别的则报错 。 |
5.在rule.xml中配置分片规则时,关联了一个映射配置文件 autopartition-long.txt,该配置文件的配置如下:
我们只需要修改/usr/local/mycat/conf/
目录下的autopartition-long.txt即可
# range start-end ,data node index
# K=1000,M=10000.
0-500M=0
500M-1000M=1
1000M-1500M=2
含义:0-500万之间的值,存储在0号数据节点(数据节点的索引从0开始) ; 500万-1000万之间的数据存储在1号数据节点 ; 1000万-1500万的数据节点存储在2号节点 ;该分片规则,主要是针对于数字类型的字段适用。 在MyCat的入门程序中,我们使用的就是该分片规则。
根据指定的字段值与节点数量进行求模运算
,根据运算结果,来决定该数据属于哪一个分片。
1.schema.xml逻辑表配置:
# mod-long
<table name="tb_log" dataNode="dn4,dn5,dn6" primaryKey="id" rule="mod-long" />
2.schema.xml数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
3.rule.xml分片规则配置:
<tableRule name="mod-long"> ⭐
<rule>
<columns>idcolumns> ⭐⭐
<algorithm>mod-longalgorithm>
rule>
tableRule>
<function name="mod-long" class="io.mycat.route.function.PartitionByMod">
<property name="count">3property> ⭐⭐⭐配置物理机数为3
function>
4.分片规则属性说明如下:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
count | 数据节点的数量 |
该分片规则,主要是针对于数字类型的字段适用。 在前面水平拆分的演示中,我们选择的就是取模分片。
所谓一致性哈希,相同的哈希因子计算值总是被划分到相同的分区表中,不会因为分区节点的增加而改变原来数据的分区位置
,有效的解决了分布式数据的拓容问题。
1.schema.xml中逻辑表配置:
# sharding-by-murmur
<table name="tb_order" dataNode="dn4,dn5,dn6" rule="sharding-by-murmur" />
2.schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
3.rule.xml中分片规则配置:
<tableRule name="sharding-by-murmur"> ⭐一致性hash
<rule>
<columns>id</columns> ⭐⭐指定的id
<algorithm>murmur</algorithm>
</rule>
</tableRule>
<function name="murmur" class="io.mycat.route.function.PartitionByMurmurHash">
<property name="seed">0</property><!-- 默认是0 -->
<property name="count">3</property> ⭐⭐⭐物理机
<property name="virtualBucketTimes">160</property>
</function>
4.分片规则属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
seed | 创建murmur_hash对象的种子,默认0 |
count | 要分片的数据库节点数量,必须指定,否则没法分片 |
virtualBucketTimes | 一个实际的数据库节点被映射为这么多虚拟节点,默认160倍,也就是虚拟节点数是物理节点数的160倍;virtualBucketTimes*count就是虚拟结点数量 ; |
weightMapFile | 节点的权重,没有指定权重的节点默认是1。以properties文的格式填写,以从0开始到count-1的整数值也就是节点索引为key,以节点权重值为值。所有权重值必须是正整数,否则以1代替 |
bucketMapPath | 用于测试时观察各物理节点与虚拟节点的分布情况,如果定了这个属性,会把虚拟节点的murmur hash值与物理节点的映射按行输出到这个文件,没有默认值,如果不指定,就不会输出任何东西 |
5.测试启动
cd /usr/local/mycat
bin/mycat start
mysql -h 127.0.0.1 -P 8066 -u root -p
use ITCAST;
6.插入实际数据
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
create table tb_order(
id varchar(100) not null primary key,
money int null,
content varchar(200) null
);
INSERT INTO tb_order (id, money, content) VALUES ('b92fdaaf-6fc4-11ec-b831-
482ae33c4a2d', 10, 'b92fdaf8-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b93482b6-6fc4-11ec-b831-
482ae33c4a2d', 20, 'b93482d5-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b937e246-6fc4-11ec-b831-
482ae33c4a2d', 50, 'b937e25d-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b93be2dd-6fc4-11ec-b831-
482ae33c4a2d', 100, 'b93be2f9-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b93f2d68-6fc4-11ec-b831-
482ae33c4a2d', 130, 'b93f2d7d-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9451b98-6fc4-11ec-b831-
482ae33c4a2d', 30, 'b9451bcc-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9488ec1-6fc4-11ec-b831-
482ae33c4a2d', 560, 'b9488edb-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b94be6e6-6fc4-11ec-b831-
482ae33c4a2d', 10, 'b94be6ff-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b94ee10d-6fc4-11ec-b831-
482ae33c4a2d', 123, 'b94ee12c-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b952492a-6fc4-11ec-b831-
482ae33c4a2d', 145, 'b9524945-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b95553ac-6fc4-11ec-b831-
482ae33c4a2d', 543, 'b95553c8-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9581cdd-6fc4-11ec-b831-
482ae33c4a2d', 17, 'b9581cfa-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b95afc0f-6fc4-11ec-b831-
482ae33c4a2d', 18, 'b95afc2a-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b95daa99-6fc4-11ec-b831-
482ae33c4a2d', 134, 'b95daab2-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b9667e3c-6fc4-11ec-b831-
482ae33c4a2d', 156, 'b9667e60-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b96ab489-6fc4-11ec-b831-
482ae33c4a2d', 175, 'b96ab4a5-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b96e2942-6fc4-11ec-b831-
482ae33c4a2d', 180, 'b96e295b-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b97092ec-6fc4-11ec-b831-
482ae33c4a2d', 123, 'b9709306-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b973727a-6fc4-11ec-b831-
482ae33c4a2d', 230, 'b9737293-6fc4-11ec-b831-482ae33c4a2d');
INSERT INTO tb_order (id, money, content) VALUES ('b978840f-6fc4-11ec-b831-
482ae33c4a2d', 560, 'b978843c-6fc4-11ec-b831-482ae33c4a2d');
通过在配置文件中配置可能的枚举值
, 指定数据分布到不同数据节点上, 本规则适用于按照省份、性别、状态拆分数据等业务 。
1.schema.xml中逻辑表配置:
# sharding-by-intfile-enumstatus
<table name="tb_user" dataNode="dn4,dn5,dn6" rule="sharding-by-intfile-enumstatus"/>
2.schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
3.rule.xml中分片规则配置:
假如我们多个逻辑都想使用枚举分片,但是根据的字段不一样,那么我们可以自定义增加枚举分片规则的: 如下我们使用自定义的枚举分片。
<tableRule name="sharding-by-intfile"> ⭐
<rule>
<columns>sharding_idcolumns> ⭐⭐ 指定的枚举类型
<algorithm>hash-intalgorithm>
rule>
tableRule>
<tableRule name="sharding-by-intfile-enumstatus">
<rule>
<columns>statuscolumns> ⭐⭐⭐ 指定字段枚举类型
<algorithm>hash-intalgorithm> ⭐⭐⭐⭐ 寻找方法
rule>
tableRule>
<function name="hash-int" class="io.mycat.route.function.PartitionByFileMap">
<property name="defaultNode">2property> ⭐⭐⭐⭐⭐默认节点主机为第3个
⭐⭐⭐⭐⭐⭐ 配置文件
<property name="mapFile">partition-hash-int.txtproperty>
function>
4./usr/local/mycat/conf/partition-hash-int.txt ,内容如下 :
默认是:
10000=0
10010=1
修改为
# 左边是枚举值 右边是节点主机(数据节点)
1=0
2=1
3=2
5.分片规则属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
mapFile | 对应的外部配置文件 |
type | 默认值为0 ; 0 表示Integer , 1 表示String |
defaultNode | 默认节点 ; 小于0 标识不设置默认节点 , 大于等于0代表设置默认节点 ;默认节点的所用:枚举分片时,如果碰到不识别的枚举值, 就让它路由到默认节点 ; 如果没有默认值,碰到不识别的则报错 。 |
6.测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
use ITCAST;
CREATE TABLE tb_user (
id bigint(20) NOT NULL COMMENT 'ID',
username varchar(200) DEFAULT NULL COMMENT '姓名',
status int(2) DEFAULT '1' COMMENT '1: 未启用, 2: 已启用, 3: 已关闭',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_user (id,username ,status) values(1,'Tom',1);
insert into tb_user (id,username ,status) values(2,'Cat',2);
insert into tb_user (id,username ,status) values(3,'Rose',3);
insert into tb_user (id,username ,status) values(4,'Coco',2);
insert into tb_user (id,username ,status) values(5,'Lily',1);
insert into tb_user (id,username ,status) values(6,'Tom',1);
insert into tb_user (id,username ,status) values(7,'Cat',2);
insert into tb_user (id,username ,status) values(8,'Rose',3);
insert into tb_user (id,username ,status) values(9,'Coco',2);
insert into tb_user (id,username ,status) values(10,'Lily',1);
假如说: 我们的枚举值不在配置之内的话,那么就会选择走默认数据节点。
运行阶段由应用自主决定路由到那个分片 , 直接根据字符串子串
(必须是数字
)计算分片号。
1.schema.xml中逻辑表配置:
# sharding-by-substring
<table name="tb_app" dataNode="dn4,dn5,dn6" rule="sharding-by-substring" />
2.schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
3.rule.xml中分片规则配置:
<tableRule name="sharding-by-substring"> ⭐
<rule>
<columns>idcolumns> ⭐⭐ 选择的字段
<algorithm>sharding-by-substringalgorithm>
rule>
tableRule>
<function name="sharding-by-substring"
class="io.mycat.route.function.PartitionDirectBySubString">
<property name="startIndex">0property>
<property name="size">2property>
<property name="partitionCount">3property>
<property name="defaultPartition">0property>
function>
4.分片规则属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
startIndex | 字符子串起始索引 |
size | 字符长度 |
partitionCount | 分区(分片)数量 |
defaultPartition | 默认分片(在分片数量定义时, 字符标示的分片编号不在分片数量内时,使用默认分片) |
示例说明 :
id=05-100000002
, 在此配置中代表根据id中从 startIndex=0
,开始,截取siz=2
位数字即05,05就是获取的分区,如果没找到对应的分片则默认分配到defaultPartition
。
5.测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
cd /usr/local/mycat
bin/mycat start
mysql -h 127.0.0.1 -P 8066 -uroot -p123456
use ITCAST
CREATE TABLE tb_app (
id varchar(10) NOT NULL COMMENT 'ID',
name varchar(200) DEFAULT NULL COMMENT '名称',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_app (id,name) values('0000001','Testx00001');
insert into tb_app (id,name) values('0100001','Test100001');
insert into tb_app (id,name) values('0100002','Test200001');
insert into tb_app (id,name) values('0200001','Test300001');
insert into tb_app (id,name) values('0200002','TesT400001');
该算法类似于十进制的求模运算,但是为二进制的操作。例如,取 id 的二进制低 10 位 与1111111111 进行位 & 运算,位与运算最小值为 0000000000,最大值为1111111111,转换为十进制,也就是位于0-1023之间。(同为1都为1,一个为0都为0)顺序存入
<!-- 固定分片hash算法 -->
#sharding-by-long-hash
<table name="tb_longhash" dataNode="dn4,dn5,dn6" rule="sharding-by-long-hash" />
2.schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
3.rule.xml中分片规则配置:
<tableRule name="sharding-by-long-hash"> ⭐
<rule>
<columns>id</columns> ⭐⭐
<algorithm>sharding-by-long-hash</algorithm>
</rule>
</tableRule>
<!-- 分片总长度为1024,count与length数组长度必须一致;1024 -->
<function name="sharding-by-long-hash"
class="io.mycat.route.function.PartitionByLong">
<property name="partitionCount">2,1</property> ⭐⭐⭐代表有一个 2个分片大小是256, 1个分片大小是 512
<property name="partitionLength">256,512</property> ⭐⭐⭐⭐
</function>
4.分片规则属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段名 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
partitionCount | 分片个数列表 |
partitionLength | 分片范围列表 |
约束 :
以上分为三个分区:0-255,256-511,512-1023
CREATE TABLE tb_longhash (
id int(11) NOT NULL COMMENT 'ID',
name varchar(200) DEFAULT NULL COMMENT '名称',
firstChar char(1) COMMENT '首字母',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
insert into tb_longhash (id,name,firstChar) values(1,'七匹狼','Q');
insert into tb_longhash (id,name,firstChar) values(2,'八匹狼','B');
insert into tb_longhash (id,name,firstChar) values(3,'九匹狼','J');
insert into tb_longhash (id,name,firstChar) values(4,'十匹狼','S');
insert into tb_longhash (id,name,firstChar) values(5,'六匹狼','L');
insert into tb_longhash (id,name,firstChar) values(6,'五匹狼','W');
insert into tb_longhash (id,name,firstChar) values(7,'四匹狼','S');
insert into tb_longhash (id,name,firstChar) values(8,'三匹狼','S');
insert into tb_longhash (id,name,firstChar) values(9,'两匹狼','L');
截取字符串中的指定位置的子字符串, 进行hash算法, 算出分片。
# sharding-by-stringhash
<table name="tb_strhash" dataNode="dn4,dn5" rule="sharding-by-stringhash" />
2.schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
3.rule.xml中分片规则配置:
<tableRule name="sharding-by-stringhash">
<rule>
<columns>name</columns> ⭐ 指定的指定
<algorithm>sharding-by-stringhash</algorithm>
</rule>
</tableRule>
<function name="sharding-by-stringhash" class="io.mycat.route.function.PartitionByString">
<property name="partitionLength">512</property> <!-- ⭐⭐总长度为 2*512 为 1024 -->
<property name="partitionCount">2</property> <!-- ⭐⭐⭐ 分布到几个切片中,因为配置两个,所以写两个 -->
<property name="hashSlice">0:2</property> <!-- ⭐⭐⭐⭐0在end中吹按代表str.length() -1代表str.length()-1 大于0代表数字本身 0:2代表截取字符串 0 1 2 -->
</function>
4.分片规则属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
partitionLength | hash求模基数 ; length*count=1024 (出于性能考虑) |
partitionCount | 分区数 |
hashSlice | hash运算位 , 根据子字符串的hash运算 ; 0 代表 str.length(), -1 代表 str.length()-1 , 大于0只代表数字自身 ; 可以理解为substring(start,end),start为0则只表示0 |
示例说明:
第一个物理机: 0~511 第二个物理机 512~1023
cd /usr/local/mycat
bin/mycat start
use ITCAST
create table tb_strhash(
name varchar(20) primary key,
content varchar(100)
)engine=InnoDB DEFAULT CHARSET=utf8mb4;
INSERT INTO tb_strhash (name,content) VALUES('T1001', UUID());
INSERT INTO tb_strhash (name,content) VALUES('ROSE', UUID());
INSERT INTO tb_strhash (name,content) VALUES('JERRY', UUID());
INSERT INTO tb_strhash (name,content) VALUES('CRISTINA', UUID());
INSERT INTO tb_strhash (name,content) VALUES('TOMCAT', UUID());
1.schema.xml中逻辑表配置:
<table name="tb_datepart" dataNode="dn4,dn5,dn6" rule="sharding-by-date" />
2.schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
3.rule.xml中分片规则配置:
<tableRule name="sharding-by-date">
<rule>
<columns>create_timecolumns>
<algorithm>sharding-by-datealgorithm>
rule>
tableRule>
<function name="sharding-by-date" class="io.mycat.route.function.PartitionByDate">
<property name="dateFormat">yyyy-MM-ddproperty>
<property name="sBeginDate">2022-01-01property>
<property name="sEndDate">2022-01-30property>
<property name="sPartionDay">10property>
function>
4.分片规则属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
dateFormat | 日期格式 |
sBeginDate | 开始日期 |
sEndDate | 结束日期,如果配置了结束日期,则代码数据到达了这个日期的分片后,会重复从开始分片插入 |
sPartionDay | 分区天数,默认值 10 ,从开始日期算起,每个10天一个分区 |
5. 测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
create table tb_datepart(
id bigint not null comment 'ID' primary key,
name varchar(100) null comment '姓名',
create_time date null
);
insert into tb_datepart(id,name ,create_time) values(1,'Tom','2022-01-01');
insert into tb_datepart(id,name ,create_time) values(2,'Cat','2022-01-10');
insert into tb_datepart(id,name ,create_time) values(3,'Rose','2022-01-11');
insert into tb_datepart(id,name ,create_time) values(4,'Coco','2022-01-20');
insert into tb_datepart(id,name ,create_time) values(5,'Rose2','2022-01-21');
insert into tb_datepart(id,name ,create_time) values(6,'Coco2','2022-01-30');
insert into tb_datepart(id,name ,create_time) values(7,'Coco3','2022-01-31');
使用场景为按照月份来分片, 每个自然月为一个分片。
1.schema.xml中逻辑表配置:
<table name="tb_monthpart" dataNode="dn4,dn5,dn6" rule="sharding-by-month" />
2.schema.xml中数据节点配置:
<dataNode name="dn4" dataHost="dhost1" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />
3.rule.xml中分片规则配置:
<tableRule name="sharding-by-month">
<rule>
<columns>create_timecolumns>
<algorithm>partbymonthalgorithm>
rule>
tableRule>
<function name="partbymonth" class="io.mycat.route.function.PartitionByMonth">
<property name="dateFormat">yyyy-MM-ddproperty>
<property name="sBeginDate">2022-01-01property>
<property name="sEndDate">2022-03-31property>
function>
4.分片规则属性含义:
属性 | 描述 |
---|---|
columns | 标识将要分片的表字段 |
algorithm | 指定分片函数与function的对应关系 |
class | 指定该分片算法对应的类 |
dateFormat | 日期格式 |
sBeginDate | 开始日期 |
sEndDate | 结束日期,如果配置了结束日期,则代码数据到达了这个日期的分片后,会重复从开始分片插入 |
5.测试
配置完毕后,重新启动MyCat,然后在mycat的命令行中,执行如下SQL创建表、并插入数据,查看数据分布情况。
create table tb_monthpart(
id bigint not null comment 'ID' primary key,
name varchar(100) null comment '姓名',
create_time date null
);
insert into tb_monthpart(id,name ,create_time) values(1,'Tom','2022-01-01');
insert into tb_monthpart(id,name ,create_time) values(2,'Cat','2022-01-10');
insert into tb_monthpart(id,name ,create_time) values(3,'Rose','2022-01-31');
insert into tb_monthpart(id,name ,create_time) values(4,'Coco','2022-02-20');
insert into tb_monthpart(id,name ,create_time) values(5,'Rose2','2022-02-25');
insert into tb_monthpart(id,name ,create_time) values(6,'Coco2','2022-03-10');
insert into tb_monthpart(id,name ,create_time) values(7,'Coco3','2022-03-31');
insert into tb_monthpart(id,name ,create_time) values(8,'Coco4','2022-04-10');
insert into tb_monthpart(id,name ,create_time) values(9,'Coco5','2022-04-30');
在MyCat中,当执行一条SQL语句时,MyCat需要进行SQL解析、分片分析、路由分析、读写分离分析
等操作,最终经过一系列的分析决定将当前的SQL语句到底路由到那几个(或哪一个)节点数据库,数据库将数据执行完毕后,如果有返回的结果,则将结果返回给MyCat,最终还需要在MyCat中进行结果合并、聚合处理、排序处理、分页处理等操作,最终再将结果返回给客户端。
而在MyCat的使用过程中,MyCat官方也提供了一个管理监控平台MyCat-Web(MyCat-eye)。Mycat-web 是 Mycat 可视化运维的管理和监控平台,弥补了 Mycat 在监控上的空白。帮 Mycat分担统计任务和配置管理任务。Mycat-web 引入了 ZooKeeper 作为配置中心,可以管理多个节点。Mycat-web 主要管理和监控 Mycat 的流量、连接、活动线程和内存等,具备 IP 白名单、邮件告警等模块,还可以统计 SQL 并分析慢 SQL 和高频 SQL 等。为优化 SQL 提供依据。
Mycat默认开通2个端口,可以在server.xml中进行修改。
8066
数据访问端口,即进行 DML 和 DDL 操作。9066
数据库管理端口,即 mycat 服务管理控制功能,用于管理mycat的整个集群状态.连接MyCat的管理控制台:
一定要开放端口 9066 .
# 查看9066端口是否被占用
netstat -anp|grep 9066
# 永久开放9066端口
firewall-cmd --add-port=9066/tcp --permanent
# 重新加载
firewall-cmd --reload
# 查看已经开发的端口
firewall-cmd --list-ports
mysql -h 127.0.0.1 -P 9066 -uroot -p123456
命令 | 含义 |
---|---|
show @@help | 查看Mycat管理工具帮助文档 |
show @@version | 查看Mycat的版本 |
reload @@config | 重新加载Mycat的配置文件 |
show @@datasource | 查看Mycat的数据源信息 |
show @@datanode | 查看MyCat现有的分片节点信息 |
show @@threadpool | 查看Mycat的线程池信息 |
show @@sql | 查看执行的SQL |
show @@sql.sum | 查看执行的SQL统计 |
Mycat-web(Mycat-eye
)是对mycat-server提供监控服务,功能不局限于对mycat-server使用。他通过JDBC连接对Mycat、Mysql监控,监控远程服务器(目前仅限于linux系统)的cpu、内存、网络、磁盘。
Mycat-eye运行过程中需要依赖zookeeper,因此需要先安装zookeeper。
1.上传zookeeper 和 MyCat-web的安装包到 opt目录
cd /opt
# 解压
tar -zxvf zookeeper-3.4.6.tar.gz -C /usr/local/
# 解压MyCat-web
tar -zxvf Mycat-web.tar.gz -C /usr/local/
# 进入解压的目录
cd usr/local
默认端口号为 2181
#开放端口
firewall-cmd -add-port=2181/tcp -permanent
cd /usr/local/zookeeper-3.4.6
# 创建文件夹_存放数据的目录
mkdir data
# 进入这个目录
cd data
# 展示目录信息
pwd (/usr/local/zookeeper-3.4.6/data)
# 退出
cd ..
# 修改zookeeper的配置文件名,为zoo.cfg
mv zoo_sample.cfg zoo.cfg
# vim 编辑器修改文件
vim zoo.cfg
# 启动zookerper
cd /usr/local/zookeeper-3.4.6
bin/zkServer.sh start
# 查看状态
bin/zkServer.sh status
# 关闭
bin/zkServer.sh stop
# 进入解压的目录
cd /usr/local
# 进入MycAT
cd mycat-web/
# 进入MyCat配置文件目录
cd /usr/local/mycat-web/mycat-web/WEB-INF/classes
# 查看日志
cat /usr/local/mycat-web/mycat-web/WEB-INF/classes/mycat.properties
配置文件默认连接的zookerper为本机的 2181端口的zookerper
# 启动MyCatee
cd /usr/local/mycat-web
sh start.sh
http://jsxs1.cn:8082/mycat/#page/monitor/jrds.html
1.一定要开启zookeeper(2181),Mycat管理(9066)和Mycat(8066)
# 关闭Mycat 8066
cd /usr/local/mycat
bin/mycat status #查看状态
bin/mycat stop #停止
# 关闭 Mycar-zookeeper 2181
cd /usr/local/zookeeper-3.4.6
bin/zkServer.sh stop
bin/zkServer.sh status
#关闭 Mycat-eye 8082
直接关闭安全组即可
读写分离,简单地说是把对数据库的读和写操作分开,以对应不同的数据库服务器。主数据库提供写操作,从数据库提供读操作,这样能有效地减轻单台数据库的压力。
MySQL的主从复制,是基于二进制日志(binlog)实现的。
1.主从复制实现读写分离需要操纵多个数据源分厂损耗性能!!!
通过MyCat即可轻易实现上述功能,不仅可以支持MySQL,也可以支持Oracle和SQL Server。
MySQL的主从复制,是基于二进制日志(binlog)实现的。
# 进入我们瓜子啊的数据卷
cd /home/docker_mysql/mysql01
# 更改我们的my.cnf配置文件
vim /home/docker_mysql/mysql01conf/my.cnf
# 添加配置如下
server-id=2
read-only=1
# 重启这个Docker01容器
docker restart mysql01
# 进入容器内部
docker exec -it mysql01 bash
# 查看是否同步成功
cat /etc/mysql/my.cnf
# 登入mysql账户
mysql -u root -p123456
# 添加权限和认证 : 需要主库的信息
CHANGE MASTER TO MASTER_HOST='8.130.48.9',MASTER_USER='itcast',MASTER_PASSWORD='Root@123456',MASTER_LOG_FILE='mysql-bin.000014',MASTER_LOG_POS=154;
# 开启从库
start slave;
# 查看状态
show slave status\G;
主机 | 角色 | 用户名 | 密码 |
---|---|---|---|
8.130.48.9 | master | root | 123456 |
8.130.48.9:9090 | salve | root | 123456 |
MyCat控制后台数据库的读写分离和负载均衡由schema.xml文件datahost标签的balance属性控制。
1.schema.xml配置
# 我们可以不指定逻辑表,会根据数据节点查找指定数据库,然后读取这个数据库的所有表结构作为逻辑表结构
<schema name="ITCAST_RW" checkSQLschema="true" sqlMaxLimit="100" dataNode="dn7">schema>
2.数据节点
<dataNode name="dn7" dataHost="dhost7" database="db01" />
# blance要为3 ⭐
<dataHost name="dhost7" maxCon="1000" minCon="10" balance="3" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()heartbeat>
# 写的主机⭐⭐
<writeHost host="master" url="jdbc:mysql://127.0.0.1:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456">
# 读的从机⭐⭐⭐
<readHost host="slave" url="jdbc:mysql://127.0.0.1:9090?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
writeHost>
dataHost>
writeHost代表的是写操作对应的数据库,readHost代表的是读操作对应的数据库。 所以我们要想实现读写分离,就得配置writeHost关联的是主库,readHost关联的是从库。
而仅仅配置好了writeHost以及readHost还不能完成读写分离,还需要配置一个非常重要的负责均衡的参数 balance,取值有4种,具体含义如下:
参数值 | 含义 |
---|---|
0 | 不开启读写分离机制 , 所有读操作都发送到当前可用的writeHost上 |
1 | 全部的readHost 与 备用的writeHost 都参与select 语句的负载均衡(主要针对于双主双从模式) |
2 | 所有的读写操作都随机在writeHost , readHost上分发 |
3 | 所有的读请求随机分发到writeHost对应的readHost上执行, writeHost不负担读压力 |
所以,在一主一从模式的读写分离中,balance配置1或3都是可以完成读写分离的。
配置root用户可以访问SHOPPING、ITCAST 以及 ITCAST_RW逻辑库。
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST,ITCAST_RW</property>
</user>
<user name="user">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST,ITCAST_RW</property>
<property name="readOnly">true</property>
</user>
cd /usr/local/mycat
bin/mycat start
bin/mycat staus
cat /usr/local/mycat/logs/wrapper.log
# 登入MyCat客户端
mysql -h 127.0.0.1 -P 8066 -u root -p123456
use ITCAST;
show tables;
如果遇到报错的情况,首先查看账户 密码是否错误!!
注意: 查询的是readHost物理机的数据库,writeHost物理机只负责插入。
从库的改变不会影响主库。所以主库的第一条数据为111.
# 在MyCat客户端执行
select *from tb_user;
insert into tb_user(name,sex) values('444','0');
假如主库挂待机了,业务系统只能进行读取,而不能写入数据。
一个主机 Master1 用于处理所有写请求,它的从机 Slave1 和另一台主机 Master2 还有它的从机 Slave2 负责所有读请求。当 Master1 主机宕机后,Master2 主机负责写请求,Master1 、Master2 互为备机。架构图如下:
编号 | IP | 预装软件 | 角色 |
---|---|---|---|
1 | 3306 | MySQL | M1 |
2 | 9090 | MySQL | S1 |
3 | 9091 | MySQL | M2 |
4 | 9092 | MySQL | S2 |
5 | 8.130.48.9 | Mycat、MySQL | MyCat中间件器 |
1.修改配置文件 /etc/my.cnf
# 进入主文件配置
vim /etc/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 2^32-1,默认为1
server-id=1
#指定同步的数据库
binlog-do-db=db01
binlog-do-db=db02
binlog-do-db=db03
# 在作为从数据库的时候,有写入操作也要更新二进制日志文件
log-slave-updates
2.重启主服务器的mysql
systemctl restart mysqld
1.配置文件
# 数据卷挂载部分更改
vim /home/docker_mysql/mysql02/conf/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 2^32`在这里插入代码片`-1,默认为1
server-id=3
#指定同步的数据库
binlog-do-db=db01
binlog-do-db=db02
binlog-do-db=db03
# 在作为从数据库的时候,有写入操作也要更新二进制日志文件
log-slave-updates
1.重启
docker restart mysql02
1.创建账号并授权
#创建itcast用户,并设置密码,该用户可在任意主机连接该MySQL服务
CREATE USER 'itcast'@'%' IDENTIFIED WITH mysql_native_password BY 'Root@123456';
#为 'itcast'@'%' 用户分配主从复制权限
GRANT REPLICATION SLAVE ON *.* TO 'itcast'@'%';
2.通过指令,查看两台主库的二进制日志坐标
show master status ;
1.主库M1
2.副主库M2,出现为空
3.需要在配置文件my.cnf中添加如下
log-bin=mysql-bin
docker restart mysql02;
1.修改主从库的配置文件
# 修改配置文件
vim /home/docker_mysql/mysql01/conf/my.cnf
#mysql 服务ID,保证整个集群环境中唯一,取值范围:1 – 232-1,默认为1
server-id=2
2.重启MySQL服务器
docker restart mysql01
1.修改副主从库的配置
# 修改配置文件
vim /home/docker_mysql/mysql03/conf/my.cnf
# 配置如下信息
server-id=4
2.重启
docker restart mysql03
1.M1和S1进行配置
CHANGE MASTER TO MASTER_HOST='8.130.48.9',MASTER_USER='itcast',MASTER_PASSWORD='Root@123456',MASTER_LOG_FILE='mysql-bin.000015',MASTER_LOG_POS=749;
start slave;
show slave status \G;
2.M2和S2进行配置
CHANGE MASTER TO MASTER_HOST='8.130.48.9',master_port=9091,MASTER_USER='itcast',MASTER_PASSWORD='Root@123456',MASTER_LOG_FILE='mysql-bin.000001',MASTER_LOG_POS=154;
start slave;
show slave status \G;
1.M1复制M2: 在M2运行
CHANGE MASTER TO MASTER_HOST='8.130.48.9',MASTER_USER='itcast',MASTER_PASSWORD='Root@123456',MASTER_LOG_FILE='mysql-bin.000015',MASTER_LOG_POS=749;
start slave;
show slave status \G;
CHANGE MASTER TO MASTER_HOST='8.130.48.9',master_port=9091,MASTER_USER='itcast',MASTER_PASSWORD='Root@123456',MASTER_LOG_FILE='mysql-bin.000001',MASTER_LOG_POS=154;
start slave;
show slave status \G;
1.在M1上进行输入
create database db01;
use db01;
create table tb_user(
id int(11) not null primary key ,
name varchar(50) not null,
sex varchar(1)
)engine=innodb default charset=utf8mb4;
insert into tb_user(id,name,sex) values(1,'Tom','1');
insert into tb_user(id,name,sex) values(2,'Trigger','0');
insert into tb_user(id,name,sex) values(3,'Dawn','1');
insert into tb_user(id,name,sex) values(4,'Jack Ma','1');
insert into tb_user(id,name,sex) values(5,'Coco','0');
insert into tb_user(id,name,sex) values(6,'Jerry','1');
MyCat控制后台数据库的读写分离和负载均衡由schema.xml
文件datahost
标签的balance
属性控制,通过writeType
及switchType
来完成失败自动切换的。
#
<schema name="ITCAST_RW2" checkSQLschema="true" sqlMaxLimit="100" dataNode="dn7"></schema>
2.配置数据节点:
<dataNode name="dn7" dataHost="dhost7" database="db01" />
3.配置节点主机
<dataHost name="dhost7" maxCon="1000" minCon="10" balance="1" writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1" slaveThreshold="100">
<heartbeat>select user()</heartbeat>
<writeHost host="master1" url="jdbc:mysql://127.0.0.1:3306?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="121788">
<readHost host="slave1" url="jdbc:mysql://127.0.0.1:9090?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</writeHost>
<writeHost host="master2" url="jdbc:mysql://127.0.0.1:9091?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456">
<readHost host="slave2" url="jdbc:mysql://127.0.0.1:9092?useSSL=false&serverTimezone=Asia/Shanghai&characterEncoding=utf8" user="root" password="123456" />
</writeHost>
</dataHost>
4.srever.xml
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST,ITCAST_RW2</property>
</user>
<user name="user">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST,ITCAST_RW2</property>
<property name="readOnly">true</property>
</user>
5.重启
# 进入
cd /usr/local/mycat
# 启动
bin/mycat start
#查看日志
cat /usr/local/mycat/logs/wrapper.log
# 启动
mysql -h 127.0.0.1 -P 8066 -uroot -p123456
1.查询的数据为: 除主库外其他都可以查询
2.主库没有崩,副主只能当作查询来用
# 在主库3306处执行
systemctl stop mysqld
主库崩后,与主库关联的从库也会崩!