目录
第01章 高性能架构模式
1、读写分离架构
2、数据库分片架构
2.1、垂直分片
2.2、水平分片
3、读写分离和数据分片架构
4、实现方式
4.1、程序代码封装
4.2、中间件封装
4.3、常用解决方案
第02章 ShardingSphere
1、简介
2、ShardingSphere-JDBC
3、ShardingSphere-Proxy
第03章 MySQL主从同步
1、MySQL主从同步原理
2、一主多从配置
2.1、准备主服务器
2.2、准备从服务器
2.3、启动主从同步
2.4、实现主从同步
2.5、停止和重置
2.6、常见问题
第04章 ShardingSphere-JDBC读写分离
1、创建SpringBoot程序
1.1、创建项目
1.2、添加依赖
1.3、创建实体类
1.4、创建Mapper
1.5、配置读写分离
2、测试
2.1、读写分离测试
2.2、事务测试
2.3、负载均衡测试
第05章 ShardingSphere-JDBC垂直分片
1、准备服务器
1.1、创建server-user容器
1.2、创建server-order容器
2、程序实现
2.1、创建实体类
2.2、创建Mapper
2.3、配置垂直分片
3、测试垂直分片
常见错误
第06章 ShardingSphere-JDBC水平分片
1、准备服务器
1.1、创建server-order0容器
1.2、创建server-order1容器
2、基本水平分片
2.1、基本配置
2.2、数据源配置
2.3、标椎分片表配置
2.4、行表达式
2.5、分片算法配置
2.6、分布式序列算法
3、多表关联
3.1、创建关联表
3.2、创建实体类
3.3、创建Mapper
3.4、配置关联表
3.5、测试插入数据
4、绑定表
4.1、创建VO对象
4.2、添加Mapper方法
4.3、测试关联查询
4.4、配置绑定表
5、广播表
4.1、什么是广播表
4.2、创建广播表
4.3、程序实现
4.4、测试广播表
互联网业务兴起之后,海量用户加上海量数据的特点,单个数据库服务器已经难以满足业务需要,必须考虑数据库集群的方式来提升性能。高性能数据库集群的第一种方式是“读写分离”
,第二种方式是“数据库分片”
。
读写分离原理:读写分离的基本原理是将数据库读写操作分散到不同的节点上,下面是其基本架构图:
读写分离的基本实现:
主库负责处理事务性的增删改操作,从库负责处理查询操作
,能够有效的避免由数据更新导致的行锁,使得整个系统的查询性能得到极大的改善。根据 SQL 语义的分析
,将读操作和写操作分别路由至主库与从库
。一主多从
的配置方式,可以将查询请求均匀的分散到多个数据副本,能够进一步的提升系统的处理能力。多主多从
的方式,不但能够提升系统的吞吐量,还能够提升系统的可用性,可以达到在任何一个数据库宕机,甚至磁盘物理损坏的情况下仍然不影响系统的正常运行。下图展示了根据业务需要,将用户表的写操作和读操路由到不同的数据库的方案:
CAP 理论:
CAP 定理(CAP theorem)又被称作布鲁尔定理(Brewer's theorem),是加州大学伯克利分校的计算机科学家埃里克·布鲁尔(Eric Brewer)在 2000 年的 ACM PODC 上提出的一个猜想。对于设计分布式系统的架构师来说,CAP 是必须掌握的理论。
在一个分布式系统中
,当涉及读写操作时,只能保证一致性(Consistence)、可用性(Availability)、分区容错性(Partition Tolerance)三者中的两个,另外一个必须被牺牲。
(不是错误和超时的响应)
(可能是丢包,也可能是连接中断,还可能是拥塞)
,系统能够继续“履行职责”CAP特点:
有的数据必须选择 CP,有的数据必须选择 AP,分布式系统理论上不可能选择 CA 架构。
C 在实践中是不可能完美实现的
,在数据复制的过程中,节点N1 和节点 N2 的数据并不一致(强一致性)。即使无法做到强一致性
,但应用可以采用适合的方式达到最终一致性
。具有如下特点:最终一致性(Eventual Consistency):系统中的所有数据副本经过一定时间后,最终能够达到一致的状态。
读写分离的问题:
读写分离分散了数据库读写操作的压力,但没有分散存储压力,为了满足业务数据存储的需求,就需要将存储分散到多台数据库服务器上
。
数据分片:
将存放在单一数据库中的数据分散地存放至多个数据库或表中,以达到提升性能瓶颈以及可用性的效果。 数据分片的有效手段是对关系型数据库进行分库和分表
。数据分片的拆分方式又分为垂直分片和水平分片
。
垂直分库:
按照业务拆分的方式称为垂直分片,又称为纵向拆分
,它的核心理念是专库专用。 在拆分之前,一个数据库由多个数据表构成,每个表对应着不同的业务。而拆分之后,则是按照业务将表进行归类,分布到不同的数据库中,从而将压力分散至不同的数据库。
下图展示了根据业务需要,将用户表和订单表垂直分片到不同的数据库的方案:
垂直拆分可以缓解数据量和访问量带来的问题,但无法根治。如果垂直拆分之后,表中的数据量依然超过单节点所能承载的阈值,则需要水平分片来进一步处理。
垂直分表:
垂直分表适合将表中某些不常用的列,或者是占了大量空间的列拆分出去。
假设我们是一个婚恋网站,用户在筛选其他用户的时候,主要是用 age 和 sex 两个字段进行查询,而 nickname 和 description 两个字段主要用于展示,一般不会在业务查询中用到。description 本身又比较长,因此我们可以将这两个字段独立到另外一张表中,这样在查询 age 和 sex 时,就能带来一定的性能提升。
垂直分表引入的复杂性主要体现在表操作的数量要增加。例如,原来只要一次查询就可以获取 name、age、sex、nickname、description,现在需要两次查询,一次查询获取 name、age、sex,另外一次查询获取 nickname、description。
水平分表适合表行数特别大的表,水平分表属于水平分片
。
水平分片又称为横向拆分。
相对于垂直分片,它不再将数据根据业务逻辑分类,而是通过某个字段(或某几个字段),根据某种规则将数据分散至多个库或表中,每个分片仅包含数据的一部分。 例如:根据主键分片,偶数主键的记录放入 0 库(或表),奇数主键的记录放入 1 库(或表),如下图所示。
单表进行切分后,是否将多个表分散在不同的数据库服务器中,可以根据实际的切分效果来确定。
阿里巴巴Java开发手册:
【推荐】单表行数超过 500 万行或者单表容量超过 2GB,才推荐进行分库分表。
说明:如果预计三年后的数据量根本达不到这个级别,请不要在创建表时就分库分表
。
下图展现了将数据分片与读写分离一同使用时,应用程序与数据库集群之间的复杂拓扑关系。
读写分离和数据分片具体的实现方式一般有两种: 程序代码封装
和中间件封装
。
程序代码封装指在代码中抽象一个数据访问层(或中间层封装)
,实现读写操作分离和数据库服务器连接的管理。
其基本架构是:以读写分离为例
中间件封装指的是独立一套系统出来
,实现读写操作分离和数据库服务器连接的管理。对于业务服务器来说,访问中间件和访问数据库没有区别,在业务服务器看来,中间件就是一个数据库服务器。
基本架构是:以读写分离为例
Apache ShardingSphere(程序级别和中间件级别)
MyCat(数据库中间件)
官网:Apache ShardingSphere
文档:概览 :: ShardingSphere
Apache ShardingSphere 由 JDBC、Proxy 和 Sidecar(规划中)这 3 款既能够独立部署,又支持混合部署配合使用的产品组成。
程序代码封装
定位为轻量级 Java 框架,在 Java 的 JDBC 层提供的额外服务
。 它使用客户端直连数据库,以 jar 包形式提供服务
,无需额外部署和依赖,可理解为增强版的 JDBC 驱动,完全兼容 JDBC 和各种 ORM 框架。
中间件封装
定位为透明化的数据库代理端
,提供封装了数据库二进制协议的服务端版本,用于完成对异构语言的支持。 目前提供 MySQL 和 PostgreSQL版本,它可以使用任何兼容 MySQL/PostgreSQL 协议的访问客户端(如:MySQL Command Client, MySQL Workbench, Navicat 等)操作数据,对 DBA 更加友好。
基本原理:
slave会从master读取binlog来进行数据同步
具体步骤:
step1:
master将数据改变记录到二进制日志(binary log)
中。step2:
当slave上执行 start slave
命令之后,slave会创建一个 IO 线程
用来连接master,请求master中的binlog。step3:
当slave连接master时,master会创建一个 log dump 线程
,用于发送 binlog 的内容。在读取 binlog 的内容的操作中,会对主节点上的 binlog 加锁,当读取完成并发送给从服务器后解锁。step4:
IO 线程接收主节点 binlog dump 进程发来的更新之后,保存到 中继日志(relay log)
中。step5:
slave的SQL线程
,读取relay log日志,并解析成具体操作,从而实现主从操作一致,最终数据一致。服务器规划:使用docker
方式创建,主从服务器IP一致,端口号不一致
atguigu-mysql-master
,端口3306
atguigu-mysql-slave1
,端口3307
atguigu-mysql-slave2
,端口3308
注意:如果此时防火墙是开启的,则先关闭防火墙,并重启docker
,否则后续安装的MySQL无法启动
#关闭docker systemctl stop docker #关闭防火墙 systemctl stop firewalld #启动docker systemctl start docker
端口3306
docker run -d \ -p 3306:3306 \ -v /atguigu/mysql/master/conf:/etc/mysql/conf.d \ -v /atguigu/mysql/master/data:/var/lib/mysql \ -e MYSQL_ROOT_PASSWORD=123456 \ --name atguigu-mysql-master \ mysql:8.0.29
默认情况下MySQL的binlog日志是自动开启的,可以通过如下配置定义一些可选配置
vim /atguigu/mysql/master/conf/my.cnf
配置如下内容
[mysqld] # 服务器唯一id,默认值1 server-id=1 # 设置日志格式,默认值ROW binlog_format=STATEMENT # 二进制日志名,默认binlog # log-bin=binlog # 设置需要复制的数据库,默认复制全部数据库 #binlog-do-db=mytestdb # 设置不需要复制的数据库 #binlog-ignore-db=mysql #binlog-ignore-db=infomation_schema
重启MySQL容器
docker restart atguigu-mysql-master
binlog格式说明:
写指令
,性能高,但是now()之类的函数以及获取系统参数的操作会出现主从数据不同步的问题。写后的数据
,批量操作时性能较差,解决now()或者 user()或者 @@hostname 等操作在主从机器上不一致的问题。binlog-ignore-db和binlog-do-db的优先级问题:
#进入容器:env LANG=C.UTF-8 避免容器中显示中文乱码 docker exec -it atguigu-mysql-master env LANG=C.UTF-8 /bin/bash #进入容器内的mysql命令行 mysql -uroot -p #修改默认密码校验方式 ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
-- 创建slave用户 CREATE USER 'atguigu_slave'@'%'; -- 设置密码 ALTER USER 'atguigu_slave'@'%' IDENTIFIED WITH mysql_native_password BY '123456'; -- 授予复制权限 GRANT REPLICATION SLAVE ON *.* TO 'atguigu_slave'@'%'; -- 刷新权限 FLUSH PRIVILEGES;
执行完此步骤后不要再操作主服务器MYSQL
,防止主服务器状态值变化
SHOW MASTER STATUS;
记下File
和Position
的值。执行完此步骤后不要再操作主服务器MYSQL,防止主服务器状态值变化。
可以配置多台从机slave1、slave2...,这里以配置slave1为例
端口3307
docker run -d \ -p 3307:3306 \ -v /atguigu/mysql/slave1/conf:/etc/mysql/conf.d \ -v /atguigu/mysql/slave1/data:/var/lib/mysql \ -e MYSQL_ROOT_PASSWORD=123456 \ --name atguigu-mysql-slave1 \ mysql:8.0.29
vim /atguigu/mysql/slave1/conf/my.cnf
配置如下内容:
[mysqld] # 服务器唯一id,每台服务器的id必须不同,如果配置其他从机,注意修改id server-id=2 # 中继日志名,默认xxxxxxxxxxxx-relay-bin #relay-log=relay-bin
重启MySQL容器
docker restart atguigu-mysql-slave1
#进入容器: docker exec -it atguigu-mysql-slave1 env LANG=C.UTF-8 /bin/bash #进入容器内的mysql命令行 mysql -uroot -p #修改默认密码校验方式 ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
在从机上执行以下SQL操作
CHANGE MASTER TO MASTER_HOST='192.168.100.201', MASTER_USER='atguigu_slave',MASTER_PASSWORD='123456', MASTER_PORT=3306, MASTER_LOG_FILE='binlog.000003',MASTER_LOG_POS=1357;
MASTER_USER :主机设置的访问账号
MASTER_LOG_FILE:主机的binlog日志文件
MASTER_LOG_POS:主机的binlog日志文件位点
启动从机的复制功能,执行SQL:
START SLAVE; -- 查看状态(不需要分号) SHOW SLAVE STATUS\G
两个关键进程:下面两个参数都是Yes,则说明主从配置成功!
在主机中执行以下SQL,在从机中查看数据库、表和数据是否已经被同步
CREATE DATABASE db_user; USE db_user; CREATE TABLE t_user ( id BIGINT AUTO_INCREMENT, uname VARCHAR(30), PRIMARY KEY (id) ); INSERT INTO t_user(uname) VALUES('zhang3'); INSERT INTO t_user(uname) VALUES(@@hostname);
需要的时候,可以使用如下SQL语句
-- 在从机上执行。功能说明:停止I/O 线程和SQL线程的操作。 stop slave; -- 在从机上执行。功能说明:用于删除SLAVE数据库的relaylog日志文件,并重新启用新的relaylog文件。 reset slave; -- 在主机上执行。功能说明:删除所有的binglog日志文件,并将日志索引文件清空,重新开始所有新的日志文件。 -- 用于第一次进行搭建主从库时,进行主库binlog初始化工作; reset master;
问题1
启动主从同步后,常见错误是Slave_IO_Running: No 或者 Connecting
的情况,此时查看下方的 Last_IO_ERROR
错误日志,根据日志中显示的错误信息在网上搜索解决方案即可
典型的错误例如:Last_IO_Error: Got fatal error 1236 from master when reading data from binary log: 'Client requested master to start replication from position > file size'
解决方案:
-- 在从机停止slave SLAVE STOP; -- 在主机查看mater状态 SHOW MASTER STATUS; -- 在主机刷新日志 FLUSH LOGS; -- 再次在主机查看mater状态(会发现File和Position发生了变化) SHOW MASTER STATUS; -- 修改从机连接主机的SQL,并重新连接即可
问题2
启动docker容器后提示 WARNING: IPv4 forwarding is disabled. Networking will not work.
此错误,虽然不影响主从同步的搭建,但是如果想从远程客户端通过以下方式连接docker中的MySQL则没法连接
C:\Users\administrator>mysql -h 192.168.100.201 -P 3306 -u root -p
解决方案:
#修改配置文件: vim /usr/lib/sysctl.d/00-system.conf #追加 net.ipv4.ip_forward=1 #接着重启网络 systemctl restart network
项目类型:Spring Initializr
SpringBoot脚手架:http://start.aliyun.com
项目名:sharding-jdbc-demo
SpringBoot版本:2.3.7.RELEASE
org.springframework.boot spring-boot-starter-web org.apache.shardingsphere shardingsphere-jdbc-core-spring-boot-starter 5.1.1 mysql mysql-connector-java runtime com.baomidou mybatis-plus-boot-starter 3.3.1 org.projectlombok lombok true org.springframework.boot spring-boot-starter-test test org.junit.vintage junit-vintage-engine
package com.atguigu.shardingjdbcdemo.entity; @TableName("t_user") @Data public class User { @TableId(type = IdType.AUTO) private Long id; private String uname; }
package com.atguigu.shardingjdbcdemo.mapper; @Mapper public interface UserMapper extends BaseMapper{ }
application.properties:
# 应用名称 spring.application.name=sharging-jdbc-demo # 开发环境设置 spring.profiles.active=dev # 内存模式 spring.shardingsphere.mode.type=Memory # 配置真实数据源 spring.shardingsphere.datasource.names=master,slave1,slave2 # 配置第 1 个数据源 spring.shardingsphere.datasource.master.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.master.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.master.jdbc-url=jdbc:mysql://192.168.100.201:3306/db_user spring.shardingsphere.datasource.master.username=root spring.shardingsphere.datasource.master.password=123456 # 配置第 2 个数据源 spring.shardingsphere.datasource.slave1.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.slave1.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.slave1.jdbc-url=jdbc:mysql://192.168.100.201:3307/db_user spring.shardingsphere.datasource.slave1.username=root spring.shardingsphere.datasource.slave1.password=123456 # 配置第 3 个数据源 spring.shardingsphere.datasource.slave2.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.slave2.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.slave2.jdbc-url=jdbc:mysql://192.168.100.201:3308/db_user spring.shardingsphere.datasource.slave2.username=root spring.shardingsphere.datasource.slave2.password=123456 # 读写分离类型,如: (读写分离类型,分为静态和动态。如 Static、Dynamic) spring.shardingsphere.rules.readwrite-splitting.data-sources.myds.type=Static # 写数据源名称 spring.shardingsphere.rules.readwrite-splitting.data-sources.myds.props.write-data-source-name=master # 读数据源名称,多个从数据源用逗号分隔 spring.shardingsphere.rules.readwrite-splitting.data-sources.myds.props.read-data-source-names=slave1,slave2 # 负载均衡算法名称 spring.shardingsphere.rules.readwrite-splitting.data-sources.myds.load-balancer-name=alg_round # 负载均衡算法配置 # 负载均衡算法类型 ## 轮询算法 spring.shardingsphere.rules.readwrite-splitting.load-balancers.alg_round.type=ROUND_ROBIN ## 随机算法 spring.shardingsphere.rules.readwrite-splitting.load-balancers.alg_random.type=RANDOM ## 权重算法 spring.shardingsphere.rules.readwrite-splitting.load-balancers.alg_weight.type=WEIGHT spring.shardingsphere.rules.readwrite-splitting.load-balancers.alg_weight.props.slave1=1 spring.shardingsphere.rules.readwrite-splitting.load-balancers.alg_weight.props.slave2=2 # 打印SQl spring.shardingsphere.props.sql-show=true
package com.atguigu.shardingjdbcdemo; @SpringBootTest class ReadwriteTest { @Autowired private UserMapper userMapper; /** * 写入数据的测试 */ @Test public void testInsert(){ User user = new User(); user.setUname("张三丰"); userMapper.insert(user); } }
为了保证主从库间的事务一致性,避免跨服务的分布式事务,ShardingSphere-JDBC的主从模型中,事务中的数据读写均用主库
。
/** * 事务测试 */ @Transactional//开启事务 @Test public void testTrans(){ User user = new User(); user.setUname("铁锤"); userMapper.insert(user); Listusers = userMapper.selectList(null); }
/** * 读数据测试 */ @Test public void testSelectAll(){ Listusers = userMapper.selectList(null); List users = userMapper.selectList(null);//执行第二次测试负载均衡 users.forEach(System.out::println); }
也可以在web请求中测试负载均衡
package com.atguigu.shardingjdbcdemo.controller; @RestController @RequestMapping("/userController") public class UserController { @Autowired private UserMapper userMapper; /** * 测试负载均衡策略 */ @GetMapping("selectAll") public void selectAll(){ Listusers = userMapper.selectList(null); users.forEach(System.out::println); } }
服务器规划:使用docker
方式创建如下容器
server-user
,端口3301
server-order
,端口3302
docker run -d \ -p 3301:3306 \ -v /atguigu/server/user/conf:/etc/mysql/conf.d \ -v /atguigu/server/user/data:/var/lib/mysql \ -e MYSQL_ROOT_PASSWORD=123456 \ --name server-user \ mysql:8.0.29
#进入容器: docker exec -it server-user env LANG=C.UTF-8 /bin/bash #进入容器内的mysql命令行 mysql -uroot -p #修改默认密码插件 ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
CREATE DATABASE db_user; USE db_user; CREATE TABLE t_user ( id BIGINT AUTO_INCREMENT, uname VARCHAR(30), PRIMARY KEY (id) );
docker run -d \ -p 3302:3306 \ -v /atguigu/server/order/conf:/etc/mysql/conf.d \ -v /atguigu/server/order/data:/var/lib/mysql \ -e MYSQL_ROOT_PASSWORD=123456 \ --name server-order \ mysql:8.0.29
#进入容器: docker exec -it server-order env LANG=C.UTF-8 /bin/bash #进入容器内的mysql命令行 mysql -uroot -p #修改默认密码插件 ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
CREATE DATABASE db_order; USE db_order; CREATE TABLE t_order ( id BIGINT AUTO_INCREMENT, order_no VARCHAR(30), user_id BIGINT, amount DECIMAL(10,2), PRIMARY KEY(id) );
package com.atguigu.shardingjdbcdemo.entity; @TableName("t_order") @Data public class Order { @TableId(type = IdType.AUTO) private Long id; private String orderNo; private Long userId; private BigDecimal amount; }
package com.atguigu.shardingjdbcdemo.mapper; @Mapper public interface OrderMapper extends BaseMapper{ }
垂直分库 如:订单表在订单库,用户表在用户库
# 应用名称 spring.application.name=sharding-jdbc-demo # 环境设置 spring.profiles.active=dev # 配置真实数据源 spring.shardingsphere.datasource.names=server-user,server-order # 配置第 1 个数据源 spring.shardingsphere.datasource.server-user.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.server-user.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.server-user.jdbc-url=jdbc:mysql://192.168.100.201:3301/db_user spring.shardingsphere.datasource.server-user.username=root spring.shardingsphere.datasource.server-user.password=123456 # 配置第 2 个数据源 spring.shardingsphere.datasource.server-order.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.server-order.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.server-order.jdbc-url=jdbc:mysql://192.168.100.201:3302/db_order spring.shardingsphere.datasource.server-order.username=root spring.shardingsphere.datasource.server-order.password=123456 # 标准分片表配置(数据节点) # spring.shardingsphere.rules.sharding.tables..actual-data-nodes=值 # 值由数据源名 + 表名组成,以小数点分隔。 # :逻辑表名 spring.shardingsphere.rules.sharding.tables.t_user.actual-data-nodes=server-user.t_user spring.shardingsphere.rules.sharding.tables.t_order.actual-data-nodes=server-order.t_order # 打印SQL spring.shardingsphere.props.sql-show=true
package com.atguigu.shardingjdbcdemo; @SpringBootTest public class ShardingTest { @Autowired private UserMapper userMapper; @Autowired private OrderMapper orderMapper; /** * 垂直分片:插入数据测试 */ @Test public void testInsertOrderAndUser(){ User user = new User(); user.setUname("强哥"); userMapper.insert(user); Order order = new Order(); order.setOrderNo("ATGUIGU001"); order.setUserId(user.getId()); order.setAmount(new BigDecimal(100)); orderMapper.insert(order); } /** * 垂直分片:查询数据测试 */ @Test public void testSelectFromOrderAndUser(){ User user = userMapper.selectById(1L); Order order = orderMapper.selectById(1L); } }
ShardingSphere-JDBC远程连接的方式默认的密码加密规则是:mysql_native_password
因此需要在服务器端修改服务器的密码加密规则,如下:
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
服务器规划:使用docker
方式创建如下容器
server-order0
,端口3310
server-order1
,端口3311
docker run -d \ -p 3310:3306 \ -v /atguigu/server/order0/conf:/etc/mysql/conf.d \ -v /atguigu/server/order0/data:/var/lib/mysql \ -e MYSQL_ROOT_PASSWORD=123456 \ --name server-order0 \ mysql:8.0.29
#进入容器: docker exec -it server-order0 env LANG=C.UTF-8 /bin/bash #进入容器内的mysql命令行 mysql -uroot -p #修改默认密码插件 ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
注意:
水平分片的id需要在业务层实现,不能依赖数据库的主键自增
CREATE DATABASE db_order; USE db_order; CREATE TABLE t_order0 ( id BIGINT, order_no VARCHAR(30), user_id BIGINT, amount DECIMAL(10,2), PRIMARY KEY(id) ); CREATE TABLE t_order1 ( id BIGINT, order_no VARCHAR(30), user_id BIGINT, amount DECIMAL(10,2), PRIMARY KEY(id) );
docker run -d \ -p 3311:3306 \ -v /atguigu/server/order1/conf:/etc/mysql/conf.d \ -v /atguigu/server/order1/data:/var/lib/mysql \ -e MYSQL_ROOT_PASSWORD=123456 \ --name server-order1 \ mysql:8.0.29
#进入容器: docker exec -it server-order1 env LANG=C.UTF-8 /bin/bash #进入容器内的mysql命令行 mysql -uroot -p #修改默认密码插件 ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
注意:
水平分片的id需要在业务层实现,不能依赖数据库的主键自增
CREATE DATABASE db_order; USE db_order; CREATE TABLE t_order0 ( id BIGINT, order_no VARCHAR(30), user_id BIGINT, amount DECIMAL(10,2), PRIMARY KEY(id) ); CREATE TABLE t_order1 ( id BIGINT, order_no VARCHAR(30), user_id BIGINT, amount DECIMAL(10,2), PRIMARY KEY(id) );
#========================基本配置 # 应用名称 spring.application.name=sharging-jdbc-demo # 开发环境设置 spring.profiles.active=dev # 内存模式 spring.shardingsphere.mode.type=Memory # 打印SQl spring.shardingsphere.props.sql-show=true
一个db_user 库,两个db_order库,里面还有两张order表
#========================数据源配置 # 配置真实数据源 spring.shardingsphere.datasource.names=server-user,server-order0,server-order1 # 配置第 1 个数据源 spring.shardingsphere.datasource.server-user.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.server-user.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.server-user.jdbc-url=jdbc:mysql://192.168.100.201:3301/db_user spring.shardingsphere.datasource.server-user.username=root spring.shardingsphere.datasource.server-user.password=123456 # 配置第 2 个数据源 spring.shardingsphere.datasource.server-order.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.server-order.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.server-order.jdbc-url=jdbc:mysql://192.168.100.201:3310/db_order spring.shardingsphere.datasource.server-order.username=root spring.shardingsphere.datasource.server-order.password=123456 # 配置第 3 个数据源 spring.shardingsphere.datasource.server-order.type=com.zaxxer.hikari.HikariDataSource spring.shardingsphere.datasource.server-order.driver-class-name=com.mysql.jdbc.Driver spring.shardingsphere.datasource.server-order.jdbc-url=jdbc:mysql://192.168.100.201:3311/db_order spring.shardingsphere.datasource.server-order.username=root spring.shardingsphere.datasource.server-order.password=123456
#========================标准分片表配置(数据节点配置) # spring.shardingsphere.rules.sharding.tables..actual-data-nodes=值 # 值由数据源名 + 表名组成,以小数点分隔。多个表以逗号分隔,支持 inline 表达式。 # :逻辑表名 spring.shardingsphere.rules.sharding.tables.t_user.actual-data-nodes=server-user.t_user spring.shardingsphere.rules.sharding.tables.t_order.actual-data-nodes=server-order0.t_order0,server-order0.t_order1,server-order1.t_order0,server-order1.t_order1
修改Order实体类的主键策略:
//@TableId(type = IdType.AUTO)//依赖数据库的主键自增策略 @TableId(type = IdType.ASSIGN_ID)//分布式id
测试:保留上面配置中的一个分片表节点分别进行测试,检查每个分片节点是否可用
/** * 水平分片:插入数据测试 */ @Test public void testInsertOrder(){ Order order = new Order(); order.setOrderNo("ATGUIGU001"); order.setUserId(1L); order.setAmount(new BigDecimal(100)); orderMapper.insert(order); }
优化上一步的分片表配置
行表达式 :: ShardingSphere
#========================标准分片表配置(数据节点配置) # spring.shardingsphere.rules.sharding.tables..actual-data-nodes=值 # 值由数据源名 + 表名组成,以小数点分隔。多个表以逗号分隔,支持 inline 表达式。 # :逻辑表名 spring.shardingsphere.rules.sharding.tables.t_user.actual-data-nodes=server-user.t_user spring.shardingsphere.rules.sharding.tables.t_order.actual-data-nodes=server-order$->{0..1}.t_order$->{0..1}
水平分库:
分片规则:order表中user_id
为偶数时,数据插入server-order0服务器
,user_id
为奇数时,数据插入server-order1服务器
。这样分片的好处是,同一个用户的订单数据,一定会被插入到同一台服务器上,查询一个用户的订单时效率较高。
#------------------------分库策略 # 分片列名称 spring.shardingsphere.rules.sharding.tables.t_order.database-strategy.standard.sharding-column=user_id # 分片算法名称 spring.shardingsphere.rules.sharding.tables.t_order.database-strategy.standard.sharding-algorithm-name=alg_inline_userid #------------------------分片算法配置 # 行表达式分片算法 # 分片算法类型 spring.shardingsphere.rules.sharding.sharding-algorithms.alg_inline_userid.type=INLINE # 分片算法属性配置 spring.shardingsphere.rules.sharding.sharding-algorithms.alg_inline_userid.props.algorithm-expression=server-order$->{user_id % 2} # 取模分片算法(列、取模、哈希取模) # 分片算法类型 spring.shardingsphere.rules.sharding.sharding-algorithms.alg_mod.type=MOD # 分片算法属性配置 spring.shardingsphere.rules.sharding.sharding-algorithms.alg_mod.props.sharding-count=2
为了方便测试,先设置只在 t_order0
表上进行测试
xxx.actual-data-nodes=server-order$->{0..1}.t_order0
测试:可以分别测试行表达式分片算法和取模分片算法
/** * 水平分片:分库插入数据测试 */ @Test public void testInsertOrderDatabaseStrategy(){ for (long i = 0; i < 4; i++) { Order order = new Order(); order.setOrderNo("ATGUIGU001"); order.setUserId(i + 1); order.setAmount(new BigDecimal(100)); orderMapper.insert(order); } }
水平分表:
分片规则:order表中order_no的哈希值为偶数时
,数据插入对应服务器的t_order0表
,order_no的哈希值为奇数时
,数据插入对应服务器的t_order1表
。因为order_no是字符串形式,因此不能直接取模。
#------------------------分表策略 # 分片列名称 spring.shardingsphere.rules.sharding.tables.t_order.table-strategy.standard.sharding-column=order_no # 分片算法名称 spring.shardingsphere.rules.sharding.tables.t_order.table-strategy.standard.sharding-algorithm-name=alg_hash_mod #------------------------分片算法配置 # 哈希取模分片算法 # 分片算法类型 spring.shardingsphere.rules.sharding.sharding-algorithms.alg_hash_mod.type=HASH_MOD # 分片算法属性配置 spring.shardingsphere.rules.sharding.sharding-algorithms.alg_hash_mod.props.sharding-count=2
测试前不要忘记将如下节点改回原来的状态
xxx.actual-data-nodes=server-order$->{0..1}.t_order$->{0..1}
测试:
/** * 水平分片:分表插入数据测试 */ @Test public void testInsertOrderTableStrategy(){ for (long i = 1; i < 5; i++) { Order order = new Order(); order.setOrderNo("ATGUIGU" + i); order.setUserId(1L); order.setAmount(new BigDecimal(100)); orderMapper.insert(order); } for (long i = 5; i < 9; i++) { Order order = new Order(); order.setOrderNo("ATGUIGU" + i); order.setUserId(2L); order.setAmount(new BigDecimal(100)); orderMapper.insert(order); } } /** * 测试哈希取模 */ @Test public void testHash(){ //注意hash取模的结果是整个字符串hash后再取模,和数值后缀是奇数还是偶数无关 System.out.println("ATGUIGU001".hashCode() % 2); System.out.println("ATGUIGU0011".hashCode() % 2); }
查询测试:
/** * 水平分片:查询所有记录 * 查询了两个数据源,每个数据源中使用UNION ALL连接两个表 */ @Test public void testShardingSelectAll(){ Listorders = orderMapper.selectList(null); orders.forEach(System.out::println); } /** * 水平分片:根据user_id查询记录 * 查询了一个数据源,每个数据源中使用UNION ALL连接两个表 */ @Test public void testShardingSelectByUserId(){ QueryWrapper orderQueryWrapper = new QueryWrapper<>(); orderQueryWrapper.eq("user_id", 1L); List orders = orderMapper.selectList(orderQueryWrapper); orders.forEach(System.out::println); }
雪花算法:
分布式主键 :: ShardingSphere
水平分片需要关注全局序列,因为不能简单的使用基于数据库的主键自增。
这里有两种方案:一种是基于MyBatisPlus的id策略;一种是ShardingSphere-JDBC的全局序列配置。
基于MyBatisPlus的id策略:
将Order类的id设置成如下形式
@TableId(type = IdType.ASSIGN_ID) private Long id;
基于ShardingSphere-JDBC的全局序列配置
:和前面的MyBatisPlus的策略二选一
#------------------------分布式序列策略配置 # 分布式序列列名称 spring.shardingsphere.rules.sharding.tables.t_order.key-generate-strategy.column=id # 分布式序列算法名称 spring.shardingsphere.rules.sharding.tables.t_order.key-generate-strategy.key-generator-name=alg_snowflake # 分布式序列算法配置 # 分布式序列算法类型 spring.shardingsphere.rules.sharding.key-generators.alg_snowflake.type=SNOWFLAKE # 分布式序列算法属性配置 #spring.shardingsphere.rules.sharding.key-generators.alg_snowflake.props.xxx=
此时,需要将实体类中的id策略修改成以下形式:
//当配置了shardingsphere-jdbc的分布式序列时,自动使用shardingsphere-jdbc的分布式序列 //当没有配置shardingsphere-jdbc的分布式序列时,自动依赖数据库的主键自增策略 @TableId(type = IdType.AUTO)
在server-order0、server-order1
服务器中分别创建两张订单详情表t_order_item0、t_order_item1
我们希望同一个用户的订单表和订单详情表中的数据都在同一个数据源中,避免跨库关联
,因此这两张表我们使用相同的分片策略。
那么在t_order_item
中我们也需要创建order_no
和user_id
这两个分片键
CREATE TABLE t_order_item0( id BIGINT, order_no VARCHAR(30), user_id BIGINT, price DECIMAL(10,2), `count` INT, PRIMARY KEY(id) ); CREATE TABLE t_order_item1( id BIGINT, order_no VARCHAR(30), user_id BIGINT, price DECIMAL(10,2), `count` INT, PRIMARY KEY(id) );
package com.atguigu.shardingjdbcdemo.entity; @TableName("t_order_item") @Data public class OrderItem { //当配置了shardingsphere-jdbc的分布式序列时,自动使用shardingsphere-jdbc的分布式序列 @TableId(type = IdType.AUTO) private Long id; private String orderNo; private Long userId; private BigDecimal price; private Integer count; }
package com.atguigu.shargingjdbcdemo.mapper; @Mapper public interface OrderItemMapper extends BaseMapper{ }
t_order_item的分片表、分片策略、分布式序列策略和t_order一致
#------------------------标准分片表配置(数据节点配置) spring.shardingsphere.rules.sharding.tables.t_order_item.actual-data-nodes=server-order$->{0..1}.t_order_item$->{0..1} #------------------------分库策略 # 分片列名称 spring.shardingsphere.rules.sharding.tables.t_order_item.database-strategy.standard.sharding-column=user_id # 分片算法名称 spring.shardingsphere.rules.sharding.tables.t_order_item.database-strategy.standard.sharding-algorithm-name=alg_mod #------------------------分表策略 # 分片列名称 spring.shardingsphere.rules.sharding.tables.t_order_item.table-strategy.standard.sharding-column=order_no # 分片算法名称 spring.shardingsphere.rules.sharding.tables.t_order_item.table-strategy.standard.sharding-algorithm-name=alg_hash_mod #------------------------分布式序列策略配置 # 分布式序列列名称 spring.shardingsphere.rules.sharding.tables.t_order_item.key-generate-strategy.column=id # 分布式序列算法名称 spring.shardingsphere.rules.sharding.tables.t_order_item.key-generate-strategy.key-generator-name=alg_snowflake
同一个用户的订单表和订单详情表中的数据都在同一个数据源中,避免跨库关联
/** * 测试关联表插入 */ @Test public void testInsertOrderAndOrderItem(){ for (long i = 1; i < 3; i++) { Order order = new Order(); order.setOrderNo("ATGUIGU" + i); order.setUserId(1L); orderMapper.insert(order); for (long j = 1; j < 3; j++) { OrderItem orderItem = new OrderItem(); orderItem.setOrderNo("ATGUIGU" + i); orderItem.setUserId(1L); orderItem.setPrice(new BigDecimal(10)); orderItem.setCount(2); orderItemMapper.insert(orderItem); } } for (long i = 5; i < 7; i++) { Order order = new Order(); order.setOrderNo("ATGUIGU" + i); order.setUserId(2L); orderMapper.insert(order); for (long j = 1; j < 3; j++) { OrderItem orderItem = new OrderItem(); orderItem.setOrderNo("ATGUIGU" + i); orderItem.setUserId(2L); orderItem.setPrice(new BigDecimal(1)); orderItem.setCount(3); orderItemMapper.insert(orderItem); } } }
需求:查询每个订单的订单号和总订单金额
package com.atguigu.shardingjdbcdemo.entity; @Data public class OrderVo { private String orderNo; private BigDecimal amount; }
package com.atguigu.shardingjdbcdemo.mapper; @Mapper public interface OrderMapper extends BaseMapper{ @Select({"SELECT o.order_no, SUM(i.price * i.count) AS amount", "FROM t_order o JOIN t_order_item i ON o.order_no = i.order_no", "GROUP BY o.order_no"}) List getOrderAmount(); }
/** * 测试关联表查询 */ @Test public void testGetOrderAmount(){ ListorderAmountList = orderMapper.getOrderAmount(); orderAmountList.forEach(System.out::println); }
在原来水平分片配置的基础上添加如下配置:
#------------------------绑定表 spring.shardingsphere.rules.sharding.binding-tables[0]=t_order,t_order_item
配置完绑定表后再次进行关联查询的测试:
绑定表:
指分片规则一致的一组分片表。 使用绑定表进行多表关联查询时,必须使用分片键进行关联,否则会出现笛卡尔积关联或跨库关联,从而影响查询效率。
指所有的分片数据源中都存在的表,表结构及其数据在每个数据库中均完全一致。 适用于数据量不大且需要与海量数据的表进行关联查询的场景,例如:字典表。
广播具有以下特性:
(1)插入、更新操作会实时在所有节点上执行,保持各个分片的数据一致性
(2)查询操作,只从一个节点获取
(3)可以跟任何一个表进行 JOIN 操作
在server-order0、server-order1和server-user服务器中分别创建t_dict表
CREATE TABLE t_dict( id BIGINT, dict_type VARCHAR(200), PRIMARY KEY(id) );
4.3.1、创建实体类
package com.atguigu.shardingjdbcdemo.entity; @TableName("t_dict") @Data public class Dict { //可以使用MyBatisPlus的雪花算法 @TableId(type = IdType.ASSIGN_ID) private Long id; private String dictType; }
4.3.2、创建Mapper
package com.atguigu.shardingjdbcdemo.mapper; @Mapper public interface DictMapper extends BaseMapper{ }
4.3.3、配置广播表
#数据节点可不配置,默认情况下,向所有数据源广播 spring.shardingsphere.rules.sharding.tables.t_dict.actual-data-nodes=server-user.t_dict,server-order$->{0..1}.t_dict # 广播表 spring.shardingsphere.rules.sharding.broadcast-tables[0]=t_dict
@Autowired private DictMapper dictMapper; /** * 广播表:每个服务器中的t_dict同时添加了新数据 */ @Test public void testBroadcast(){ Dict dict = new Dict(); dict.setDictType("type1"); dictMapper.insert(dict); } /** * 查询操作,只从一个节点获取数据 * 随机负载均衡规则 */ @Test public void testSelectBroadcast(){ Listdicts = dictMapper.selectList(null); dicts.forEach(System.out::println); }