概述
myCat实现分库分表的策略,对数据量的处理带来很大的便利,这里主要整理下MyCat的使用以及常用路由算法,针对MyCat里面的事务、集群后续再做整理;另外内容整理,不免会参考技术大牛的博客,内容雷同,实属正常;基于业务区分数据源,主要为了实现如下的数据库
常规使用
xml version="1.0"?> DOCTYPE mycat:schema SYSTEM "schema.dtd"> <mycat:schema xmlns:mycat="http://io.mycat/"> <schema name="testdb" checkSQLschema="false" sqlMaxLimit="100” >user" dataNode="dn1,dn2,dn3" rule="sharding-by-intfile" /> schema> <dataNode name="dn1" dataHost="host" database="testdb1" /> <dataNode name="dn2" dataHost="host" database="testdb2" /> <dataNode name="dn3" dataHost="host" database="testdb3" /> <dataHost name="host" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="native"> <heartbeat>select 1heartbeat> <writeHost host="hostM1" url="localhost:3306" user="root" password="123" /> dataHost> mycat:schema> View Code
配置server.xmlView Codexml version="1.0" encoding="UTF-8"?> DOCTYPE mycat:server SYSTEM "server.dtd"> <mycat:server xmlns:mycat="http://io.mycat/"> <system> <property name="defaultSqlParser">druidparserproperty> system> <user name="mycat"> <property name="password">mycatproperty> <property name="schemas">testdbproperty> user> mycat:server>配置rule.xmlView Codexml version="1.0" encoding="UTF-8"?> DOCTYPE mycat:rule SYSTEM "rule.dtd"> <mycat:rule xmlns:mycat="http://io.mycat/“>sharding-by-intfile" > <rule> <columns>sharding_idcolumns> <algorithm>hash-intalgorithm> rule> tableRule> <function name="hash-int" class="io.mycat.route.function.PartitionByFileMap"> <property name="mapFile">partition-hash-int.txtproperty> function> mycat:rule>常用的分片规则
一、枚举法
<tableRule name="sharding-by-intfile"> <rule> <columns>user_idcolumns> <algorithm>hash-intalgorithm> rule> tableRule> <function name="hash-int" class="io.mycat.route.function.PartitionByFileMap"> <property name="mapFile">partition-hash-int.txtproperty> <property name="type">0property> <property name="defaultNode">0property> function>这个是针对Int类型的枚举算法,如果是标识字符串枚举,可将function做如下调整:
1 partition-hash-int.txt 文件配置:
10000=0
10010=1
上面columns 标识将要分片的表字段,algorithm 分片函数,
其中分片函数配置中,mapFile标识配置文件名称,type默认值为0,0表示Integer,非零表示String,
所有的节点配置都是从0开始,及0代表节点1
/**
* defaultNode 默认节点:小于0表示不设置默认节点,大于等于0表示设置默认节点,结点为指定的值
*
默认节点的作用:枚举分片时,如果碰到不识别的枚举值,就让它路由到默认节点
* 如果不配置默认节点(defaultNode值小于0表示不配置默认节点),碰到
* 不识别的枚举值就会报错,
* like this:can't find datanode for sharding column:column_name val:ffffffff
*/
二、固定分片hash算法(总体长度1024)
<tableRule name="rule1"> <rule> <columns>user_idcolumns> <algorithm>func1algorithm> rule> tableRule> <function name="func1" class="io.mycat.route.function.PartitionByLong"> <property name="partitionCount">2,1property> <property name="partitionLength">256,512property> function>配置说明:
上面columns 标识将要分片的表字段,algorithm 分片函数,
partitionCount 分片个数列表,partitionLength 分片范围列表
分区长度:默认为最大2^n=1024 ,即最大支持1024分区
约束 :
count,length两个数组的长度必须是一致的。
1024 = sum((count[i]*length[i])). count和length两个向量的点积恒等于1024
用法例子:
@Test
public void testPartition() {
// 本例的分区策略:希望将数据水平分成3份,前两份各占25%,第三份占50%。(故本例非均匀分区)
// |<---------------------1024------------------------>|
// |<----256--->|<----256--->|<----------512---------->|
// | partition0 | partition1 | partition2 |
// | 共2份,故count[0]=2 | 共1份,故count[1]=1 |
int[] count = new int[] { 2, 1 };
int[] length = new int[] { 256, 512 };
PartitionUtil pu = new PartitionUtil(count, length);
// 下面代码演示分别以offerId字段或memberId字段根据上述分区策略拆分的分配结果
int DEFAULT_STR_HEAD_LEN = 8; // cobar默认会配置为此值
long offerId = 12345;
String memberId = "qiushuo";
// 若根据offerId分配,partNo1将等于0,即按照上述分区策略,offerId为12345时将会被分配到partition0中
int partNo1 = pu.partition(offerId);
// 若根据memberId分配,partNo2将等于2,即按照上述分区策略,memberId为qiushuo时将会被分到partition2中
int partNo2 = pu.partition(memberId, 0, DEFAULT_STR_HEAD_LEN);
Assert.assertEquals(0, partNo1);
Assert.assertEquals(2, partNo2);
}
如果需要平均分配设置:平均分为4分片,partitionCount*partitionLength=1024
4
256
三、范围约定
<tableRule name="auto-sharding-long"> <rule> <columns>user_idcolumns> <algorithm>rang-longalgorithm> rule> tableRule> <function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong"> <property name="mapFile">autopartition-long.txtproperty> function># range start-end ,data node index
# K=1000,M=10000.
0-500M=0
500M-1000M=1
1000M-1500M=2
或
0-10000000=0
10000001-20000000=1
配置说明:
上面columns 标识将要分片的表字段,algorithm 分片函数,
rang-long 函数中mapFile代表配置文件路径
所有的节点配置都是从0开始,及0代表节点1,此配置非常简单,即预先制定可能的id范围到某个分片
四、求模法
<tableRule name="mod-long"> <rule> <columns>user_idcolumns> <algorithm>mod-longalgorithm> rule> tableRule> <function name="mod-long" class="io.mycat.route.function.PartitionByMod"> <property name="count">3property> function>配置说明:
上面columns 标识将要分片的表字段,algorithm 分片函数,
此种配置非常明确即根据id与count(你的结点数)进行求模预算,相比方式1,此种在批量插入时需要切换数据源,id不连续
五、日期列分区法
<tableRule name="sharding-by-date"> <rule> <columns>create_timecolumns> <algorithm>sharding-by-datealgorithm> rule> tableRule> <function name="sharding-by-date" class="io.mycat.route.function..PartitionByDate"> <property name="dateFormat">yyyy-MM-ddproperty> <property name="sBeginDate">2014-01-01property> <property name="sPartionDay">10property> function>配置说明:
上面columns 标识将要分片的表字段,algorithm 分片函数,
配置中配置了开始日期,分区天数,即默认从开始日期算起,分隔10天一个分区
六、通配取模
<tableRule name="sharding-by-pattern"> <rule> <columns>user_idcolumns> <algorithm>sharding-by-patternalgorithm> rule> tableRule> <function name="sharding-by-pattern" class="io.mycat.route.function.PartitionByPattern"> <property name="patternValue">256property> <property name="defaultNode">2property> <property name="mapFile">partition-pattern.txtproperty> function>partition-pattern.txt
# id partition range start-end ,data node index
###### first host configuration
1-32=0
33-64=1
65-96=2
97-128=3
######## second host configuration
129-160=4
161-192=5
193-224=6
225-256=7
0-0=7
配置说明:
上面columns 标识将要分片的表字段,algorithm 分片函数,patternValue 即求模基数,defaoultNode 默认节点,如果不配置了默认,则默认是0即第一个结点
mapFile 配置文件路径
配置文件中,1-32 即代表id%256后分布的范围,如果在1-32则在分区1,其他类推,如果id非数字数据,则会分配在defaoultNode 默认节点
String idVal = "0";
Assert.assertEquals(true, 7 == autoPartition.calculate(idVal));
idVal = "45a";
Assert.assertEquals(true, 2 == autoPartition.calculate(idVal));
七、ASCII码求模通配
<tableRule name="sharding-by-prefixpattern"> <rule> <columns>user_idcolumns> <algorithm>sharding-by-prefixpatternalgorithm> rule> tableRule> <function name="sharding-by-pattern" class="io.mycat.route.function.PartitionByPrefixPattern"> <property name="patternValue">256property> <property name="prefixLength">5property> <property name="mapFile">partition-pattern.txtproperty> function>partition-pattern.txt
# range start-end ,data node index
# ASCII
# 48-57=0-9
# 64、65-90=@、A-Z
# 97-122=a-z
###### first host configuration
1-4=0
5-8=1
9-12=2
13-16=3
###### second host configuration
17-20=4
21-24=5
25-28=6
29-32=7
0-0=7
配置说明:
上面columns 标识将要分片的表字段,algorithm 分片函数,patternValue 即求模基数,prefixLength ASCII 截取的位数
mapFile 配置文件路径
配置文件中,1-32 即代表id%256后分布的范围,如果在1-32则在分区1,其他类推
此种方式类似方式6只不过采取的是将列种获取前prefixLength位列所有ASCII码的和进行求模sum%patternValue ,获取的值,在通配范围内的
即 分片数,
/**
* ASCII编码:
* 48-57=0-9阿拉伯数字
* 64、65-90=@、A-Z
* 97-122=a-z
*/
如
String idVal="gf89f9a";
Assert.assertEquals(true, 0==autoPartition.calculate(idVal));
idVal="8df99a";
Assert.assertEquals(true, 4==autoPartition.calculate(idVal));
idVal="8dhdf99a";
Assert.assertEquals(true, 3==autoPartition.calculate(idVal));
八、其他分区:按月(12个月)和天分区(24区)
<function name="latestMonth" class="io.mycat.route.function.LatestMonthPartion"> <property name="splitOneDay">24property> function> <function name="partbymonth" class="io.mycat.route.function.PartitionByMonth"> <property name="dateFormat">yyyy-MM-ddproperty> <property name="sBeginDate">2015-01-01property> function>尝试MyCat总结
1、MyCat宣称对Oracle数据库进行支持,但是也仅仅局限于常规的语句,对MyCat的链接驱动还是要mysql,一些常规的登录,转到Oracle语句就报错;如果想基于MyCat做分库分表机制,还是建议DB选择:mySQL
2、MyCat配置完整之后,数据表对接,都是小写的;如果应用框架(Spring-Oracle)采用Table名称大写查询操作,MyCat是没法予以支持;如果是(Spring-Mysql)框架模式,到时可以修改Mysql配置,不区分大写小属性完成;