在日常的项目开发中,有时候会遇到一些数据会进行缓存的情况,但同时数据库层面也会做相关的操作。原则上,对于一些实时性要求很高的数据,是不建议缓存的,这个意义是不大的。然后对于某些数据不管是先更新数据库再更新缓存,或者是先删缓存再更新数据库,都是有可能做到数据不一致的。为了达到最终一致性的话,其实大部分场景下,我们给数据加上过期时间就可以解决大部分的日常开发问题。
如果对于数据的一致性要求很高,或者某些业务场景下,的确是要做这些事情的话,可以采用以下方案来解决。具体场景可以按照自己的项目结构进行
方案一:延时双删模式
延时双删的方案的思路是,为了避免更新数据库的时候,其他线程从缓存中读取不到数据,就在更新完数据库之后,再sleep一段时间,然后再次删除缓存。
sleep的时间要对业务读写缓存的时间做出评估,sleep时间大于读写缓存的时间即可。
流程如下:
方案二:基于canal来解决
假设一种比较理想的情况,就是我们对mysql做相关操作的时候,其实在mysql的binlog日志中都有对相关数据操作的记录。那可以设置一个队binlog的监听,然后当监听到某些表或者某些库的时候,如果有我们想要的操作发生,及时对redis进行操作。这样做就跨过了代码实现的层面,就不用去考虑网络延时或者服务器卡顿情况导致数据更新并不一致的问题。
canal介绍
canal 主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费。
早期阿里巴巴因为杭州和美国双机房部署,存在跨机房同步的业务需求,实现方式主要是基于业务 trigger 获取增量变更。从 2010 年开始,业务逐步尝试数据库日志解析获取增量变更进行同步,由此衍生出了大量的数据库增量订阅和消费业务。
基于日志增量订阅和消费的业务包括:
1. 数据库镜像
2. 数据库实时备份
3. 索引构建和实时维护(拆分异构索引、倒排索引等)
4. 业务 cache 刷新
5. 带业务逻辑的增量数据处理
当前的 canal 支持源端 MySQL 版本包括 5.1.x , 5.5.x , 5.6.x , 5.7.x , 8.0.x
文档地址: https://github.com/alibaba/canal
1) canal服务端以mysql主从复制的形式获取master的binlog文件
2) canal服务端解析binglog文件,并将其发送客户端
3) 客户端获取服务端发送的数据后,直接更新redis数据库
重点: 将canal当成mysql的slave,就类似于主从的理解就好一点理解透了
编辑mysql的my.ini文件,linux修改my.cnf文件
#####################新增以下配置##############
log-bin=mysql-bin #开启bin-long文件
binlog-format=ROW #选择row模式
server_id=1 #服务id(自定义),唯一不能重复
2) 配置canal
编辑conf/example/instance.properties
// 修改mysql数据库的连接地址
canal.instance.master.address=127.0.0.1:3306
// 修改mysql的账号和密码
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
// 表示对mysql所有的表进行监听 实际项目中需要指定监听的库和表名
canal.instance.filter.regex=.*\\..*
3) 启动
启动bin/startup.bat,查看 logs/example/example.log日志是否启动成功
若启动报错参考: https://gitmemory.com/issue/alibaba/canal/2152/528270051
com.alibaba.otter
canal.client
1.1.0
redis.clients
jedis
2.9.0
2. redis连接工具类
RedisUtil.java
import redis.clients.jedis.Jedis;
public class RedisUtil {
private static Jedis jedis = null;
public static synchronized Jedis getJedis() {
if (jedis == null) {
jedis = new Jedis("127.0.0.1", 6379);
}
return jedis;
}
public static boolean existKey(String key) {
return getJedis().exists(key);
}
public static void delKey(String key) {
getJedis().del(key);
}
public static String stringGet(String key) {
return getJedis().get(key);
}
public static String stringSet(String key, String value) {
return getJedis().set(key, value);
}
public static void hashSet(String key, String field, String value) {
getJedis().hset(key, field, value);
}
}
3.Cancal客户端连接工具类
import com.alibaba.fastjson.JSONObject;
import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry.*;
import com.alibaba.otter.canal.protocol.Message;
import java.net.InetSocketAddress;
import java.util.List;
public class CanalClient {
public static void main(String args[]) {
// 连接我们的CanalServer端
CanalConnector connector = CanalConnectors.newSingleConnector(new
InetSocketAddress("127.0.0.1",
11111), "example", "", "");
int batchSize = 100;
try {
connector.connect();
// 表示监听2020_order库下的tbl_order表 2020_order.*表示监听该库下所有表
connector.subscribe("2020_order.tbl_order");
connector.rollback();
while (true) {
// 获取指定数量的数据
Message message = connector.getWithoutAck(batchSize);
long batchId = message.getId();
int size = message.getEntries().size();
// System.out.println("batchId = " + batchId);
// System.out.println("size = " + size);
if (batchId == -1 || size == 0) {
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
} else {
printEntry(message.getEntries());
}
// 提交确认
connector.ack(batchId);
// connector.rollback(batchId); // 处理失败, 回滚数据
}
} finally {
connector.disconnect();
}
}
private static void printEntry(List entrys) {
for (Entry entry : entrys) {
if (entry.getEntryType() == EntryType.TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) {
continue;
}
RowChange rowChage = null;
try {
rowChage = RowChange.parseFrom(entry.getStoreValue());
} catch (Exception e) {
throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(),
e);
}
EventType eventType = rowChage.getEventType();
System.out.println(String.format("================> binlog[%s:%s] , name[%s,%s] , eventType : %s",
entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
entry.getHeader().getSchemaName(), entry.getHeader().getTableName(),
eventType));
for (RowData rowData : rowChage.getRowDatasList()) {
if (eventType == EventType.DELETE) {
redisDelete(rowData.getBeforeColumnsList());
} else if (eventType == EventType.INSERT) {
redisInsert(rowData.getAfterColumnsList());
} else {
System.out.println("-------> before");
printColumn(rowData.getBeforeColumnsList());
System.out.println("-------> after");
redisUpdate(rowData.getAfterColumnsList());
}
}
}
}
private static void printColumn(List columns) {
for (Column column : columns) {
System.out.println(column.getName() + " : " + column.getValue() + " update=" + column.getUpdated());
}
}
private static void redisInsert(List columns) {
JSONObject json = new JSONObject();
for (Column column : columns) {
json.put(column.getName(), column.getValue());
}
if (columns.size() > 0) {
RedisUtil.stringSet(columns.get(0).getValue(), json.toJSONString());
}
}
private static void redisUpdate(List columns) {
JSONObject json = new JSONObject();
for (Column column : columns) {
json.put(column.getName(), column.getValue());
}
if (columns.size() > 0) {
RedisUtil.stringSet(""+columns.get(0).getValue(), json.toJSONString());
}
}
private static void redisDelete(List columns) {
JSONObject json = new JSONObject();
for (Column column : columns) {
json.put(column.getName(), column.getValue());
}
if (columns.size() > 0) {
RedisUtil.delKey(columns.get(0).getValue());
}
}
}
4.启动main()方法
测试:直接修改2020_order库下tbl_order表的数据
查看控制台 ,查看redis的数据
总结
1) canal服务端以mysql主从复制的形式监听mysql的数据表的变化,然后将监听的数据发送给canal客户端
2) 通过CanalClien.java代码分析,canal客户端以while死循环的方式实时获取canal发送的数据
3) canal客户端获取数据后,以其中一列作为redis的key来添加/更新同步数据
注意: 第3)步只是官方demo给的例子,canal客户端获取数据后的具体业务代码得自己去写。
canal高可用机制