数据同步解决方案canal

前言:

继上一篇网站首页高可用之后,今天来谈一谈canal+mysql+mq+Elasticsearch来实现一下几个功能:

1.数据监控微服务的开发
2.首页广告缓存更新的功能,
3.商品上架索引库导入数据功能,
4.商品下架索引库删除数据功能。

canal可以用来监控数据库数据的变化,从而获得新增数据,或者修改的数据。一幅简单的图来了解一下


流程图

原理相对比较简单:

  1. canal模拟mysql slave的交互协议,伪装自己为mysql slave,向mysql master发送dump协议
  2. mysql master收到dump请求,开始推送binary log给slave(也就是canal)
  3. canal解析binary log对象(原始为byte流)

环境部署

centos7+docker+canal(难不成有人没装好?下面简单讲一下,搞不通的去www.baidu.com)

MySQL

1.查看当前MySQL是否开启了binlog日志

SHOW VARIABLES LIKE '%log_bin%'

2.如果log_bin的值为OFF是未开启,为ON是已开启。
修改/etc/my.cnf 需要开启binlog模式。

[mysqld]
log-bin=mysql-bin
binlog-format=ROW
server_id=1

3.修改完成之后,重启mysqld的服务。
4.进入mysql

mysql -h localhost -u root -p

5.创建账号用于测试使用:使用root账号创建用户并授予权限

create user canal@'%' IDENTIFIED by 'canal';
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT, SUPER ON  *.* TO 'canal'@'%'; FLUSH PRIVILEGES;

canal服务端安装配置

1.下载地址canal
https://github.com/alibaba/canal/releases/tag/canal-1.0.24

下载位置

2.下载之后上传到linux系统中,解压缩到指定的目录/usr/local/canal
canan目录结构

3.修改 exmaple下的实例配置

vi conf/example/instance.properties
修改如图所示的几个参数
注意:自己的虚拟机ip+3306的端口,用户名和密码随意

4.指定读取位置
进入虚拟机中MySQL执行下面语句查看binlog所在位置

show master status;

大概显示如下:
+------------------+----------+--------------+------------------+-------------------+
|File |Position |Binlog_Do_DB |Binlog_Ignore_DB |Executed_Gtid_Set|
+------------------+----------+--------------+------------------+-------------------+
|mysql-bin.000001 |120 | | | |
+------------------+----------+--------------+------------------+-------------------+
1 row in set (0.00sec)

4.1 如果file中binlog文件不为 mysql-bin.000001 可以重置mysql
mysql > reset master;

5.查看canal配置文件

vim /usr/local/canal/conf/example/meta.dat

找到对应的binlog信息更改和MySQL查询结果一致即可

"journalName":"mysql-bin.000001","position":120,"

注意:如果不一致,可能导致未知错误

  1. 进入canal目录启动服务
./bin/startup.sh

7.查看日志:

cat /usr/local/canal/logs/canal/canal.log
启动成功

这样就表示启动成功了。

现在回到IntelliJ IDEA中

构建数据监控微服务
当用户执行数据库的操作的时候,binlog 日志会被canal捕获到,并解析出数据。我们就可以将解析出来的数据进行相应的逻辑处理。我们这里使用的一个开源的项目,它实现了springboot与canal的集成。比原生的canal更加优雅。
下载地址:
https://github.com/chenqian56131/spring-boot-starter-canal
使用前需要将starter-canal安装到本地仓库。我们可以参照它提供的canal-test,进行代码实现。(具体怎么实现,我想大家都是优秀的程序员了,maven命令应该不用我教吧)

数据监控微服务的搭建应该不用我手把手教吧!!!

算了谁叫我心太软, 我就粘贴部分代码仅供参考:
1.pom文件


        
            com.xpand
            starter-canal
            0.0.1-SNAPSHOT
        
        
            org.springframework.amqp
            spring-rabbit
        
    

2.启动类
追加注解

@EnableCanalClient  //声明canal客户端  监听数据服务

3.application.properties
canal.client.instances.example.host=192.168.200.128
canal.client.instances.example.port=11111
canal.client.instances.example.batchSize=1000
spring.rabbitmq.host=192.168.200.128
4.监听类的部分展示代码:

@CanalEventListener  //声明当前类是canal监听类

监听方法:

//对于adupdate方法监听的是changgou_business数据库中的tb_ad表
    @ListenPoint(schema = "changgou_business", table = {"tb_ad"})
    public void adUpdate(CanalEntry.EventType eventType, CanalEntry.RowData rowData)

修改前数据:

 for (CanalEntry.Column column : rowData.getBeforeColumnsList())

修改后数据
for (CanalEntry.Column column : rowData.getAfterColumnsList())
就这样吧!

重点来了:接着广告缓存现在来实现广告缓存更新

需求分析:

当广告表的数据发生变化时,更新redis中的广告数据

实现思路

(1)修改数据监控微服务,监控广告表,当发生增删改操作时,提取广告位置key,发送到rabbitmq
(2)从rabbitmq中提取消息,通过OkHttpClient调用ad_update来实现对广告缓存数据的更新。

重点图
代码实现

1.用java代码实现一个简单的工作队列,用于接收广告更新通知
在监听类中当指定字段的值发生改变时,将数据发送到mq中
2.用java代码实现一个监听队列的监听类

@RabbitListener(queues = "队列名称")

通过OkHttpClient或者RestTemplate发起远程调用
3.测试,启动eureka和广告微服务,观察控制台输出和数据同步效果。

商品上架索引库导入数据

需求分析

利用canal监听数据库,当商品上架将商品的sku列表导入或更新索引库。

实现思路

(1)在数据监控微服务中监控tb_spu表的数据,当tb_spu发生更改且商品上架时,将spu的id发送到rabbitmq。
(2)在rabbitmq管理后台创建商品上架交换器(fanout)。使用分列模式的交换器是考虑商品上架会有很多种逻辑需要处理,导入索引库只是其中一项,另外还有商品详细页静态化等操作。这样我们可以创建导入索引库的队列和商品详细页静态化队列并与商品上架交换器进行绑定。
(3)搜索微服务从rabbitmq的导入索引库的队列中提取spu的id,通过feign调用商品微服务得到sku的列表,并且通过调用elasticsearch的高级restAPI 将sku列表导入到索引库。


重点图
代码实现

1.创建交换机和队列,并且在数据监控微服务中创建spu的监听类

索引库环境准备

  1. 这里我用的是elasticsearch 5.6.8,是一个比较老的版本的,6以后的API会有差异,建议大家先去看看。
  2. 创建索引库实体类,这里只展示部分代码
@Document(indexName = "skuinfo", type = "docs")
public class Skuinfo implements Serializable {
    //商品id,同时也是商品编号
    @Id
    @Field(index = true, store = true, type = FieldType.Keyword)
    private Long id;

    //SKU名称
    @Field(index = true, store = true, type = FieldType.Text, analyzer = "ik_smart")
    private String name;

    //商品价格,单位为:元
    @Field(index = true, store = true, type = FieldType.Double)
    private Long price;

    //库存数量
    @Field(index = true, store = true, type = FieldType.Integer)
    private Integer num;

    //商品图片
    @Field(index = false, store = true, type = FieldType.Text)
    private String image;

    //商品状态,1-正常,2-下架,3-删除
    @Field(index = true, store = true, type = FieldType.Keyword)
    private String status;

    //创建时间
    private Date createTime;

    //更新时间
    private Date updateTime;

    //是否默认
    @Field(index = true, store = true, type = FieldType.Keyword)
    private String isDefault;

    //SPUID
    @Field(index = true, store = true, type = FieldType.Long)
    private Long spuId;

    //类目ID
    @Field(index = true, store = true, type = FieldType.Long)
    private Long categoryId;

    //类目名称
    @Field(index = true, store = true, type = FieldType.Keyword)
    private String categoryName;

    //品牌名称
    @Field(index = true, store = true, type = FieldType.Keyword)
    private String brandName;

    //规格
    private String spec;

    //规格参数
    private Map specMap;

  部分代码省略......
}

搜索微服务搭建

1.部分pom文件:

  
        
            org.springframework.cloud
            spring-cloud-starter-netflix-eureka-client
        
        
        
            org.springframework.boot
            spring-boot-starter-data-elasticsearch
        
        
            org.springframework.boot
            spring-boot-starter-thymeleaf
        
         
        
            org.springframework.boot
            spring-boot-starter-amqp
        
    

配置文件和启动类就不一一介绍了!
2.java代码实现mq交换机和队列,其实和上面的数据监控服务的交换机和队列一样
3.在商品服务中定义根据spu的id查询sku的数据,如果参数中携带spuid就查询指定sku数据否则就查询所有的sku数据(其实我这里这样写是为了以后的扩展)。

@GetMapping("spu/{spuId}")
    public List findSkuListByspuid(@PathVariable("spuId") String spuId) {
        HashMap searchMap = new HashMap<>();

        //如果接收的的参数不是all,那么查询指定id
        if (!"all".equals(spuId)) {
            searchMap.put("spuId", spuId);
        }
        //如果接收的的参数是all, 那么查询审核状态为1的商品
        searchMap.put("status", "1");
        List skuList = skuService.findList(searchMap);
        System.out.println("根据spu的id查询sku的数据和:" + skuList.size());
        return skuList;
    }

接下来将改接口暴露出来,通过feign的调用

 @GetMapping("sku/spu/{spuId}")
    public List findSkuListByspuid(@PathVariable("spuId") String spuId);
搜索微服务批量导入数据逻辑

1.新增ESManagerMapper接口

public interface ESMangerMapper extends ElasticsearchRepository {
}

2.创建接口EsManagerService

public interface EsMangerService {

    //创建索引库结构
    void createMappingAndIndex();

    //导入全部数据进入es
    void importAll();

    //根据spuid查询skuList,再导入索引库
    void importDataBySpuId(String spuId);

    //根据spuid删除es索引库中相关的sku数据
    void delDataBySpuId(String spuId);
}

3.创建实现类

@Service
public class EsMangerServiceImpl implements EsMangerService {

    @Autowired
    private ElasticsearchTemplate elasticsearchTemplate;

    @Autowired
    private SkuFeign skuFeign;

    @Autowired
    private ESMangerMapper esMangerMapper;

    //创建索引库
    @Override
    public void createMappingAndIndex() {
        //根据映射实体类来创建索引库
        elasticsearchTemplate.createIndex(Skuinfo.class);
        //根据映射实体类来创建映射
        elasticsearchTemplate.putMapping(Skuinfo.class);

        System.out.println("创建成功");
    }

    //导入全部sku数据进入es
    @Override
    public void importAll() {
        //查询sku所有数据
        List skuList = skuFeign.findSkuListByspuid("all");
        if (skuList == null || skuList.size() <= 0) {
            MyBaseException.throwe(ResultCode.DATA_NOT_EXIST);
        }
        //skulist转换为json
        String skuJson = JSON.toJSONString(skuList);
        //json转化成skuinfo
        List skuinfoList = JSON.parseArray(skuJson, Skuinfo.class);

        //遍历集合 将规格信息装成map
        for (Skuinfo skuinfo : skuinfoList) {
            System.out.println("规格信息:" + skuinfo.getSpec());
            Map map = JSON.parseObject(skuinfo.getSpec(), Map.class);
            skuinfo.setSpecMap(map);
        }
        //导入索引库
        esMangerMapper.saveAll(skuinfoList);
    }


    //根据spuid查询skuList,再导入索引库
    @Override
    public void importDataBySpuId(String spuId) {
        //根据spuid查询skuList
        List skuList = skuFeign.findSkuListByspuid(spuId);

        if (skuList == null || skuList.size() <= 0) {
            MyBaseException.throwe(ResultCode.DATA_NOT_EXIST);
        }
        //skulist转换为json
        String skuJson = JSON.toJSONString(skuList);
        //json转化成skuinfo
        List skuinfoList = JSON.parseArray(skuJson, Skuinfo.class);
        //遍历集合 将规格信息装成map
        for (Skuinfo skuinfo : skuinfoList) {
            System.out.println("规格信息:" + skuinfo.getSpec());
            Map map = JSON.parseObject(skuinfo.getSpec(), Map.class);
            skuinfo.setSpecMap(map);
        }
        //导入索引库
        esMangerMapper.saveAll(skuinfoList);
    }


    //根据spuid删除es索引库中相关的sku数据
    @Override
    public void delDataBySpuId(String spuId) {
        //根据spuid查询skuList
        List skuList = skuFeign.findSkuListByspuid(spuId);
        if (skuList == null || skuList.size() <= 0) {
            MyBaseException.throwe(ResultCode.DATA_NOT_EXIST);
        }
        for (Sku sku : skuList) {
            String id = sku.getId();
            esMangerMapper.deleteById(Long.parseLong(id));
        }

    }
}

突然觉得CRUD的代码没什么亮点,到底写不写呢?

随随便便测试一下,创建索引库和导入全部数据都能成功
接下来是有当商品上架和下架时自动导入商品信息到es中?

4.商品上架的监听类,当数据库的商品上架时,数据监控服务canal监听到发送spuid到mq队列中,搜索微服务监听到mq中的消息时,会根据spuid去查询sku集合,并导入索引库中。

@Component
public class GoodsUpListener {
    @Autowired
    private EsMangerService esMangerService;
    @RabbitListener(queues = RabbitmqConfig.SEARCH_ADD_QUEUE)
    public void receiveMessage(String spuId) {
        System.out.println("导入索引库的spuid:" + spuId);
        //根据spuid查询skuList,再导入索引库
        esMangerService.importDataBySpuId(spuId);
    }
}

5.测试
5.1启动环境eureka 、elasticsearch 、canal服务端、canal数据监控微服务、rabbitmq
5.2启动商品微服务、搜索微服务
5.3修改spu表中某记录的为上架,观察控制台输出,启动kibana查询记录是否导入成功

商品下架索引库删除数据

需求分析

商品下架后将商品从索引库中移除。

实现思路

与商品上架的实现思路非常类似。
(1)在数据监控微服务中监控spu表的数据,当spu发生更改商品下架时,将spu的id发送到rabbitmq。
(2)在rabbitmq管理后台创建商品下架交换器(fanout)。使用分列模式的交换器是考虑商品下架会有很多种逻辑需要处理,索引库删除数据只是其中一项,另外还有删除商品详细页等操作。
(3)搜索微服务从rabbitmq的的队列中提取spu的id,通过调用elasticsearch的高级restAPI 将相关的sku列表从索引库删除。


重点图
代码实现

1.创建交换器与队列
这里我就不粘贴出来,随意发挥就好
2.canal服务中监听商品的下架,并把下架的spuid发送消息队列中
3.根据spuId删除索引数据,代码已经在上面演示了(什么?你说你找不到!)
4.监听类:接收mq消息,执行索引库删除

@Component
public class GoodsDeleteListener {
    @Autowired
    private EsMangerService esMangerService;
    @RabbitListener(queues = RabbitmqConfig.SEARCH_DELETE_QUEUE)
    public void receiveMessage(String spuId) {
        System.out.println("删除es索引库的spuid:" + spuId);
        //根据spuid删除es索引库中相关的sku数据
        esMangerService.delDataBySpuId(spuId);
    }
}
第二次来到,如果写的有误,欢迎在评论交流!(谢谢大家点赞评论关注)

你可能感兴趣的:(数据同步解决方案canal)