Alibaba Canal 实时数据同步迁移

Canal官网: GitHub - alibaba/canal: 阿里巴巴 MySQL binlog 增量订阅&消费组件

官方介绍:

canal,译意为水道/管道/沟渠,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费。

Alibaba Canal 实时数据同步迁移_第1张图片

canal的工作原理就是把自己伪装成MySQL slave

模拟MySQL slave的交互协议向MySQL Mater发送 dump协议,

MySQL mater收到canal发送过来的dump请求,开始推送binary log给canal,然后canal解析binary log,再发送到存储目的地

比如MySQL,Kafka,Elastic Search等等

1.安装canal

官网下载:Releases · alibaba/canal · GitHub

Alibaba Canal 实时数据同步迁移_第2张图片

上传至服务器

解压canal

tar zxvf canal.deployer-1.1.7-SNAPSHOT.tar.gz

Alibaba Canal 实时数据同步迁移_第3张图片

2.配置mysql服务器

当前的 canal 支持源端 MySQL 版本包括 5.1.x , 5.5.x , 5.6.x , 5.7.x , 8.0.x

mysql 我使用本地window上之前安装的mysql 8.0.27

Alibaba Canal 实时数据同步迁移_第4张图片

创建权限用户 用户名:canal 密码:123456

Alibaba Canal 实时数据同步迁移_第5张图片

查看mysql user表

Alibaba Canal 实时数据同步迁移_第6张图片

修改mysql 配置文件my.cnf 信息如下

[mysqld]
# 打开binlog
log-bin=mysql-bin
# 选择ROW(行)模式
binlog-format=ROW
# 配置MySQL replaction需要定义,不要和canal的slaveId重复
server_id=1

修改配置后,刷新mysql配置

flush privileges;

Alibaba Canal 实时数据同步迁移_第7张图片

使用命令查看是否打开binlog模式

show variables like 'log_bin'

Alibaba Canal 实时数据同步迁移_第8张图片

查看binlog日志文件列表:

show binary logs

Alibaba Canal 实时数据同步迁移_第9张图片

查看当前正在写入的binlog文件:

show master status

Alibaba Canal 实时数据同步迁移_第10张图片

3.修改canal配置文件

打开配置文件conf/example/instance.properties

#################################################
## mysql serverId , v1.0.26+ will autoGen
canal.instance.mysql.slaveId=12315

# enable gtid use true/false
canal.instance.gtidon=false

# position info
canal.instance.master.address=127.0.0.1:3306 #数据库连接信息
canal.instance.master.journal.name=binlog.000059 #当前正在写入的binlog文件
canal.instance.master.position=13957  #当前正在写入的binlog文件偏移量
canal.instance.master.timestamp=
canal.instance.master.gtid=

# username/password
canal.instance.dbUsername=root   #数据库账号
canal.instance.dbPassword=123456  #数据库密码
canal.instance.connectionCharset = UTF-8  #编码
# enable druid Decrypt database password
canal.instance.enableDruid=false

# table regex   需要监控的表 通过,分隔  也可以使用正则 .*\\..*
canal.instance.filter.regex=.*\\..*
# table black regex
canal.instance.filter.black.regex=

# mq config
canal.mq.topic=example
# dynamic topic route by schema or table regex
#canal.mq.dynamicTopic=mytest1.user,topic2:mytest2\\..*,.*\\..*
canal.mq.partition=0

打开配置文件conf/canal.properties

# tcp bind ip
canal.ip = 127.0.0.1
# register ip to zookeeper
canal.register.ip =
canal.port = 11111
canal.metrics.pull.port = 11112
# canal instance user/passwd
canal.user = 
canal.passwd = 

# destinations
canal.destinations = example
# conf root dir
canal.conf.dir = ../conf
# auto scan instance dir add/remove and start/stop instance
canal.auto.scan = true
canal.auto.scan.interval = 5

4.客户端操作

引入maven依赖


    com.alibaba.otter
    canal.client
    1.1.4

创建类 CannalClient

package com.joker.cloud.user.conf.canal;

import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry;
import com.alibaba.otter.canal.protocol.CanalEntry.*;
import com.alibaba.otter.canal.protocol.Message;
import org.springframework.beans.factory.InitializingBean;
import org.springframework.stereotype.Component;

import java.net.InetSocketAddress;
import java.util.List;

/**
 * CannalClient
 *
 * @author joker
 * @version 1.0
 * 2022/11/8 17:22
 **/
@Component
public class CannalClient implements InitializingBean {

    private final static int BATCH_SIZE = 1000;

    @Override
    public void afterPropertiesSet() throws Exception {
        System.out.println("创建连接");
        // 创建链接
        CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("192.168.200.10", 11111), "example", "", "");
        try {
            //打开连接
            connector.connect();
            //订阅数据库表,全部表
            connector.subscribe(".*\\..*");
            //回滚到未进行ack的地方,下次fetch的时候,可以从最后一个没有ack的地方开始拿
            connector.rollback();
            while (true) {
                // 获取指定数量的数据
                Message message = connector.getWithoutAck(BATCH_SIZE);
                //获取批量ID
                long batchId = message.getId();
                //获取批量的数量
                int size = message.getEntries().size();
                //如果没有数据
                if (batchId == -1 || size == 0) {
                    try {
                        //线程休眠2秒
                        Thread.sleep(2000);
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                    }
                } else {
                    //如果有数据,处理数据
                    printEntry(message.getEntries());
                }
                //进行 batch id 的确认。确认之后,小于等于此 batchId 的 Message 都会被确认。
                connector.ack(batchId);
            }
        } catch (Exception e) {
            e.printStackTrace();
            System.out.println("异常");
        } finally {
            connector.disconnect();
        }
    }

    /**
     * 打印canal server解析binlog获得的实体类信息
     */
    private static void printEntry(List entrys) {
        for (Entry entry : entrys) {
            if (entry.getEntryType() == CanalEntry.EntryType.TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) {
                //开启/关闭事务的实体类型,跳过
                continue;
            }
            //RowChange对象,包含了一行数据变化的所有特征
            //比如isDdl 是否是ddl变更操作 sql 具体的ddl sql beforeColumns afterColumns 变更前后的数据字段等等
            RowChange rowChage;
            try {
                rowChage = RowChange.parseFrom(entry.getStoreValue());
            } catch (Exception e) {
                throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(), e);
            }
            //获取操作类型:insert/update/delete类型
            EventType eventType = rowChage.getEventType();
            //打印Header信息
            System.out.println(String.format("================》; binlog[%s:%s] , name[%s,%s] , eventType : %s",
                    entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
                    entry.getHeader().getSchemaName(), entry.getHeader().getTableName(),
                    eventType));
            //判断是否是DDL语句
            if (rowChage.getIsDdl()) {
                System.out.println("================》;isDdl: true,sql:" + rowChage.getSql());
            }
            //获取RowChange对象里的每一行数据,打印出来
            for (RowData rowData : rowChage.getRowDatasList()) {
                //如果是删除语句
                if (eventType == EventType.DELETE) {
                    printColumn(rowData.getBeforeColumnsList());
                    //如果是新增语句
                } else if (eventType == EventType.INSERT) {
                    printColumn(rowData.getAfterColumnsList());
                    //如果是更新的语句
                } else {
                    //变更前的数据
                    System.out.println("------->; before");
                    printColumn(rowData.getBeforeColumnsList());
                    //变更后的数据
                    System.out.println("------->; after");
                    printColumn(rowData.getAfterColumnsList());
                }
            }
        }
    }

    private static void printColumn(List columns) {
        for (Column column : columns) {
            System.out.println(column.getName() + " : " + column.getValue() + "    update=" + column.getUpdated());
        }
    }
}

5. 例子

以本地为例 window 启动 canal

Alibaba Canal 实时数据同步迁移_第11张图片

启动idea项目后,执行sql 先查询当前数据

Alibaba Canal 实时数据同步迁移_第12张图片

我们执行修改语句

Alibaba Canal 实时数据同步迁移_第13张图片

查看项目控制台打印出了sql 修改情况

Alibaba Canal 实时数据同步迁移_第14张图片

你可能感兴趣的:(开发及业务相关问题,数据库,数据库,java,spring,boot,mysql,服务器)