《Flink 详解》系列(已完结),共包含以下 10 10 10 篇文章:
如果您觉得这篇文章有用 ✔️ 的话,请给博主一个一键三连 吧 (点赞 、关注 、收藏 )!!!您的支持 将激励 博主输出更多优质内容!!!
在 Flink 1.11
引入了 CDC 机制,CDC 的全称是 Change Data Capture
,用于捕捉数据库表的增删改查操作,是目前非常成熟的同步数据库变更方案。
Flink CDC Connectors 是 Apache Flink 的一组源连接器,是可以从 MySQL、PostgreSQL 数据直接读取全量数据和增量数据的 Source Connectors,开源地址:https://github.com/ververica/flink-cdc-connectors。
目前(1.13
版本)支持的 Connectors 如下:
另外支持解析 Kafka 中 debezium-json
和 canal-json
格式的 Change Log,通过 Flink 进行计算或者直接写入到其他外部数据存储系统(比如 Elasticsearch),或者将 Changelog Json 格式的 Flink 数据写入到 Kafka。
Flink CDC Connectors 和 Flink 之间的版本映射:
在最新 CDC 调研报告中,Debezium
和 Canal
是目前最流行使用的 CDC 工具,这些 CDC 工具的核心原理是 抽取数据库日志 获取变更。在经过一系列调研后,目前 Debezium(支持全量、增量同步,同时支持 MySQL、PostgreSQL、Oracle 等数据库),使用较为广泛。
Flink SQL CDC 内置了 Debezium 引擎,利用其抽取日志获取变更的能力,将 changelog
转换为 Flink SQL 认识的 RowData 数据。(以下右侧是 Debezium 的数据格式,左侧是 Flink 的 RowData 数据格式)。
RowData 代表了一行的数据,在 RowData 上面会有一个元数据的信息 RowKind,RowKind 里面包括了 插入(+I
)、更新前(-U
)、更新后(+U
)、删除(-D
),这样和数据库里面的 binlog
概念十分类似。
通过 Debezium 采集的数据,包含了旧数据(before
)和新数据行(after
)以及元数据信息(source
),op
的 u
表示是 update
更新操作标识符(op
字段的值 c
,u
,d
,r
分别对应 create
,update
,delete
,read
),ts_ms
表示同步的时间戳。
设计图如下:
通过 Flink CDC Connectors 替换 Debezium + Kafka
的数据采集模块,实现 Flink SQL 的 ETL 一体化,以 MySQL 为 Source 源,Flink CDC 中间件为插件,ES、Kafka 或者其他为 Sink,这样设计的优点如下:
Exactly Once
的读取和计算。binlog
采集位点可回溯。Flink SQL CDC 用于获取数据库变更日志的 Source 函数是 DebeziumSourceFunction
,且最终返回的类型是 RowData,该函数实现了 CheckpointedFunction
,即通过 Checkpoint 机制来保证发生 failure
时不会丢数,实现 exactly once
语义,这部分在函数的注释中有明确的解释。
/**
* The {@link DebeziumSourceFunction} is a streaming data source that pulls captured change data
* from databases into Flink.
* 通过Checkpoint机制来保证发生failure时不会丢数,实现exactly once语义
* The source function participates in checkpointing and guarantees that no data is lost
* during a failure, and that the computation processes elements "exactly once".
* 注意:这个Source Function不能同时运行多个实例
*
Note: currently, the source function can't run in multiple parallel instances.
*
*
Please refer to Debezium's documentation for the available configuration properties:
* https://debezium.io/documentation/reference/1.2/development/engine.html#engine-properties
*/
@PublicEvolving
public class DebeziumSourceFunction<T> extends RichSourceFunction<T> implements
CheckpointedFunction,
ResultTypeQueryable<T> {}
为实现 CheckpointedFunction
,需要实现以下两个方法:
public interface CheckpointedFunction {
// 做快照,把内存中的数据保存在checkpoint状态中
void snapshotState(FunctionSnapshotContext var1) throws Exception;
// 程序异常恢复后从checkpoint状态中恢复数据
void initializeState(FunctionInitializationContext var1) throws Exception;
}
接下来我们看看 DebeziumSourceFunction
中都记录了哪些状态。
/** Accessor for state in the operator state backend.
offsetState中记录了读取的binlog文件和位移信息等,对应Debezium中的
*/
private transient ListState<byte[]> offsetState;
/**
* State to store the history records, i.e. schema changes.
* historyRecordsState记录了schema的变化等信息
* @see FlinkDatabaseHistory
*/
private transient ListState<String> historyRecordsState;
我们发现在 Flink SQL CDC 是一个相对简易的场景,没有中间算子,是通过 Checkpoint 持久化 binglog
消费位移和 schema
变化信息的快照,来实现 Exactly Once。
Flink SQL Gateway 是 Flink 集群的 任务网关,支持以 RestAPI 的形式提交查询、插入、删除等任务,如下图所示:
创建会话流程图如下:
name
名称、planner
执行引擎(Blink 或原生的 Flink)、executetype
(streaming
或者 batch
)、properties
(配置参数,如并发度等)。SessionContext sessionContext = new SessionContext(sessionName, sessionId, sessionEnv, defaultContext);
sessions.put(sessionId,session); return sessionId;
SQL GateWay 内部维护 SessionManager,里面通过 Map 维护了各个 Session,每个 Session 的任务执行是独立的。同一个 Session 通过 ExecuteContext 内部的 tEnv
(TableEnvironment
)按顺序提交。
在每个 Session 中单独维护了 tEnv
,同一个 Session 中的操作其实是在一个 env
中执行的。因此只要是同一个 Session 中的任务,内部使用的 tEnv
就是同一个。这样就可以实现在一个 Session 中,先创建一个 view
,然后执行一个 select
,最后执行一个 insert
。
Session 中维护了 tEnv
,SQL 会通过 tEnv
编译生成 Pipeline(即 DAG 图),在 batch
模式下是 Plan 执行计划;在 stream
模式下是 StreamGraph。然后 Session 内部会创建一个 ProgramDeployer 代码发布器,根据 Flink 中配置的 target
创建不同的 excutor
。最后调用 executor.execute
方法提交 Pipeline 和 Config 执行。