在大数据领域,初始阶段业务数据通常被存储于关系型数据库,如MySQL。然而,为满足日常分析和报表等需求,大数据平台采用多种同步方式,以适应这些业务数据的不同存储需求。这些同步存储方式包括离线仓库和实时仓库等,选择取决于业务需求和数据特性。
一项常见需求是,业务使用人员需要大数据分析平台中查看历史某一天的表数据,示例如下:
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
加粗为更新/新增数据
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
根据以上需求,业务人员希望既能够查看当天的实时数据,又希望查看以天为粒度的历史数据。这类需求比较常见,通常可以采用两种解决方式:
实时领域的Lambda架构是一种大数据架构模式,旨在处理实时数据流和历史数据批处理,以满足同时满足实时查询和历史数据分析的需求。Lambda架构的核心思想是将数据分成两个独立的流程:实时流程和批处理流程,并在最终层将它们合并,以提供一致的查询结果,如下:
实时流程(Real-time Layer):实时流程负责处理实时产生的数据流。它通常包括以下关键组件:
离线处理流程(Batch Layer):离线处理流程用于处理历史数据,通常以 T+1 凌晨跑批方式运行,主要包括以下组件:
合并层(Serving Layer):合并层负责将实时和历史数据合并以提供一致的查询接口:
Lambda架构的主要优点包括:
实时性:能够提供近实时的数据处理和反馈,适用于需要快速决策和实时监控的场景。
容错性:通过将数据存储在持久性存储中,保证了数据的可靠性和可恢复性。
灵活性:可以应对多种不同的数据类型和查询需求,适用于各种大数据应用。
注意:尽管Lambda架构可以满足业务人员查看用户的实时或历史数据的需求,但离线数据仓库通常采用T+1批处理方式运行,因此在需要高度一致性的场景下会出现数据不一致问题。故本文未采用Lambda架构;
若想详细了解一致性问题的情况,请参考笔者另一篇文章:深入数仓离线数据同步:问题分析与优化措施
为了满足业务人员对实时或历史数据的高度一致性需求,并且为了简化架构,这里采用了实时+拉链表的技术方案。在这个架构中,只使用了一种计算引擎,具体的技术组件为 Flink-cdc-2.x + Doris。以下是我们架构的设计概述:
此架构的关键在于实时同步逻辑及拉链表设计这两块的实现。
拉链表是一种维护历史状态以及最新状态数据的表,与快照表类似,算是在快照表的基础上去除了重复状态的数据;使用拉链表在更新频率和比例不是很大的情况下会十分节省存储。
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
id | name | phone | gender | create_time | update_time | expire | start date | end date |
---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
可以看到拉链表多了expire,start date,end date 三个字段,用于表示该条数据是否过期、开始时间及有效时间,下面会有说明
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
加粗为更改/新增数据
id | name | phone | gender | create_time | update_time | expire | start_date | end_date | 备注 |
---|---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 | |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 | |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 | (由9999-12-31改为2023-06-01) |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 | (新增一条拉链数据) |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 9999-12-31 | (新增一条最新用户数据) |
由于tom的手机号被修改,根据拉链表特性此时会新增一条最新的tom数据,且过期时间为9999-12-31,旧数据不会删除而是将有效时间end date改为2023-06-01
UPDATE `user` SET `phone`='333', `update_time`='2023-06-03 10:00:00' WHERE `id`=2;
UPDATE `user` SET `phone`='444', `update_time`='2023-06-03 12:00:00' WHERE `id`=2;
UPDATE `user` SET `phone`='555', `update_time`='2023-06-03 14:00:00' WHERE `id`=2;
id | name | phone | gender | create_time | update_time | 备注 |
---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | (jason手机号从222 -> 333 -> 444 -> 555更改了三次) |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
id | name | phone | gender | create_time | update_time | expire | start_date | end_date | 备注 |
---|---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 | |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-02 | (由9999-12-31改为2023-06-02) |
2 | jason | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-03 10:00:00 | 1 | 2023-06-03 | 2023-06-03 | (当天更新多次的过期数据) |
2 | jason | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-03 12:00:00 | 1 | 2023-06-03 | 2023-06-03 | (当天更新多次的过期数据) |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | 0 | 2023-06-03 | 9999-12-31 | (新增一条拉链数据) |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 | |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 9999-12-31 |
使用
expire
字段来表示记录是否过期,下面会说明
start_date表示该条记录的生命周期开始时间【第一次全量同步时为系统时间,增量同步时为update_time时间】,end_date表示该条记录的生命周期结束时间
end_date = '9999-12-31’表示该条记录为最新数据
end_date = '2023-06-02’表示该条记录仅在2023-06-02当日有效
expire字段用于标识记录的状态,1表示记录已过期,0表示记录有效。该字段目的是用于过滤那些在一天之内多次更新的数据
如果查询当前的最新记录,sql为:select * from user where end_date = ‘9999-12-31’
如果查询2023-06-02的历史快照,sql为:select * from user where start_date <= ‘2023-06-02’ and end_date >= ‘2023-06-02’ and expire = 0(此处是拉链表比较重要的一块)
解释上一条sql:需求是要查2023-06-02的历史快照,故start_date <= ‘2023-06-02’;而end_date = '2023-06-02’表示该条记录在2023-06-02当日是有效的,又因为end_date = '9999-12-31’表示目前一直处于有效状态【有可能从2023-06-02到目前一直有效的数据】,所以end_date >= ‘2023-06-02’
示例:查询2023-06-01日历史数据:select * from user where start_date <= ‘2023-06-01’ and end_date >= ‘2023-06-01’ and expore = 0
id | name | phone | gender | create_time | update_time | start date | end date |
---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 2023-06-02 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 2023-06-01 |
id | name | phone | gender | create_time | update_time | start date | end date |
---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 2023-06-02 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 2023-06-02 | 9999-12-31 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 2023-06-02 | 9999-12-31 |
id | name | phone | gender | create_time | update_time | start date | end date |
---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 9999-12-31 |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | 2023-06-03 | 9999-12-31 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 2023-06-02 | 9999-12-31 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 2023-06-02 | 9999-12-31 |
在Doris中的表设计中,采用了Unique数据模型,这个决策的背后有一个关键因素,即利用唯一Key来处理Flink作业崩溃和重新启动时的数据覆盖操作,以及通过下游的幂等性来确保端到端的数据一致性。
唯一Key的选择在这里起到了至关重要的作用。在拉链表中,由于用户ID可能重复出现的情况【例如2023-06-02号tom就有两条数据】,故选择了一个组合Key: UNIQUE KEY(id
, update_time
) 来确保数据的唯一性。这种设计使得无论在什么情况下,我们都能够通过这个唯一Key来维护数据的一致性,即使在处理实时数据时发生了异常情况或重新启动作业时也不会出现问题。
CREATE TABLE IF NOT EXISTS example_user_zip
(
`id` LARGEINT NOT NULL COMMENT "用户id",
`update_time` DATETIME COMMENT "用户更新时间",
`create_time` DATETIME COMMENT "用户注册时间",
`name` VARCHAR(50) NOT NULL COMMENT "用户昵称",
`phone` LARGEINT COMMENT "手机号",
`gender` VARCHAR(5) COMMENT "用户性别",
`expire` TINYINT DEFAULT '0' COMMENT "数据是否过期:0为有效,1为过期",
`start_date` DATE COMMENT "开始时间",
`end_date` DATE COMMENT "有效时间"
)
UNIQUE KEY(`id`, `update_time`) -- UNIQUE模型
COMMENT "用户拉链表"
DISTRIBUTED BY HASH(`id`) BUCKETS 32
PROPERTIES (
"replication_allocation" = "tag.location.default: 1"
);
关于doris更多数据模型可参考官网
为了更清晰地解释拉链表的同步逻辑,我将以场景的方式逐步说明,如下:
全量更新
增量更新
并发更新
需先明确一点:拉链表的历史数据查询范围是从实时任务同步的那天开始,因为只有在实时任务开始同步的那一天之后,拉链表才正式形成,之前的历史数据是不可查询的。因此,当进行第一次全量同步时,我们会将 start_date
设置为当前系统日期。
另外,由于实时拉链表同步需要明确区分全量和增量更新,以及后续对 binlog 数据进行解析及判断增量更新操作类型,因此,Flink CDC SQL 方式的表建立不再满足我们的要求。为了更好地实现这一功能,我们需要采用 API 方式来构建解决方案,代码如下:
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import com.ververica.cdc.debezium.JsonDebeziumDeserializationSchema;
import com.ververica.cdc.connectors.mysql.source.MySqlSource;
public class MySqlSourceExample {
public static void main(String[] args) throws Exception {
MySqlSource<String> mySqlSource = MySqlSource.<String>builder()
.hostname("yourHostname")
.port(yourPort)
.databaseList("yourDatabaseName") // 设置捕获的数据库, 如果需要同步整个数据库,请将 tableList 设置为 ".*".
.tableList("yourDatabaseName.yourTableName") // 设置捕获的表
.username("yourUsername")
.password("yourPassword")
.deserializer(new JsonDebeziumDeserializationSchema()) // 将 SourceRecord 转换为 JSON 字符串
.build();
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
// 设置 3s 的 checkpoint 间隔
env.enableCheckpointing(3000);
env
.fromSource(mySqlSource, WatermarkStrategy.noWatermarks(), "MySQL Source")
// 设置 source 节点的并行度为 4
.setParallelism(4)
.print().setParallelism(1); // 设置 sink 节点并行度为 1
env.execute("Print MySQL Snapshot + Binlog");
}
}
代码摘自mysql-cdc-connector官网示例
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
{
"before": null,
"after": { # 实际数据
"id": 1,
"name": "jack",
"phone": "111",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z", # 该日期是UTC时间,只需增加8小时即可转化为北京时间
"update_time": "2023-06-01T05:00:00Z" # 该日期是UTC时间,只需增加8小时即可转化为北京时间
},
"source": { # 元数据
"version": "1.6.4.Final",
"connector": "mysql",
"name": "mysql_binlog_source",
"ts_ms": 0,
"snapshot": "false",
"db": "yushu_dds",
"sequence": null,
"table": "user",
"server_id": 0,
"gtid": null,
"file": "",
"pos": 0,
"row": 0,
"thread": null,
"query": null
},
"op": "r", # 记录每条数据的操作类型[重要]
"ts_ms": 1705471382867,
"transaction": null
}
initial
模式,这意味着首先进行全量同步,然后再进行增量同步。因此,在区分全量和增量同步时,关键在于观察获取到的数据中的 op
字段。op
字段是用来记录每条数据的操作类型的标志。具体的操作类型如下:
op=d
代表删除操作op=u
代表更新操作op=c
代表新增操作op=r
代表全量读取,而不是来自 binlog 的增量读取op=r
即可筛选出全量数据。在全量数据同步阶段,Doris 拉链表的 start_date
字段设置为系统当前日期,而 end_date
字段则设置为 ‘9999-12-31’。导入语句如下:INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(1, '2023-06-01 13:00:00', '2023-06-01 13:00:00', 'jack', 111, '男', 0, '2023-06-01', '9999-12-31'),
(2, '2023-06-01 13:00:00', '2023-06-01 13:00:00', 'jason', 222, '男', 0, '2023-06-01', '9999-12-31'),
(3, '2023-06-01 13:00:00', '2023-06-01 13:00:00', 'tom', 333, '男', 0, '2023-06-01', '9999-12-31');
id | name | phone | gender | create_time | update_time | expire | start_date | end date |
---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
当全量更新结束后即为增量更新,请注意以下内容:
start_date
字段【即开始时间】不再使用系统时间,而是业务数据的 update_time
截取后的日期。例如,update_time
为 “2023-06-02 13:00:00”,则对应的 start_date
为 “2023-06-02”。这么做的目的是为了确保使用事件时间来划分数据的开始时间,而不是系统时间。start_date
就会变成隔天日期,从而导致昨天的数据丢失。create_time
作为拉链表的 start_date
呢?这是因为在业务数据更改时,通常只会更新 update_time
。例如,2023-06-02 日更新了 “Tom” 的手机号码,此时同步到 Doris 新增的拉链数据如果使用 create_time
,那么 start_date
仍然会是 “2023-06-01”,而实际上该条数据应该从 “2023-06-02” 日开始生效。因此,使用 update_time
更加合理,确保拉链表中的数据始终按照业务数据的更新时间来进行正确的版本管理。接下来,我们将逐一讲解以下四个场景:新增更新、跨天更新、某条数据当天多次更新以及删除更新。
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
加粗为更新/新增数据
{
"before": null,
"after": {
"id": 4,
"name": "tony",
"phone": "555",
"gender": "男",
"create_time": "2023-06-02T02:00:00Z",
"update_time": "2023-06-02T02:00:00Z"
},
"source": {
# 此处元数据省略
},
"op": "c",
"ts_ms": 1705477497504,
"transaction": null
}
op=c
代表新增操作,对于新增操作doris拉链表的start_end为业务数据的update_time,而end_date均设置为9999-12-31,导入语句如下:INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(4, '2023-06-02 10:00:00', '2023-06-02 10:00:00', 'tony', 555, '男', 0, '2023-06-02', '9999-12-31');
id | name | phone | gender | create_time | update_time | expire | start_date | end_date |
---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 9999-12-31 |
加粗表示更新/新增数据
首先,解释一下为何要需要区分两种不同的更新场景:跨天更新和当天多次更新。这涉及到拉链表的历史数据粒度,拉链表通常以天为单位。如果一条数据在同一天内多次更新,那么每次更新后的数据的生存时间将只有几小时甚至几分钟。在这种情况下,我们希望在拉链表中将这种多次更新的临时数据设为过期数据;细节在后续会有讲解,先来解释跨天更新场景。
id | name | phone | gender | create_time | update_time |
---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
加粗为更新/新增数据
{
"before": { # 更新前的数据
"id": 3,
"name": "tom",
"phone": "333",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-01T05:00:00Z"
},
"after": { # 更新后的数据
"id": 3,
"name": "tom",
"phone": "444", # 手机号更新
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-02T01:00:00Z" # 更新时间更新
},
"source": {
# 此处元数据省略
},
"op": "u",
"ts_ms": 1705479637926,
"transaction": null
}
op=u
(代表更新操作)时,首先需要检查before
和after
字段中的update_time
是否跨越了天粒度。可能跨越一天,也可能跨越多天,我们将在Doris拉链表中执行两条SQL语句:一条更新语句和一条插入语句。
end_date
字段,将其设置为after
字段中update_time
的前一天2023-06-01
。after
字段中的新数据,将start_date
设置为update_time
的日期,end_date
设置9999-12-31
),以确保该数据在拉链表中一直有效。-- 更新语句:
UPDATE example_user_zip SET end_date = '2023-06-01' WHERE `id`=3 AND `update_time`='2023-06-01 13:00:00';
-- 插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(3, '2023-06-02 09:00:00', '2023-06-01 13:00:00', 'tom', 444, '男', 0, '2023-06-02', '9999-12-31');
id | name | phone | gender | create_time | update_time | expire | start_date | end_date |
---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 9999-12-31 |
加粗表示更新/新增数据
SELECT * FROM example_user_zip WHERE start_date <= '2023-06-01' AND end_date >= '2023-06-01' AND expire = 0;
id | name | phone | gender | create_time | update_time | expire | start date | end date |
---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 |
在我们的拉链表中,数据的粒度是以天为单位。如果一条数据在同一天内多次更新,我们的处理策略是取最后一次更新为有效数据,而将之前的更新标记为过期数据。为了标记数据是否过期,我们会将过期数据的expire
字段设置为1。
UPDATE `user` SET `phone`='333', `update_time`='2023-06-03 10:00:00' WHERE `id`=2;
UPDATE `user` SET `phone`='444', `update_time`='2023-06-03 12:00:00' WHERE `id`=2;
UPDATE `user` SET `phone`='555', `update_time`='2023-06-03 14:00:00' WHERE `id`=2;
id | name | phone | gender | create_time | update_time | 备注 |
---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | (jason手机号从222 -> 333 -> 444 -> 555更改了三次) |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
{
"before": {
"id": 2,
"name": "jason",
"phone": "222",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-01T05:00:00Z"
},
"after": {
"id": 2,
"name": "jason",
"phone": "333",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-03T02:00:00Z"
},
"source": {
# 元数据忽略
},
"op": "u",
"ts_ms": 1705548298335,
"transaction": null
},
{
"before": {
"id": 2,
"name": "jason",
"phone": "333",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-03T02:00:00Z"
},
"after": {
"id": 2,
"name": "jason",
"phone": "444",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-03T04:00:00Z"
},
"source": {
# 元数据忽略
},
"op": "u",
"ts_ms": 1705548298392,
"transaction": null
},
{
"before": {
"id": 2,
"name": "jason",
"phone": "444",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-03T04:00:00Z"
},
"after": {
"id": 2,
"name": "jason",
"phone": "555",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-03T06:00:00Z"
},
"source": {
# 元数据忽略
},
"op": "u",
"ts_ms": 1705548298484,
"transaction": null
}
当我们在Flink应用中遇到op=u
(代表更新操作),且检查before
和after
字段中的update_time
属于同一天,我们将在Doris拉链表中执行两条SQL语句:一条更新语句和一条插入语句。
expire
字段设置为1,将其设置为end_date
字段值设置为update_time
的当天日期2023-06-03
。after
字段中的新数据,将start_date
设置为update_time
的当天日期,end_date
设置9999-12-31
),以确保该数据在拉链表中一直有效。-- 222 -> 333 跨天更新语句:
UPDATE example_user_zip SET end_date = '2023-06-02' WHERE `id`=2 AND `update_time`='2023-06-01 13:00:00';
-- 222 -> 333 跨天插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(2, '2023-06-03 10:00:00', '2023-06-01 13:00:00', 'jason', 333, '男', 0, '2023-06-03', '9999-12-31');
-- 333 -> 444 同一天更新语句:
UPDATE example_user_zip SET expire = 1, end_date = '2023-06-03' WHERE `id`=2 AND `update_time`='2023-06-03 10:00:00';
-- 333 -> 444 同一天插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(2, '2023-06-03 12:00:00', '2023-06-01 13:00:00', 'jason', 444, '男', 0, '2023-06-03', '9999-12-31');
-- 444 -> 555 同一天更新语句:
UPDATE example_user_zip SET expire = 1, end_date = '2023-06-03' WHERE `id`=2 AND `update_time`='2023-06-03 12:00:00';
-- 444 -> 555 同一天插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(2, '2023-06-03 14:00:00', '2023-06-01 13:00:00', 'jason', 555, '男', 0, '2023-06-03', '9999-12-31');
此时doris拉链表内容如下所示:
id | name | phone | gender | create_time | update_time | expire | start_date | end_date | 备注 |
---|---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 9999-12-31 | |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-02 | (由9999-12-31改为2023-06-02) |
2 | jason | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-03 10:00:00 | 1 | 2023-06-03 | 2023-06-03 | (当天更新多次的过期数据) |
2 | jason | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-03 12:00:00 | 1 | 2023-06-03 | 2023-06-03 | (当天更新多次的过期数据) |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | 0 | 2023-06-03 | 9999-12-31 | (新增一条最新数据) |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 | |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 9999-12-31 |
SELECT * FROM example_user_zip WHERE start_date <= '2023-06-03' AND end_date >= '2023-06-03' AND expire = 0;
id | name | phone | gender | create_time | update_time | start_date | end_date |
---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 9999-12-31 |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 2023-06-02 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 2023-06-02 | 9999-12-31 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 2023-06-02 | 9999-12-31 |
由于[Mysql]业务数据都具备唯一键,故业务数据的删除同步至拉链表无需判断是否跨天,只需更新删除数据的end_date日期为前一天即可。
id | name | phone | gender | create_time | update_time | 备注 |
---|---|---|---|---|---|---|
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | (jason手机号从222 -> 333 -> 444 -> 555更改了三次) |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 |
{
"before": {
"id": 1,
"name": "jack",
"phone": "111",
"gender": "男",
"create_time": "2023-06-01T05:00:00Z",
"update_time": "2023-06-01T05:00:00Z"
},
"after": null,
"source": {
# 忽略元数据
},
"op": "d", # 操作类型
"ts_ms": 1705561813650,
"transaction": null
}
op=d
代表删除操作,对于删除操作doris拉链表只需将before数据的date_date日期更新为前一日2023-06-03
,导入语句如下:-- 更新语句
UPDATE example_user_zip SET end_date = '2023-06-03' WHERE `id`=1 AND `update_time`='2023-06-01 13:00:00';
id | name | phone | gender | create_time | update_time | expire | start_date | end_date | 备注 |
---|---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-03 | (由9999-12-31改为2023-06-03) |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-02 | |
2 | jason | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-03 10:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-03 12:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | 0 | 2023-06-03 | 9999-12-31 | |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 | |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 9999-12-31 |
SELECT * FROM example_user_zip WHERE start_date <= '2023-06-04' AND end_date >= '2023-06-04' AND expire = 0;
id | name | phone | gender | create_time | update_time | start_date | end_date |
---|---|---|---|---|---|---|---|
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 2023-06-02 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 2023-06-02 | 9999-12-31 |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 2023-06-02 | 9999-12-31 |
这里单独强调并发更新场景是因为在关系型数据库中,例如MySQL,通常使用timestamp
类型来表示update_time
,而该数据类型的最细粒度是秒。因此,当多个并发操作同时更新同一条数据时,update_time
的值只会发生一次变化,但会产生多条binlog日志。由于Doris的拉链表以id + update_time
作为唯一键,这种情况下会导致同一条数据多次更新。因此,这里单独讲解并发更新的情况。
需要注意的是,并发问题只存在于更新操作,删除和创建操作不会出现上述问题。
id | name | phone | gender | create_time | update_time | 备注 |
---|---|---|---|---|---|---|
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | |
4 | tony | 777 | 男 | 2023-06-02 10:00:00 | 2023-06-05 15:00:00 | (tony手机号从555-> 666-> 777 并发更改两次) |
{
"before": {
"id": 4,
"name": "tony",
"phone": "555",
"gender": "男",
"create_time": "2023-06-02T02:00:00Z",
"update_time": "2023-06-02T02:00:00Z"
},
"after": {
"id": 4,
"name": "tony",
"phone": "666",
"gender": "男",
"create_time": "2023-06-02T02:00:00Z",
"update_time": "2023-06-05T07:00:00Z"
},
"source": {
# 元数据忽略
},
"op": "u",
"ts_ms": 1705564093414,
"transaction": null
},
{
"before": {
"id": 4,
"name": "tony",
"phone": "666",
"gender": "男",
"create_time": "2023-06-02T02:00:00Z",
"update_time": "2023-06-05T07:00:00Z"
},
"after": {
"id": 4,
"name": "tony",
"phone": "777",
"gender": "男",
"create_time": "2023-06-02T02:00:00Z",
"update_time": "2023-06-05T07:00:00Z"
},
"source": {
# 元数据忽略
},
"op": "u",
"ts_ms": 1705564093478,
"transaction": null
}
op=u
代表更新操作,这里我们仍沿用增量更新的逻辑,第一条日志中业务数据555->666属于跨天更新,第二条日志中业务数据666->777属于一条数据当天多次更新,DorisSql如下所示:-- 555 -> 666 跨天更新语句:
UPDATE example_user_zip SET end_date = '2023-06-04' WHERE `id`=4 AND `update_time`='2023-06-02 10:00:00';
-- 555 -> 666 跨天插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(4, '2023-06-05 15:00:00', '2023-06-02 10:00:00', 'tony', 666, '男', 0, '2023-06-05', '9999-12-31');
-- 666 -> 777 同一天更新语句:
UPDATE example_user_zip SET expire = 1, end_date = '2023-06-05' WHERE `id`=4 AND `update_time`='2023-06-05 15:00:00';
-- 666 -> 777 同一天插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(4, '2023-06-05 15:00:00', '2023-06-02 10:00:00', 'tony', 777, '男', 0, '2023-06-05', '9999-12-31');
id | name | phone | gender | create_time | update_time | expire | start_date | end_date | 备注 |
---|---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-03 | |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-02 | |
2 | jason | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-03 10:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-03 12:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | 0 | 2023-06-03 | 9999-12-31 | |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 | |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 2023-06-04 | (由9999-12-31改为2023-06-04) |
4 | tony | 777 | 男 | 2023-06-02 10:00:00 | 2023-06-05 15:00:00 | 0 | 2023-06-05 | 9999-12-31 | (新增一条最新数据) |
此时可以看到新增了一条Tony的数据,有些人可能注意到少了一条姓名为Tony、手机号为666、expire字段为1的数据。这是因为最后的更新和插入语句中的id + update_time完全一致,触发了Doris的replace替换操作。因此,最后一条插入语句覆盖了前一条更新语句,即"Tony, 666, expire=1"的数据被覆盖掉了。而这种替换操作反而变相解决了并发更新的问题。
SELECT * FROM example_user_zip WHERE start_date <= '2023-06-05' AND end_date >= '2023-06-05' AND expire = 0;
id | name | phone | gender | create_time | update_time | start_date | end_date |
---|---|---|---|---|---|---|---|
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 2023-06-02 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 2023-06-02 | 9999-12-31 |
4 | tony | 777 | 男 | 2023-06-02 10:00:00 | 2023-06-05 15:00:00 | 2023-06-05 | 9999-12-31 |
id | name | phone | gender | create_time | update_time | expire | start_date | end_date | 备注 |
---|---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-03 | (由9999-12-31改为2023-06-03) |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-02 | |
2 | jason | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-03 10:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-03 12:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | 0 | 2023-06-03 | 9999-12-31 | |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 | |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 9999-12-31 |
-- 555 -> 666 跨天插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(4, '2023-06-05 15:00:00', '2023-06-02 10:00:00', 'tony', 666, '男', 0, '2023-06-05', '9999-12-31');
-- 555 -> 666 跨天更新语句:
UPDATE example_user_zip SET end_date = '2023-06-04' WHERE `id`=4 AND `update_time`='2023-06-02 10:00:00';
-- 666 -> 777 同一天插入语句:
INSERT INTO example_user_zip (id, update_time, create_time, name, phone, gender, expire, start_date, end_date)
VALUES
(4, '2023-06-05 15:00:00', '2023-06-02 10:00:00', 'tony', 777, '男', 0, '2023-06-05', '9999-12-31');
-- 666 -> 777 同一天更新语句:
UPDATE example_user_zip SET expire = 1, end_date = '2023-06-05' WHERE `id`=4 AND `update_time`='2023-06-05 15:00:00';
id | name | phone | gender | create_time | update_time | expire | start_date | end_date | 备注 |
---|---|---|---|---|---|---|---|---|---|
1 | jack | 111 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-03 | |
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-02 | |
2 | jason | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-03 10:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-03 12:00:00 | 1 | 2023-06-03 | 2023-06-03 | |
2 | jason | 555 | 男 | 2023-06-01 13:00:00 | 2023-06-03 14:00:00 | 0 | 2023-06-03 | 9999-12-31 | |
3 | tom | 333 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 0 | 2023-06-01 | 2023-06-01 | |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 0 | 2023-06-02 | 9999-12-31 | |
4 | tony | 555 | 男 | 2023-06-02 10:00:00 | 2023-06-02 10:00:00 | 0 | 2023-06-02 | 2023-06-04 | (由9999-12-31改为2023-06-04) |
4 | tony | 777 | 男 | 2023-06-02 10:00:00 | 2023-06-05 15:00:00 | 1 | 2023-06-05 | 2023-06-05 | (更新拉链数据) |
可以看到已经没有tony的最新数据了。
SELECT * FROM example_user_zip WHERE start_date <= '2023-06-05' AND end_date >= '2023-06-05' AND expire = 0;
id | name | phone | gender | create_time | update_time | start_date | end_date |
---|---|---|---|---|---|---|---|
2 | jason | 222 | 男 | 2023-06-01 13:00:00 | 2023-06-01 13:00:00 | 2023-06-01 | 2023-06-02 |
3 | tom | 444 | 男 | 2023-06-01 13:00:00 | 2023-06-02 09:00:00 | 2023-06-02 | 9999-12-31 |
根据以上的测试结果,我们可以得出以下结论:当涉及到更新操作时,最好的做法是先执行更新,然后再执行插入操作。这种顺序可以有效避免并发更新问题。
此外,在实时引擎中处理数据通常涉及到分布式计算,因此需要特别注意确保相同ID的数据只在一个线程中按顺序执行,而不是让执行器01执行Tony的更新操作,而执行器02执行Tony的插入操作。相反,应该将具有相同ID的数据放置在同一个执行器中执行,以确保顺序性和一致性。这对于处理并发更新场景非常重要。
本文我们深入探讨了如何使用Apache Flink实现实时数据仓库中拉链表的同步。拉链表是一种重要的数据模型,用于跟踪数据的历史变化,以便在分析和报告中提供准确的历史视图。我们介绍了如何借助Flink以及其他相关技术构建一个强大的实时同步引擎,以应对多种数据同步场景。
我们首先介绍了传统Lambda架构到实时同步+拉链表单引擎架构它们之间的区别。随后,我们深入讨论了Flink CDC(Change Data Capture)和Doris数据库的结合使用,以实现实时数据同步的基础架构。我们详细讨论了全量同步和增量同步两种关键同步模式,以及如何应对不同的更新场景。
在全文中,强调了以下关键点:
通过深入了解实时同步和拉链表的实现细节,读者可以更好地理解如何构建强大的实时数据仓库,并满足不断变化的业务需求。