目录
(零)本文简介
(一)背景
(二)探索梳理过程
(三)源码改造
(四)修改效果
1、JOB状态
2、Level5的dataFile总大小
3、数据延迟
(五)未来展望:异步Compact
Paimon多流拼接/合并性能优化;
为解决离线T+1多流拼接数据时效性、Flink实时状态太大任务稳定性问题,这里基于数据湖工具Apache Paimon进行近实时的多流拼接。
使用Flink+Paimon基于ParmaryKey Table(PartialUpdate)进行多流拼接的时候,跑一段时间有时会遇到周期性背压、checkpoint时间过长等情况,本文通过剖析源码逻辑、修改源码,在一定程度上解决了这个问题。
Apache Paimon基础 、多流拼接方法 及 与Hudi 的对比 可参考前面文章:
新一代数据湖存储技术Apache Paimon入门Demo_Leonardo_KY的博客-CSDN博客
基于数据湖的多流拼接方案-HUDI概念篇_Leonardo_KY的博客-CSDN博客
这里使用 Flink 1.14 + Apache Paimon 0.5 snapshot 进行多流拼接(前端埋点流 + 服务端埋点流);
当前情况是一天一个分区,一个分区100个bucket;就会出现如下情况:分区/bucket中的数据越来越多,到达下午或者傍晚的时候就会出现 paimon 作业周期性背压(因为mergeTree中维护的数据越来越多,tree越来越大),checkpoint时间也会比较长;于是决定将mergeTree中的过期数据删除,即让其不进入tree中,减少计算量;
这里的“过期”按需自定义,比如调研发现99.9%的数据都可以使用3个小时之内的数据拼接上,那就根据时间戳与当前时间戳(假设没有很严重的消费积压)相比,时间差超过3小时的数据就将其丢弃;
具体细节涉及到(这里先将结论给出):
1、首先观察hdfs文件之后发现,dataFile只保留最近一个小时的文件,超过一小时的文件就会被删除,这里应该对应参数 partition.expiration-check-interval = 1h,由此可知data文件不是增量的【下文compact只有几个文件再次加强验证】(那么就不能通过dataFile的最新修改时间判断文件过期将数据过滤);
2、观察flink log发现,每次compaction都只读几个文件,如下所示:
每次其实只读取一个level0的file,再加上几个level5的file(level5这里file就是之前的全部数据,包含多个流的),最后将compact之后的文件再命名为新的名字写到level5;
随着分区数据量的增多,参与compact的file也会越来越多(这也是会导致tree偏大,出现周期性背压的原因);
另外,dataFile命名呈现如下规律:
level5的第二个文件总是跟第一个中间隔一个(这个跟改源码没有关系,只是适合观察规律);
到晚间的时候参与compact的file更多了:
3、观察每次level5生成的dataFile(理论上level5的dataFile会越来越大/多,当单个文件大小超过128M *(1+rate)时,会生成新文件);
所有level5的文件大小加起来会越来越大,即永远是呈增长趋势;
如下每一层的总大小在不断增大,同时当文件到一定程度之后,每层2个文件变成3个文件;
4、【以上3点均为原始实现思路,从这里开始改造】思考:既然已知每个bucket中只要最新的几个dataFile就包含了全部的data数据(dataFile不是增量的),那么就不能通过文件最新修改时间来判断数据是否过期,只能从最新的几个dataFile的每条记录来进行判断了,即原本每次参与合并的record是从这个partition+bucket建立开始的全部数据,那么是否可以通过修改源码判断每条record是否过期,从而不参与mergeTree,在compact完成之后也不会再次写入新的dataFile(如果还是写进来,每次读进tree时都需要判断是否过期,是否进入tree)?【答案当然是可以的!】
1、首先说明一下,在源码中有这么一段
// IntervalPartition.partition()
public List> partition() {
List> result = new ArrayList<>();
List section = new ArrayList<>();
BinaryRow bound = null;
for (DataFileMeta meta : files) {
if (!section.isEmpty() && keyComparator.compare(meta.minKey(), bound) > 0) {
// larger than current right bound, conclude current section and create a new one
result.add(partition(section));
section.clear();
bound = null;
}
section.add(meta);
if (bound == null || keyComparator.compare(meta.maxKey(), bound) > 0) {
// update right bound
bound = meta.maxKey();
}
}
if (!section.isEmpty()) {
// conclude last section
result.add(partition(section));
}
return result;
}
此处为了将文件排序、再将有overlap的放在一个list里边,一但产生gap(即没有overlap),那么就创建新的list,最终将这些 list 再放到List>中:
示意图如下:
2、后续通过一些处理变成 List> 的格式,这里的KeyValue就包含我们想要去操纵的record!
源码是这样的:
public RecordReader mergeSort(
List> lazyReaders,
Comparator keyComparator,
MergeFunctionWrapper mergeFunction)
throws IOException {
if (ioManager != null && lazyReaders.size() > spillThreshold) {
return spillMergeSort(lazyReaders, keyComparator, mergeFunction);
}
List> readers = new ArrayList<>(lazyReaders.size());
for (ReaderSupplier supplier : lazyReaders) {
try {
readers.add(supplier.get());
} catch (IOException e) {
// if one of the readers creating failed, we need to close them all.
readers.forEach(IOUtils::closeQuietly);
throw e;
}
}
return SortMergeReader.createSortMergeReader(
readers, keyComparator, mergeFunction, sortEngine);
}
这里的return就会创建sortMergeReader了,我们可以在将数据传入这里之前,先进行过滤(通过判断每一条record是否超过过期时间),修改如下:
public RecordReader mergeSort(
List> lazyReaders,
Comparator keyComparator,
MergeFunctionWrapper mergeFunction)
throws IOException {
if (ioManager != null && lazyReaders.size() > spillThreshold) {
return spillMergeSort(lazyReaders, keyComparator, mergeFunction);
}
List> readers = new ArrayList<>(lazyReaders.size());
for (ReaderSupplier supplier : lazyReaders) {
try {
// 过滤掉过期数据
RecordReader filterSupplier =
supplier.get()
.filter(
(KeyValue keyValue) ->
isNotExpiredRecord(
keyValue.value(), expireTimeMillis));
readers.add(filterSupplier);
} catch (IOException e) {
// if one of the readers creating failed, we need to close them all.
readers.forEach(IOUtils::closeQuietly);
throw e;
}
}
return SortMergeReader.createSortMergeReader(
readers,
keyComparator,
mergeFunction,
sortEngine,
keyType.getFieldTypes(),
valueType.getFieldTypes());
}
// 判断这条数据是否过期
public boolean isNotExpiredRecord(InternalRow row, long expireTimeMillis) {
if (expireTimeMillis <= 0) {
return true;
}
// 只要有一个字段不为空,且大于0,且过期时间大于expireTimeMillis,就判断为过期
for (Integer pos : expireFieldsPosSet) {
if ((!row.isNullAt(pos))
&& row.getLong(pos) > 0
&& (System.currentTimeMillis() - row.getLong(pos)) > expireTimeMillis) {
return false;
}
}
return true;
}
与此同时,将相关参数暴露出来,可以在建表时进行自定义配置:
public static final ConfigOption RECORDS_EXPIRED_HOUR =
key("record.expired-hour")
.intType()
.defaultValue(-1)
.withDescription(
"Records in streams WON'T be offered into MergeTree when they are expired."
+ " (Inorder to avoid too large MergeTree; -1 means never expired). ");
public static final ConfigOption RECORDS_EXPIRED_FIELDS =
key("record.expired-fields")
.stringType()
.noDefaultValue()
.withDescription(
"Records in streams WON'T be offered into MergeTree when they are judged as [expired] according to these fields."
+ "If you specify multiple fields, delimiter is ','.");
使用方法:
val createPaimonJoinTable = (
s"CREATE TABLE IF NOT EXISTS ${paimonTable}(\n"
+ " uuid STRING,\n"
+ " metaid STRING,\n"
+ " cid STRING,\n"
+ " area STRING,\n"
+ " ts1 bigint,\n"
+ " ts2 bigint,\n"
+ " d STRING, \n"
+ " PRIMARY KEY (d, uuid) NOT ENFORCED \n"
+ ") PARTITIONED BY (d) \n"
+ " WITH (\n" +
" 'merge-engine' = 'partial-update',\n" +
" 'changelog-producer' = 'full-compaction', \n" +
" 'file.format' = 'orc', \n" +
s" 'sink.managed.writer-buffer-memory' = '${sinkWriterBuffer}', \n" +
s" 'full-compaction.delta-commits' = '${fullCompactionCommits}', \n" +
s" 'scan.mode' = '${scanMode}', \n" +
s" 'bucket' = '${bucketNum}', \n" +
s" 'sink.parallelism' = '${sinkTaskNum}', \n" +
s" 'record.expired-hour' = '3' , \n" + // user defined para
" 'record.expired-fileds' = '4,5' , \n" + // user defined para
" 'sequence.field' = 'ts1' \n" +
")"
)
tableEnv.executeSql(createPaimonJoinTable)
运行到晚上20点尚未出现背压:
checkpoint时间也没有过长(如果不剔除过期数据,到这个时间cp时长应该在3分钟左右):
生产到Kafka的消息也没有严重的断流或者锯齿现象:
还是有可能出现exception如下(但对数据量没有任何影响):
上边只是现象,最终还是要数据说话。
修改源码之后,观察dataFile,理论上每一层的size总大小可能会出现减小的情况 (因为过期数据就不会再写入到 level5 新的data文件中了)
如下图:levelSize diff(下一次level总size - 上一次level总size),确实出现了“有正有负”的情况,于是验证源码修改生效(即每次进行compact只会读取近 n 个小时的数据进行合并)!
有意思的是,当我们修改源码(将过期的数据丢弃)之后,数据延迟也变小了。
数据延迟计算方法:paimon处理完将数据写到kafka队列的时间戳 - 前端埋点被触发被服务器接收到的时间戳;
修改前:
修改后:
官方提供的paimon源码,里边的compaction是 sync 模式的,我尝试改成过 async 的,但是时不时会出现很少量的数据丢失(感觉可能是因为同一时刻有多个compact任务在进行),后续有机会可以再继续尝试一下。