【Flink】浅谈Flink背压问题(1)

概述

在多线程的情况下有一个典型的模,型生产者消费者模型,该模型主要由生产者、消费者和一个大小固定的队列组成。生产者向队列发送数据,消费者从队列中取出数据并处理。

生产者消费者模型

针对上述模型,如果队列属于有限长度,当消费者能力<生产者能力的时候就会出现数据堆积,这样生产者的生产就会停止。现在将这个模型引入Flink算子链中,生产者和消费者的身份是相对的,一个生产者是上游的消费者,一个消费者同样也是下游的生产者。所以一个节点模型中消费者的堵塞将会向上移动,直到源头,这就是反压。

Flink数据通信模型

假如一个Flink任务(Job)中有 TaskA,TaskB,并发度都是 4,即 A1-A4,B1-B4。TaskA 与 TaskB 使用 keyby 连接。将这个 Flink Job 部署到 2 个 TM 中,每个 TM 分配 2 个 slots。那么Flink会将 A1,A2,B1,B2 放到一个 TM 中,A3,A4,B3,B4 放到一个 TM 中,具体示例如下图所示:

Flink通信示例

同一个 TM 中的SubTask采用 【local 】方式进行数据传输。位于不同 TM 的 SubTask采用【remote】方式传输。传输示意图如下图所示:

通信示例

我们从上图可以看出,以SubTaskA1为例,其数据传输步骤如下:

  1. TaskA1 先通过 【RecordWriter】对象将数据序列化写到一个 【Output Queue Buffer】 中(下游的并行子任务个数就是队列的个数)。

  2. 由【 Netty Service 】进行拉取,满足以下任意一个条件都会进行拉取;

    1. 【Output Queue Buffer】 写满了(默认 32KB);

    2. 【Output Queue Buffer】 超时了(默认 100ms);

    3. 遇到特殊结构,例如 Barrier,WaterMark;

  3. 经过网络传输之后,数据会写到 TaskB3 中的 【Input Queue】 中,然后由 【RecordReader】对象将数据反序列化后进行处理。

也就是说一个 下游TM 中的并行子任务出现消费延迟,就会阻塞 TCP-channel 进而影响整个 TM 的消费,最终向上传递,导致反压。

反压的监控

Web UI

可以直接在 Flink Web 中进行观察,Flink检测会针对任何一个 Task 做反压检测。该机制需要在 Flink Web 上手动触发,触发后TM 使用 Thread.GetStackTrace 来抽样检测 Task Thread 是否在 NetworkBuffer 中,即是否处于等待状态。根据抽样比例,来判断反压状态。Ratio 是代表抽样 n 次(默认100次)中,遇到等待次数的比例。

  • OK:ratio≤0.1;

  • LOW:0.01≤Ratio≤0.5;

  • High:0.5≤Ratio≤1;

从 Sink→Source 进行检查,第一个反压状态处于 High 的 task 大概率是反压的根源。

WebUI监控

该方法有一定的缺陷:

  1. 由于他是抽样,无法观察到历史数据;

  2. 影响作业流程;

  3. 高并发场景下,需要等待很久才能检测成功;

Flink Network Metric

在上文提到过,TM之间的通信都会使用到 InputQueue 和 OutputQueue,我们可以通过使用【InputQueueUsage】 和 【OutputQueueUsage】这两个指标来判断出现反压的位置。

Task Status OutputQueueUsage < 1.0 OutputQueueUsage == 1.0
InputQueueUsage < 1.0 正常 处于反压,其根本原因可能是该 Task 下游处理能力不足导致,持续下去,该 Task 将会向上游传递反压
InputQueueUsage == 1.0 处于反压,持续下去,该 Task 会向上游传递反压,而且该 Task 可能是反压的源头 处于反压,原因可能是被下游阻塞

现在看一个实际的例子

image.png

可以看出 FlatMap→Reduce 出现了阻塞,再看 reduce 任务的 inpoolusageoutpoolusage 指标,得出结论reduce任务就是反压的源头。

往期回顾

  1. 【分布式】浅谈CAP、BASE理论(1)

我将在下一期详细介绍反压形成的原因以及处理办法,敬请期待!!

你可能感兴趣的:(【Flink】浅谈Flink背压问题(1))