本系列包含:
从图中可以理解 广播 就是一个公共的共享变量,广播变量存于 TaskManager 的内存中,所以广播变量不应该太大,将一个数据集广播后,不同的 Task 都可以在节点上获取到,每个节点只存一份。 如果不使用广播,每一个 Task 都会拷贝一份数据集,造成内存资源浪费。
反压(backpressure
)是实时计算应用开发中,特别是流式计算中,十分常见的问题。反压意味着数据管道中某个节点成为瓶颈,下游处理速率跟不上上游发送数据的速率,而需要对上游进行限速。由于实时计算应用通常使用消息队列来进行生产端和消费端的解耦,消费端数据源是 pull-based
的,所以反压通常是从某个节点传导至数据源并降低数据源(比如 Kafka consumer
)的摄入速率。
简单来说就是 下游处理速率跟不上上游发送数据的速率,下游来不及消费,导致队列被占满后,上游的生产会被阻塞,最终导致数据源的摄入被阻塞。
反压会影响到两项指标:checkpoint
时长和 state
大小。
(1)前者是因为 checkpoint barrier
是不会越过普通数据的,数据处理被阻塞也会导致 checkpoint barrier
流经整个数据管道的时长变长,因而 checkpoint
总体时间(End to End Duration
)变长。
(2)后者是因为为保证 EOS
(Exactly-Once-Semantics
,准确一次),对于有两个以上输入管道的 Operator,checkpoint barrier
需要对齐(Alignment
),接受到较快的输入管道的 barrier
后,它后面数据会被缓存起来但不处理,直到较慢的输入管道的 barrier
也到达,这些被缓存的数据会被放到 state
里面,导致 state
变大。
这两个影响对于生产环境的作业来说是十分危险的,因为 checkpoint
是保证数据一致性的关键,checkpoint
时间变长有可能导致 checkpoint
超时失败,而 state
大小同样可能拖慢 checkpoint
甚至导致 OOM
(使用 Heap-based StateBackend
)或者物理内存使用超出容器资源(使用 RocksDBStateBackend
)的稳定性问题。
Flink 社区提出了 FLIP-76,引入了非对齐检查点(unaligned checkpoint
)来解耦 Checkpoint 机制与反压机制。
要解决反压首先要做的是定位到造成反压的节点,这主要有两种办法:
(1)反压监控面板
Flink Web UI 的反压监控提供了 SubTask 级别的反压监控,原理是通过周期性对 Task 线程的栈信息采样,得到线程被阻塞在请求 Buffer(意味着被下游队列阻塞)的频率来判断该节点是否处于反压状态。默认配置下,这个频率在 0.1 0.1 0.1 以下则为 OK
, 0.1 0.1 0.1 至 0.5 0.5 0.5 为 LOW
,而超过 0.5 0.5 0.5 则为 HIGH
。
(2)Task Metrics
Flink 提供的 Task Metrics 是更好的反压监控手段。
Flink 支持的数据类型如下图所示:
从图中可以看到 Flink 类型可以分为基础类型(Basic
)、数组(Arrays
)、复合类型(Composite
)、辅助类型(Auxiliary
)、泛型和其它类型(Generic
)。Flink 支持任意的 Java 或是 Scala 类型。
所谓序列化和反序列化的含义:
TypeInformation
是 Flink 类型系统的核心类 。
在 Flink 中,当数据需要进行序列化时,会使用 TypeInformation
的生成序列化器接口调用一个 createSerialize()
方法,创建出 TypeSerializer
,TypeSerializer
提供了序列化和反序列化能力。
Flink 的序列化过程如下图所示:
对于大多数数据类型 Flink 可以自动生成对应的序列化器,能非常高效地对数据集进行序列化和反序列化 ,如下图:
比如,BasicTypeInfo
、WritableTypeIno
,但针对 GenericTypeInfo
类型,Flink 会使用 Kyro
进行序列化和反序列化。其中,Tuple
、Pojo
和 CaseClass
类型是复合类型,它们可能嵌套一个或者多个数据类型。在这种情况下,它们的序列化器同样是复合的。它们会将内嵌类型的序列化委托给对应类型的序列化器。
通过一个案例介绍 Flink 序列化和反序列化:
如上图所示,当创建一个 Tuple3 对象时,包含三个层面,一是 int
类型,一是 double
类型,还有一个是 Person
。Person
对象包含两个字段,一是 int
型的 id
,另一个是 String
类型的 name
。
int
类型通过 IntSerializer
进行序列化操作,此时 int
只需要占用四个字节。Person
类会被当成一个 Pojo
对象来进行处理,PojoSerializer
序列化器会把一些属性信息使用一个字节存储起来。同样,其字段则采取相对应的序列化器进行相应序列化,在序列化完的结果中,可以看到所有的数据都是由 MemorySegment
去支持。MemorySegment
具有什么作用呢?
MemorySegment
在 Flink 中会将对象序列化到预分配的内存块上,它代表 1 1 1 个固定长度的内存,默认大小为 32 k b 32\ kb 32 kb。MemorySegment
代表 Flink 中的一个最小的内存分配单元,相当于是 Java 的一个 byte
数组。每条记录都会以序列化的形式存储在一个或多个 MemorySegment
中。
因为在内存中存储大量的数据(包括缓存和高效处理)时,JVM 会面临很多问题,包括如下:
boolean
属性的对象占 16 16 16 byte
:对象头占 8 8 8 byte
, boolean 属性占 1 1 1 byte
,为了对齐达到 8 8 8 的倍数额外占 7 7 7 byte
。而实际上只需要 1 1 1 个 bit
( 1 / 8 1/8 1/8 字节)就够了。Garbage Collection
)会达到秒级甚至分钟级。OutOfMemoryError
)是分布式计算框架经常会遇到的问题, 当 JVM 中所有对象大小超过分配给 JVM 的内存大小时,就会发生 OutOfMemoryError
错误, 导致 JVM 崩溃,分布式框架的健壮性和性能都会受到影响。Flink 并不是将大量对象存在堆内存上,而是将对象都序列化到一个预分配的内存块上, 这个内存块叫做 MemorySegment
,它代表了一段固定长度的内存(默认大小为 32 32 32 KB),也是 Flink 中最小的内存分配单元,并且提供了非常高效的读写方法,很多运算可以直接操作二进制数据,不需要反序列化即可执行。每条记录都会以序列化的形式存储在一个或多个 MemorySegment
中。如果需要处理的数据多于可以保存在内存中的数据,Flink 的运算符会将部分数据溢出到磁盘。
Flink 总体内存类图如下:
主要包含 JobManager
内存模型和 TaskManager
内存模型。
(1)JobManager 内存模型
在 1.10 1.10 1.10 中,Flink 统一了 TM(TaskManager)端的内存管理和配置,相应的在 1.11 1.11 1.11 中,Flink 进一步对 JM(JobManager)端的内存配置进行了修改,使它的选项和配置方式与 TM 端的配置方式保持一致。
(2)TaskManager 内存模型
Flink 1.10 1.10 1.10 对 TaskManager 的内存模型和 Flink 应用程序的配置选项进行了重大更改, 让用户能够更加严格地控制其内存开销。
JVM Heap(JVM 堆内存)
taskmanager.memory.framework.heap.size = 128MB
,默认 128 128 128 MB。taskmanager.memory.task.heap.size
。Off-Heap Mempry(堆外内存)
taskmanager.memory.framework.off-heap.size = 128MB
,默认 128 128 128 MB。taskmanager.memory.task.off-heap.size = 0
,默认 0 0 0。JVM Specific Memory(JVM 本身使用的内存)
taskmanager.memory.jvm-overhead.min = 192MB
,taskmanager.memory.jvm-overhead.max = 1GB
,taskmanager.memory.jvm-overhead.fraction = 0.1
。总体内存
总进程内存:Flink Java 应用程序(包括用户代码)和 JVM 运行整个进程所消耗的总内存。总进程内存 = Flink 使用内存 + JVM 元空间 + JVM 执行开销。配置项:taskmanager.memory.process.size: 1728m
。
Flink 总内存:仅 Flink Java 应用程序消耗的内存,包括用户代码,但不包括 JVM 为其运行而分配的内存。Flink 使用内存 = 框架堆内外 + task
堆内外 + network
+ manage
。
Flink在资源管理上可以分为两层:集群资源 和 自身资源。集群资源支持主流的资源管理系统,如 Yarn
、Mesos
、K8s
等,也支持独立启动的 Standalone
集群。自身资源涉及到每个子 task
的资源使用,由 Flink 自身维护。
一、集群架构剖析
Flink 的运行主要由 客户端 、一个 JobManager(后文简称 JM
)和 一个以上的 TaskManager(简称 TM
或 Worker
)组成。
jar
和执行参数即可。客户端一般支持两种模式:detached
模式,客户端提交后自动退出;attached
模式,客户端提交后阻塞等待任务执行完毕再退出。task
,在 task
执行结束或失败时如何处理,协调检查点、故障恢复。该进程主要由下面几个部分组成:
slot
(Flink 集群中最细粒度的资源管理单元)。Flink 实现了多种 RM 的实现方案以适配多种资源管理框架,如 Yarn
、Mesos
、K8s
或 Standalone
。在 Standalone
模式下,RM 只能分配 slot
,而不能启动新的 TM。注意:这里所说的 RM 跟 Yarn
的 RM 不是一个东西,这里的 RM 是 JM 中的一个独立的服务。rest
接口,为每个提交的任务启动新的 JobMaster,为所有的任务提供 Web UI,查询任务执行状态。worker
,用于执行数据流图中的任务,缓存并交换数据。集群至少有一个 TM,TM 中最小的资源管理单元是 slot
,每个 slot
可以执行一个 task
,因此 TM 中 slot
的数量就代表同时可以执行任务的数量。二、Slot 与资源管理
每个 TM 是一个独立的 JVM 进程,内部基于独立的线程执行一个或多个任务。TM 为了控制每个任务的执行资源,使用 task slot
来进行管理。每个 task slot
代表 TM 中的一部分固定的资源,比如一个 TM 有 3 3 3 个 slot
,每个 slot
将会得到 TM 的 1 / 3 1/3 1/3 内存资源。不同任务之间不会进行资源的抢占,注意 GPU 目前没有进行隔离,目前 slot
只能划分内存资源。
比如下面的数据流图,在扩展成并行流图后,同一个 task
可能分拆成多个任务并行在集群中执行。操作链可以把多个不同的任务进行合并,从而支持在一个线程中先后执行多个任务,无需频繁释放申请线程。同时操作链还可以统一缓存数据,增加数据处理吞吐量,降低处理延迟。
在 Flink 中,想要不同子任务合并需要满足几个条件:
shuffle
);ALWAYS
;ForwardPartitioner
;Chain
特性。
在集群中的执行图可能如下:
Flink 也支持 slot
的共享,即把不同任务根据任务的依赖关系分配到同一个 slot
中。这样带来几个好处:方便统计当前任务所需的最大资源配置(某个子任务的最大并行度);避免 slot
的过多申请与释放,提升 slot
的使用效率。
通过 slot
共享,就有可能某个 slot
中包含完整的任务执行链路。
三、应用执行
一个 Flink 应用就是用户编写的 main
函数,其中可能包含一个或多个 Flink 的任务。这些任务可以在本地执行,也可以在远程集群启动,集群既可以长期运行,也支持独立启动。下面是目前支持的任务提交方案:
slot
由 RM 申请,当上面的任务执行完毕会自动进行释放。由于多个任务会共享相同的集群,因此任务间会存在竞争,比如网络带宽等。如果某个 TM 挂掉,上面的所有任务都会失败。main
方法运行在集群中。任务的提交程序很简单,不需要启动或连接集群,而是直接把应用程序打包到资源管理系统中并启动对应的 EntryPoint,在 EntryPoint 中调用用户程序的 main
方法,解析生成 JobGraph,然后启动运行。集群的生命周期与应用相同。