一。 概述
在流计算场景中,数据没有边界源源不断的流入的,每条数据流入都可能会触发计算,比如在进行count或sum这些操作,是选择每次触发计算将所有流入的历史数据重新计算一边还是每次计算都基于上次计算结果进行增量计算呢? 从综合考虑角度,很多人都会 选择增量计算,那么问题就产生了:上一次的中间计算结果保存在哪里?内存?这其中会由于本身的网络,硬件或软件等问题造成某个计算节点失败,对应的上次计算结果就会丢失,在节点恢复时,是需要将所有历史数据重新计算一遍的,对于这样的结果大家是很难接受的。
二。flink中state
而在flink中提出了state用来存放计算过程的节点中间结果或元数据等,并提供Exactly-Once语义,例如:执行aggregation时在state中记录中间聚合结果,再如从kafka中摄取记录时,是需要记录对应的partition的offset,而这些state数据在计算过程中会进行持久化的。state就变成了与时间相关的是对flink任务内部数据的快照。
由于流计算大多数场景下都是增量计算的,数据逐条被处理,每次当前结果都是基于上一次计算结果之上进行处理的,这也势必要将上一次的计算结果进行存储持久化,无论是机器,网络,脏数据等原因导致的程序错误,都能在job进行任务恢复时提供支持。基于这些已被持久化的state,而非将历史的数据重新计算一遍。
在flink内部提供三种state存储实现
- 内存HeapStateBackend:存放数据量小,用于开发测试使用;生产不建议使用
- HDFS的FsStateBackend :分布式文件持久化,每次都会产生网络io,可用于大state,不支持增量;可用于生产
- RocksDB的RocksDBStateBackend:本地文件 + 异步hdfs持久化,也可用于大state数据量,唯一支持增量,可用于生产;
比如使用RocksDB + HDFS进行state存储:首先state先在本地存储到RocksDB,然后异步写入到HDFS中,这样可以突破HeapStateBackend受单节点资源限制(物理内存,机器故障数据丢失等),也减少了分布式过程写入带来的网络io开销。
(state详情)https://ci.apache.org/projects/flink/flink-docs-release-1.8/dev/stream/state/state.html
三。operator state与keyedstate相关
3.1 state 分类
从operator和data两个角度可将state划分为2类
- KeyedState:一般groupby或PartitionBy组成的内容,即为key,每个key都有自己的state,并且key与key间的state是不可见的
- OperatorState:Source Connector的实现中就会用OperatorState来记录source数据读取的offset。
3.2 state扩容重新分配
在flink中每一个并行运算操作实例就是一个独立的任务,可以在机器上调度到网络中其他的机器;并且flink能够进行大规模的有状态流处理,在逻辑上将这些分割成不同operator graph,同时operator也将被物理分解成多个操作实例。在flink的DAG图中随着data流向,垂直方向存在网络io,而水平方向的stateful节点间是没有网络通信的,这样每个operator维护一份自己本地的state,并保存在本地磁盘。
比如source有5个partition,将source并行度1->2,中间stateful operator并行度2->3,结果如下图:
分析结果如下:在flink中不同的state有不同的扩容方法
- 关于operatorstate的扩容
这种state分配结合operator对应并行度parallelism有关联,比如FlinkKafkaConsumerBase的定义
public abstract class FlinkKafkaConsumerBase extends RichParallelSourceFunction implements
CheckpointListener,
ResultTypeQueryable,
CheckpointedFunction
看到在代码内部使用ListState:ListState
@PublicEvolving
public interface ListState extends MergingState> {
void update(List values) throws Exception;
void addAll(List values) throws Exception;
}
通过源码可以看到ListState具体定义,T是Tuple2
当source并行度=1,代表所有的partition都在同一个线程中读取,对应所有的partition的state也在同一个state维护:如下图
当把source并行度=2,对应的operator并行度=3,先看下parition与subtask之间的映射方法:
首先根据topic的hash值得到当前的index开始点,进行对齐,接着对当前operator的subtasks进行取模,得到的结果即为当前partition分配的subtask的index
public static int assign(KafkaTopicPartition partition, int numParallelSubtasks) {
int startIndex = ((partition.getTopic().hashCode() * 31) & 0x7FFFFFFF) % numParallelSubtasks;
// here, the assumption is that the id of Kafka partitions are always ascending
// starting from 0, and therefore can be used directly as the offset clockwise from the start index
return (startIndex + partition.getPartition()) % numParallelSubtasks;
}
可以发现通过Operator使用List
- KeyedState扩容处理
在flink相对OperatorState的大小来说,KeyedState还是比较大的,如果采用OperatorState进行取模方式可能会带来网络拉取的成本较大,flink直接采用key-Groups(类似range的方式分配)
1.Key-Groups:flink对keyedstate按照key进行分组的方式,每个key-group会包含N>0个key,是keystate分配的原子单元,在flink使用KeyGroupRange代表一个key-group。
public class KeyGroupRange implements KeyGroupsList, Serializable {
...
...
private final int startKeyGroup;
private final int endKeyGroup;
...
...
}
在KeyGroupRange中:startKeyGroup和endKeyGroup用来定义Operator关联的Key-Group个数。
不过参考flink源码可看到key-group在job启动之前对应的数量是需要确定并且运行中是不可变的。本身Operator的最大并行度<= key-group个数,每个Operator实例都会有自己的state,每个state关联至少一个key-group
...
public static int assignToKeyGroup(Object key, int maxParallelism) {
return computeKeyGroupForKeyHash(key.hashCode(), maxParallelism);
}
...
...
public static int computeKeyGroupForKeyHash(int keyHash, int maxParallelism) {
return MathUtils.murmurHash(keyHash) % maxParallelism;
}
...
其实从分配key到key-group利用key的hash值与maxParallelism进行取模来完成的。比如parallelism=2 maxParallelism=10
如上图比如key=a对应hash(a)=97, hash(a) % 10 = 7则分配到KG-7,其他的以此类推。
flink源码中针对分配到key-group的操作如下:
public static KeyGroupRange computeKeyGroupRangeForOperatorIndex(
int maxParallelism,
int parallelism,
int operatorIndex) {
checkParallelismPreconditions(parallelism);
checkParallelismPreconditions(maxParallelism);
Preconditions.checkArgument(maxParallelism >= parallelism,
"Maximum parallelism must not be smaller than parallelism.");
// 当前operator实例
int start = ((operatorIndex * maxParallelism + parallelism - 1) / parallelism);
// 当前operator下一个实例的位置
int end = ((operatorIndex + 1) * maxParallelism - 1) / parallelism;
return new KeyGroupRange(start, end);
}
如上代码就是用于将operator(已指定parallelism和maxparallelism)对应的key-groups进行分配,计算当前keygroup的start,end:先计算每个Operator实例至少分配的Key-Group个数,将不能整除的部分N个,平均分给前N个实例。最终每个Operator实例管理的Key-Groups会在GroupRange中表示,本质是一个区间值;实例图如下:
1.当parallelism=2时可得到KeyGroupRange:
operatorIndex=0,则得到start=0, end=4:如图kg-keys:0,1,2,3,4
operatorIndex=1,则得到start=5,end=9:如图kg-keys:5,6,7,8,9
2.当parallelism=3时可得到KeyGroupRange:
operatorIndex=0,则得到start=0, end=3:如图kg-keys:0,1,2,3
operatorIndex=1,则得到start=4,end=6:如图kg-keys:4,5,6
operatorIndex=2,则得到start=7, end=9:如图kg-keys:7,8,9
一旦当job修改了maxParallelism的值那么会直接影响到Key-Groups的数量和key的分配,也会打乱所有的Key-Group的分配,目前在Apache Flink系统中统一将maxParallelism的默认值调整到4096,最大程度的避免无法扩容的情况发生。