窗口概述
streaming 流式计算是一种被设计用于处理无限数据集的数据处理引擎,而无限数据集是指一种不断增长的本质上无限的数据集,而 window 是一种切割无限数据为有限块进行处理的手段。Window 是无限数据流处理的核心,Window 将一个无限的 stream 拆分成有限大小的”buckets”桶,我们可以在这些桶上做计算操作。
注意:window窗口本质是一个bucket桶,数据每来一条,就将数据放入其所属的桶内
如上图所示,对于流式数据,数据1属于窗口7点到8点,那么当数据来临时,就会进入7点到8点的桶,正是因为这种结构,才为后面的乱序数据的处理提供了可能。
窗口类型
CountWindow
按照指定的数据条数生成一个 Window,与时间无关。
TimeWindow
按照时间生成 Window。
滚动窗口(Tumbling Windows)
将数据依据固定的窗口长度对数据进行切片。其特点是:时间对齐,窗口长度固定,没有重叠。滚动窗口分配器将每个元素分配到一个指定窗口大小的窗口中,滚动窗口有一个固定的大小,并且不会出现重叠。其主要适用于做每个时间段的聚合统计。
- 滑动窗口(Sliding Windows)
滑动窗口是固定窗口的更广义的一种形式,滑动窗口由固定的窗口长度和滑动间隔组成。其特点是:时间对齐,窗口长度固定,可以有重叠。滑动窗口分配器将元素分配到固定长度的窗口中,与滚动窗口类似,窗口的大小由窗口大小参数来配置,另一个窗口滑动参数控制滑动窗口开始的频率。因此,滑动窗口如果滑动参数小于窗口大小的话,窗口是可以重叠的,在这种情况下元素会被分配到多个窗口中。其使用场景为对最近一个时间段内的统计,如每5分钟统计最近10分钟某件事发生的次数。
- 会话窗口(Session Windows)
由一系列事件组合一个指定时间长度的 timeout 间隙组成,类似于 web 应用的session,也就是一段时间没有接收到新数据就会生成新的窗口。session 窗口分配器通过 session 活动来对元素进行分组,session 窗口跟滚动窗口和滑动窗口相比,不会有重叠和固定的开始时间和结束时间的情况,相反,当它在一个固定的时间周期内不再收到元素,即非活动间隔产生,那个这个窗口就会关闭。一个 session 窗口通过一个 session 间隔来配置,这个 session 间隔定义了非活跃周期的长度,当这个非活跃周期产生,那么当前的 session 将关闭并且后续的元素将被分配到新的 session 窗口中去。
```java
sensorStream
/**
* 开窗操作,可以直接使用window(),也可以使用timeWindow或者countWindow
*
* */
.keyBy("id")
//.window(TumblingEventTimeWindows.of(Time.seconds(10)))
//.window(SlidingProcessingTimeWindows.of(Time.seconds(10),Time.seconds(5)))
//.countWindow(100)
.timeWindow(Time.seconds(10));
```
TimeWindow 是将指定时间范围内的所有数据组成一个 window,一次对一个window 里面的所有数据进行计算。
TimeWindow
滚动窗口
Flink 默认的时间窗口根据 Processing Time 进行窗口的划分,将 Flink 获取到的数据根据进入 Flink 的时间划分到不同的窗口中。
滑动窗口
滑动窗口和滚动窗口的函数名是完全一致的,只是在传参数时需要传入两个参数,一个是 window_size,一个是 sliding_size。
会话窗口
会话窗口的gap由session window中的最小的window gap来决定
CountWindow
CountWindow 根据窗口中相同 key 元素的数量来触发执行,执行时只计算元素数量达到窗口大小的 key 对应的结果。注意:CountWindow 的 window_size 指的是相同 Key 的元素的个数,不是输入的所有元素的总数。
滚动窗口
默认的 CountWindow 是一个滚动窗口,只需要指定窗口大小即可,当元素数量达到窗口大小时,就会触发窗口的执行。
滑动窗口
滑动窗口和滚动窗口的函数名是完全一致的,只是在传参数时需要传入两个参数,一个是 window_size,一个是 sliding_size。
package window;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.assigners.ProcessingTimeSessionWindows;
import org.apache.flink.streaming.api.windowing.time.Time;
import pojo.SensorReading;
/**
* @author wangkai
* @date 2021/6/24 15:06
*/
public class TumbleWindow {
public static void main(String[] args) throws Exception{
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setParallelism(1);
DataStreamSource<String> source = env.socketTextStream("10.204.51.45", 7777);
SingleOutputStreamOperator<SensorReading> sensorStream = source.map(line -> {
String[] split = line.split(",");
return new SensorReading(split[0], new Long(split[1]), new Double(split[2]));
});
/**
* 滚动窗口
* */
SingleOutputStreamOperator<SensorReading> tumbleTemperature = sensorStream
.keyBy(data -> data.getId())
.timeWindow(Time.seconds(10))
.minBy("temperature");
tumbleTemperature.print("tumbling window");
SingleOutputStreamOperator<SensorReading> slidTemperature = sensorStream
.keyBy(data -> data.getId())
.timeWindow(Time.seconds(10), Time.seconds(5))
.minBy("temperature");
slidTemperature.print("sliding window");
SingleOutputStreamOperator<SensorReading> sessionTemperature = sensorStream
.keyBy(data -> data.getId())
.window(ProcessingTimeSessionWindows.withGap(Time.seconds(10)))
.minBy("temperature");
sessionTemperature.print("session temperature");
env.execute("window api");
}
}
WindowFunction
window function 定义了要对窗口中收集的数据做的计算操作,主要可以分为两类:
- 增量聚合函数
每条数据到来就进行计算,保持一个简单的状态。典型的增量聚合函数有 ReduceFunction, AggregateFunction。
- 全窗口函数
先把窗口所有数据收集起来,等到计算的时候会遍历所有数据。ProcessWindowFunction 就是一个全窗口函数
```java
package window;
import org.apache.commons.collections.IteratorUtils;
import org.apache.flink.api.common.functions.AggregateFunction;
import org.apache.flink.api.java.tuple.Tuple;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
import org.apache.flink.util.Collector;
import pojo.SensorReading;
/**
* @author wangkai
* @date 2021/6/24 15:52
*/
public class WindowFunction {
public static void main(String[] args) throws Exception{
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setParallelism(1);
DataStreamSource source = env.socketTextStream("10.204.51.45", 7777);
SingleOutputStreamOperator sensorStream = source.map(line -> {
String[] split = line.split(",");
return new SensorReading(split[0], new Long(split[1]), new Double(split[2]));
});
/**
* 增量聚合函数
* */
SingleOutputStreamOperator aggFunction = sensorStream
.keyBy("id")
.timeWindow(Time.seconds(10))
.aggregate(new AggregateFunction() {
@Override
public Integer createAccumulator() {
return 0;
}
@Override
public Integer add(SensorReading value, Integer accumulator) {
return accumulator + 1;
}
@Override
public Integer getResult(Integer accumulator) {
return accumulator;
}
@Override
public Integer merge(Integer a, Integer b) {
return a + b;
}
});
aggFunction.print("agg window ");
/**
* 全窗口函数
* */
SingleOutputStreamOperator> allWindowFunction = sensorStream
.keyBy("id")
.timeWindow(Time.seconds(10))
/* .process(new ProcessWindowFunction() {
})*/
.apply(new org.apache.flink.streaming.api.functions.windowing.WindowFunction, Tuple, TimeWindow>() {
@Override
public void apply(Tuple tuple, TimeWindow window, Iterable input, Collector> out) throws Exception {
String field = tuple.getField(0);
long end = window.getEnd();
int size = IteratorUtils.toList(input.iterator()).size();
out.collect(new Tuple3<>(field, end, size));
}
});
/* sensorStream
.keyBy("id")
.timeWindow(Time.seconds(10))
.process(new ProcessWindowFunction, Tuple, TimeWindow>() {
@Override
public void process(Tuple tuple, Context context, Iterable elements, Collector> out) throws Exception {
}
});*/
env.execute("agg window");
}
}
```
Other API
.trigger() —— 触发器,定义 window 什么时候关闭,触发计算并输出结果
.evitor() —— 移除器,定义移除某些数据的逻辑
.allowedLateness() —— 允许处理迟到的数据
.sideOutputLateData() —— 将迟到的数据放入侧输出流
.getSideOutput() —— 获取侧输出流
package window;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.util.OutputTag;
import pojo.SensorReading;
/**
* @author wangkai
* @date 2021/6/24 16:58
*/
public class OtherApi {
public static void main(String[] args) throws Exception{
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setParallelism(1);
DataStreamSource<String> source = env.socketTextStream("10.204.51.45", 7777);
SingleOutputStreamOperator<SensorReading> sensorStream = source.map(line -> {
String[] split = line.split(",");
return new SensorReading(split[0], new Long(split[1]), new Double(split[2]));
});
OutputTag<SensorReading> outputTag = new OutputTag<SensorReading>("late") {
};
SingleOutputStreamOperator<SensorReading> sumStream = sensorStream.keyBy("id")
.timeWindow(Time.seconds(15))
// .trigger()
// .evictor()
.allowedLateness(Time.seconds(5))
.sideOutputLateData(outputTag)
.sum("temperature");
sumStream.getSideOutput(outputTag).print("late");
env.execute();
}
}