这些发布说明讨论了在 Flink 1.11 和 Flink 1.12 之间发生变化的重要方面,比如配置、行为或依赖关系。如果您计划将 Flink 版本升级到 1.12,请仔细阅读这些说明。
不建议使用的方法和无效的方法已删除:ExecutionConfig#enable / disableSysoutLogging,ExecutionConfig#set / isFailTaskOnCheckpointError。
从 cli 中移除 -q 标志。该选项没有任何效果。
已弃用的方法 RuntimeContext#getAllAccumulators 被删除。请使用 RuntimeContext#getAccumulator 代替。
CheckpointConfig# setpreferencecheckpointforrecovery 方法已经不推荐使用了,因为对于恢复来说,宁愿使用较旧的检查点而不使用较新的保存点可能会导致数据丢失。
允许在KeyedStream.intervalJoin() FLINK-19479[4] 上显式配置时间行为
在 Flink 1.12 之前,KeyedStream.intervalJoin()操作基于全局设置的 Stream TimeCharacteristic 更改行为。在 Flink 1.12 中,我们在 IntervalJoin 上引入了显式的 inProcessingTime()和inEventTime()方法,并且连接不再基于全局特性更改行为。
弃用 DataStream API FLINK-19318 中的 timeWindow()操作
在 Flink 1.12 中,我们弃用了 DataStream API 中的 timeWindow()操作。请将window(WindowAssigner)与 TumblingEventTimeWindows,SlidingEventTimeWindows,TumblingProcessingTimeWindows 或 SlidingProcessingTimeWindows 一起使用。有关更多信息,请参见 TimeCharacteristic / setStreamTimeCharacteristic 的弃用说明。
弃用 StreamExecutionEnvironment.setStreamTimeCharacteristic()和 TimeCharacteristic FLINK-19319
在 Flink 1.12 中,默认的流时间特征已更改为 EventTime,因此您不再需要调用此方法来启用事件时间支持。明确使用处理时间窗口和计时器可以在事件时间模式下使用。如果需要禁用水印,请使用 ExecutionConfig.setAutoWatermarkInterval(long)。如果您使用的是 IngestionTime,请手动设置适当的WatermarkStrategy。如果您使用基于时间特征更改行为的通用“时间窗口”操作(例如KeyedStream.timeWindow()),请使用等效操作明确指定处理时间或事件时间。
允许在 CEP PatternStream FLINK-19326 上显式配置时间行为
在 Flink 1.12 之前,CEP 操作正在基于全局设置的 Stream TimeCharacteristic 更改其行为。在 Flink 1.12 中,我们在 PatternStream 上引入了显式的inProcessingTime()和 inEventTime()方法,并且 CEP 操作不再根据全局特性更改其行为。
Remove remaining UdfAnalyzer configurations FLINK-13857[5]
删除了 ExecutionConfig#get / setCodeAnalysisMode 方法和 SkipCodeAnalysis 类。即使在更改之前它们也没有作用,因此不需要使用其中任何一种。
Remove deprecated DataStream#split
FLINK-19083[6]
DataStream#split() 操作在几个版本中被标记为 deprecated 后被删除。请使用 Side Outputs[7]) 来替代.
Remove deprecated DataStream#fold()
method and all related classes FLINK-19035[8]
在 1.12 中删除了过期很长时间的(开窗的) DataStream#fold。请使用其他在分布式系统中性能更好的操作,例如(开窗) DataStream#reduce。
不推荐使用 CompositeTypeSerializerSnapshot 类上的 boolean isOuterSnapshotCompatible(TypeSerializer),而推荐使用新的 OuterSchemaCompatibility#resolveOuterSchemaCompatibility(TypeSerializer)方法。请改为实施。与旧方法相比,新方法允许复合序列化器基于外部模式和配置发出状态模式迁移的信号。
Flink 现在依赖于 Scala 宏 2.1.1。这意味着我们不再支持 Scala < 2.11.11。
用于聚合函数的 CREATE 函数 DDL 现在使用了新的类型推断。可能需要将现有的实现更新为新的反射类型提取逻辑。使用 StreamTableEnvironment。旧堆栈的registerFunction。
术语元数据现在是一个保留的关键字。使用反引号来转义列名和具有此名称的其他标识符。
可能需要将使用 COLLECT 函数的 SQL 查询更新为新的类型系统。
在 Flink 1.12 中,我们删除了 Kafka 0.10。0.11 x 和。x 连接器。请使用 universal Kafka 连接器,该连接器适用于 0.10.2.x 之后的任何 Kafka 集群版本。
请参阅文档以了解如何升级Flink Kafka连接器版本。
csv。行分隔符选项已从 CSV 格式中删除。因为行分隔符应该由连接器定义,而不是由格式定义。如果用户在以前的 Flink 版本中使用过这个选项,那么当升级到Flink 1.12 时,他们应该修改这个表来删除这个选项。应该不会有太多用户使用这个选项。
flink-avro- conflu- schema-registry 模块不再作为 fat-jar 提供。你应该把它的依赖包括在你的工作的脂肪罐里。sql 客户机用户可以使用 flink-sql-avro- conflu- schema-registry fat jar。
flink-avro 模块中的默认 Avro 版本升级到 1.10。如果出于某种原因,您需要一个较老的版本(您有来自 Hadoop 的 Avro,或者您使用从较老的Avro版本生成的类),请显式降级您的项目中的Avro版本。
注意:与 1.8.2 相比,我们发现 Avro 1.10 版本的性能有所下降。如果您担心性能,并且可以使用较旧版本的 Avro,请考虑降级 Avro。
SQL 客户端 jar 被重命名为 flink-sql-avro-1.12.0。jar, 先前 flink-avro-1.12.0-sql-jar.jar。此外,不再需要手动添加 Avro 依赖项。
默认的 log4j 配置已更改:除了在 Flink 启动时现有的日志文件滚动外,它们在达到 100MB 大小时也会滚动。Flink 总共保留 10 个日志文件,从而有效地将日志目录的总大小限制为 1GB(每个Flink服务记录到该目录)。
在 Flink 的 docker 映像中,将 jemalloc 用作默认的内存分配器,以减少内存碎片问题。用户可以通过将“ disable-jemalloc”标志传递给 docker-entrypoint.sh 脚本来回滚使用 glibc。有关更多详细信息,请参阅 Docker 文档上的 Flink。
Mesos 依赖已经从 1.0.1 升级到 1.7.0。
在 Flink 1.12 中,我们改变了独立脚本的行为,如果 SIGTERM 未能成功关闭Flink进程,则会发出一个 SIGKILL。
提交作业的语义略有变化。提交调用几乎立即返回,作业处于新的初始化状态。当作业处于该状态时,诸如触发保存点或检索完整作业详细信息等操作不可用。
创建了该作业的 JobManager 后,该作业就处于创建状态,所有调用都可用。
python.fn-execution.buffer.memory.size 和 python.fn-execution.framework.memory.size 的配置已删除,因此不再生效。此外,python.fn-execution.memory.managed 的默认值已更改为 true,因此默认情况下将为 Python worker 使用托管内存。如果在批处理流或内置批处理算法中将 Python UDF 与 RocksDB 状态后端一起使用,用户可以通过覆盖来控制数据处理(RocksDB 状态后端或批处理算法)和 Python 之间应如何共享托管内存。管理的内存使用者权重。
从 Flink 1.12 开始,将以管道区域为单位计划作业。流水线区域是一组流水线连接的任务。这意味着,对于包含多个区域的流作业,它不再等待开始部署任务之前等待所有任务获取插槽。取而代之的是,一旦任何区域获得了足够的任务插槽就可以部署它。对于批处理作业,将不会为任务分配插槽,也不会单独部署任务。取而代之的是,一旦某个区域获得了足够的插槽,则该任务将与所有其他任务一起部署在同一区域中。
旧的调度器可以被使用通过配置: jobmanager.scheduler.scheduling-strategy: legacy
setting.
[1]
FLINK-19084: https://issues.apache.org/jira/browse/FLINK-19084[2]
FLINK-19032: https://issues.apache.org/jira/browse/FLINK-19032[3]
FLINK-20441: https://issues.apache.org/jira/browse/FLINK-20441[4]
FLINK-19479: https://issues.apache.org/jira/browse/FLINK-19479[5]
FLINK-13857: https://issues.apache.org/jira/browse/FLINK-13857[6]
FLINK-19083: https://issues.apache.org/jira/browse/FLINK-19083[7]
Side Outputs: https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/stream/side_output.html[8]
FLINK-19035: https://issues.apache.org/jira/browse/FLINK-19035[9]
FLINK-17520: https://issues.apache.org/jira/browse/FLINK-17520[10]
FLINK-19278: https://issues.apache.org/jira/browse/FLINK-19278[11]
FLINK-18901: https://issues.apache.org/jira/browse/FLINK-18901[12]
FLINK-19273: https://issues.apache.org/jira/browse/FLINK-19273[13]
FLINK-18809: https://issues.apache.org/jira/browse/FLINK-18809[14]
FLINK-19152: https://issues.apache.org/jira/browse/FLINK-19152[15]
FLINK-19868: https://issues.apache.org/jira/browse/FLINK-19868[16]
FLINK-18546: https://issues.apache.org/jira/browse/FLINK-18546[17]
FLINK-18192: https://issues.apache.org/jira/browse/FLINK-18192[18]
FLINK-18802: https://issues.apache.org/jira/browse/FLINK-18802[19]
FLINK-8357: https://issues.apache.org/jira/browse/FLINK-8357[20]
FLINK-19125: https://issues.apache.org/jira/browse/FLINK-19125[21]
FLINK-19783: https://issues.apache.org/jira/browse/FLINK-19783[22]
FLINK-17470: https://issues.apache.org/jira/browse/FLINK-17470[23]
FLINK-16866: https://issues.apache.org/jira/browse/FLINK-16866[24]
FLINK-16430: https://issues.apache.org/jira/browse/FLINK-16430
更多spark和flink的内容可以关注下面的公众号