重磅消息Apache Flink 1.9.0隆重发布

我还在沉迷于Flink的任务如何去开发,突然传来了一个好消息,那就是我们Flink 1.9.0版本发布了。

看看都是有什么新的变化,Apache Flink 1.9.0发布公告如下:

       2019年8月22日Apache Flink社区自豪地宣布了Apache Flink 1.9.0的发布。Apache Flink项目的目标是开发一个流处理系统来统一和支持多种形式的实时和离线数据处理应用程序以及事件驱动的应用程序。在这个版本中,通过在一个统一的运行时下集成Flink的流和批处理功能,我们在这方面向前迈出了一大步。此路径上的重要特性是批处理作业的批处理风格恢复,以及针对表API和SQL查询的基于blink的新查询引擎的预览。我们还激动地宣布State Processor API的可用性,它是最常被请求的特性之一,允许用户使用Flink DataSet作业读写保存点。最后,Flink 1.9包含了一个重新构建的WebUI,并预览了Flink的新Python表API及其与Apache Hive生态系统的集成。这篇博客文章描述了所有主要的新特性和改进,需要注意的重要变化以及未来的发展方向。有关更多细节,请查看完整的版本更改日志。这个版本的二进制发行版和源代码现在可以通过Flink项目的下载页面以及更新的文档获得。Flink 1.9与之前的1.X兼容api。

        

                下面开始我的出场了,什么也不说,直接用行动表达出来

细粒度批处理恢复(FLIP-1)

        从任务失败中恢复批处理作业(数据集、表API和SQL)的时间显著减少。在Flink 1.9之前,通过取消所有任务并重新启动整个作业来恢复批作业中的任务失败。这项工作是从零开始的,所有的进步都付诸东流。有了这个版本,Flink可以配置为将恢复限制在同一故障转移区域中的那些任务。故障转移区域是通过管道数据交换连接的一组任务。因此,作业的批处理洗牌连接定义了其故障转移区域的边界。更多细节可以在FLIP-1中找到。

        要使用这种新的故障转移策略,您需要执行以下设置:确保您拥有条目jobmanager.execution。故障转移策略:在您的flink-conf.yaml中定位。

        注意:默认情况下,1.9发行版的配置中有这个条目,但是当重用以前设置的配置文件时,您必须手动添加它。此外,您需要在ExecutionConfig中设置批处理作业的ExecutionMode to batch,以配置数据转移不是流水线的,并且作业具有多个故障转移区域。“区域”故障转移策略还改进了“令人尴尬的并行”流作业的恢复,即,没有任何像keyBy()或重新平衡这样的混乱。当恢复这样的作业时,只重新启动受影响管道(故障转移区域)的任务。对于所有其他流作业,恢复行为与之前的Flink版本相同。

状态处理器API (FLIP-43)

        在Flink 1.9之前,从外部访问作业的状态仅限于(仍然)实验性的可查询状态。该版本引入了一个新的功能强大的库,可以使用batch DataSet API读取、写入和修改状态快照。实际上,这意味着:

        1:Flink作业状态可以通过从外部系统(如外部数据库)读取数据并将其转换为保存点来引导。

        2:可以使用任何Flink的批处理api (DataSet、Table、SQL)查询保存点中的状态,例如分析相关的状态模式,或者检查状态中的差异,以支持应用程序审计或故障排除。

        3:与之前需要在模式访问上进行在线迁移的方法相比,保存点中的状态模式可以离线迁移。

        4:可以识别和纠正保存点中的无效数据。

        新的状态处理器API涵盖快照的所有变体:保存点、完整检查点和增量检查点。更多细节可以在FLIP-43中找到

Stop-with-Savepoint (FLIP-34)

        使用保存点取消是停止/重新启动、分叉或更新Flink作业的常见操作。然而,现有的实现并不能保证对外部存储系统的输出持久性(只针对一次接收)。为了改进停止作业时的端到端语义,Flink 1.9引入了一种新的挂起模式来停止具有与发出的数据一致的保存点的作业。你可以暂停与Flink的CLI客户端的作业如下:

bin/flink stop -p [:targetDirectory] :jobId

成功时将最终作业状态设置为FINISHED,允许用户检测所请求操作的故障。

更多细节可以在FLIP-34中找到

 

Flink WebUI

        在讨论了Flink的WebUI内部的现代化之后,这个组件使用Angular的最新稳定版本进行了重构——基本上是Angular 1的一个改进。x 7. x。重新设计的版本是1.9.0中的默认版本,但是有一个链接可以切换到旧的WebUI。

注意:继续前进,WebUI老版本的功能奇偶性将不会得到保证。

预览新的Blink SQL查询处理器

        在Blink捐赠给Apache Flink之后,社区致力于集成Blink的查询优化器和表API和SQL的运行时。作为第一步,我们将整体的燧石表模块重构为更小的模块(FLIP-32)。这导致了Java和Scala API模块、优化器模块和运行时模块之间的清晰分离和定义良好的接口。

        接下来,我们扩展Blink的planner来实现新的优化器接口,这样现在就有两个可插入的查询处理器来执行表API和SQL语句:pre-1.9 Flink处理器和新的基于Blink的查询处理器。Blink-based查询处理器提供了更好的SQL覆盖率(tpc - h覆盖率1.9,TPC-DS覆盖计划为下一个版本),对批量查询的性能改善的结果更广泛的查询优化(基于成本的方案选择和优化规则),改进的代码生成和优化算子的实现。基于blink的查询处理器还提供了更强大的流运行器,提供了一些新特性(例如维度表连接、TopN、重复数据删除)和优化,以解决聚合中的数据倾斜问题,并提供了更有用的内置函数。

注意:查询处理器的语义和支持的操作集大部分是一致的,但没有完全对齐。

        然而,Blink查询处理器的集成还没有完全完成。因此,pre-1.9 Flink处理器仍然是Flink 1.9中的默认处理器,建议用于生产设置。在创建一个TableEnvironment时,您可以通过环境设置来配置Blink处理器,从而启用它。所选处理器必须位于正在执行的Java进程的类路径上。对于集群设置,这两个查询处理器都使用默认配置自动加载。当从IDE运行查询时,您需要显式地向项目添加一个planner依赖项。

Other Improvements to the Table API and SQL

除了Blink planner令人兴奋的进展外,社区还对这些接口进行了一系列其他改进,包括:

        1:面向Java用户的无scala表API和SQL (FLIP-32)

作为flink-table模块重构和拆分的一部分,创建了两个用于Java和Scala的独立API模块。对于Scala用户,实际上没有什么变化,但是Java用户现在可以使用表API和/或SQL,而不需要引入Scala依赖项。

        2:表API类型系统的重做(FLIP-37)

社区实现了一个新的数据类型系统,将表API从Flink的TypeInformation类中分离出来,并提高其对SQL标准的遵从性。这项工作仍在进行中,预计将在下一个版本中完成。在Flink 1.9中,udf和其他一些东西还没有移植到新的类型系统中。

        3:表API的多列和多行转换(FLIP-29)

表API的功能通过一组支持多行和/或多列输入和输出的转换进行了扩展。这些转换极大地简化了处理逻辑的实现,而使用关系操作符实现这些逻辑将非常麻烦。

        4:新的统一目录api (FLIP-30)

我们重新编写了catalog api来存储元数据,并统一了内部和外部编目的处理。这项工作主要是作为Hive集成的先决条件启动的(见下文),但它提高了在Flink中管理目录元数据的总体便利性。除了改进catalog接口之外,我们还扩展了它们的功能。以前用于表API或SQL查询的表定义是不稳定的。使用Flink 1.9,用SQL DDL语句注册的表的元数据可以保存在目录中。这意味着您可以将一个由Kafka主题支持的表添加到一个Metastore目录中,然后在目录连接到Metastore时查询这个表。

        5:SQL API中的DDL支持(FLINK-10232)

到目前为止,Flink SQL只支持DML语句(例如SELECT、INSERT)。外部表(表源和表接收器)必须通过Java/Scala代码或配置文件注册。对于1.9,我们添加了对SQL DDL语句的支持,以注册和删除表和视图(创建表、删除表)。但是,我们还没有添加stream-specific的语法扩展来定义时间戳提取和水印生成。计划在下一个版本中全面支持流用例。

HIVE成预览(FLINK-10556)

        Apache Hive在Hadoop的生态系统中被广泛地用于存储和查询大量的结构化数据。除了是一个查询处理器,Hive还提供一个名为Metastore的目录来管理和组织大型数据集。查询处理器的一个常见集成点是与Hive的Metastore集成,以便能够访问Hive管理的数据。

        最近,社区开始为Flink的表API和SQL实现一个外部目录,该目录连接到Hive的Metastore。在Flink 1.9中,用户将能够查询和处理存储在Hive中的所有数据。如前所述,您还将能够在Metastore中持久存储Flink表的元数据。此外,Hive集成还支持在Flink表API或SQL查询中使用Hive的udf。更多细节请参阅FLINK-10556。

        虽然以前,表API或SQL查询的表定义总是不稳定的,但是新的catalog连接器还允许将用SQL DDL语句创建的表持久化到Metastore中(见上文)。这意味着您要连接到Metastore并注册一个表,例如,由Kafka主题支持的表。从现在开始,只要目录连接到Metastore,就可以查询该表。

请注意,Flink 1.9中的Hive支持是实验性的。我们计划在下一个版本中稳定这些特性,并期待您的反馈。

新的Python表API预览(FLIP-38)

        这个版本还引入了Python表API的第一个版本(FLIP-38)。这标志着我们朝着将成熟的Python支持引入Flink的目标迈进了一步。该特性被设计为一个围绕表API的轻量Python API包装器,基本上将Python表API方法调用转换为Java表API调用。在Flink 1.9附带的最初版本中,Python表API还不支持udf,只支持标准的关系操作。Python中实现的对udf的支持是未来版本的路线图。

如果您想尝试新的Python API,您必须手动安装PyFlink。从那里,您可以查看此演练或自己探索它。社区目前正在准备一个pyflink Python包,可以通过pip安装。

重要的变化

      1:表API和SQL现在是Flink发行版的默认配置的一部分。以前,必须通过将对应的JAR文件从./opt移动到./lib来启用表API和SQL。

       2:机器学习库(flink-ml)已被删除,以准备FLIP-39。

      3:旧的DataSet和DataStream Python api已被删除,取而代之的是FLIP-38。

      4: Flink可以在Java 9上编译和运行。注意,与外部系统(连接器、文件系统、记者)交互的某些组件可能无法工作,因为各自的项目可能跳过了Java 9支持。

List of Contributors

We would like to thank all contributors who have made this release possible:

Abdul Qadeer (abqadeer), Aitozi, Alberto Romero, Aleksey Pak, Alexander Fedulov, Alice Yan, Aljoscha Krettek, Aloys, Andrew Duffy, Andrey Zagrebin, Ankur, Artsem Semianenka, Benchao Li, Biao Liu, Bo WANG, Bowen L, Chesnay Schepler, Clark Yang, Congxian Qiu, Cristian, Danny Chan, David Moravek, Dawid Wysakowicz, Dian Fu, EronWright, Fabian Hueske, Fabio Lombardelli, Fokko Driesprong, Gao Yun, Gary Yao, Gen Luo, Gyula Fora, Hequn Cheng, Hongtao Zhang, Huang Xingbo, HuangXingBo, Hugo Da Cruz Louro, Humberto Rodríguez A, Hwanju Kim, Igal Shilman, Jamie Grier, Jark Wu, Jason, Jasper Yue, Jeff Zhang, Jiangjie (Becket) Qin, Jiezhi.G, Jincheng Sun, Jing Zhang, Jingsong Lee, Juan Gentile, Jungtaek Lim, Kailash Dayanand, Kevin Bohinski, Konstantin Knauf, Konstantinos Papadopoulos, Kostas Kloudas, Kurt Young, Lakshmi, Lakshmi Gururaja Rao, Leeviiii, LouisXu, Maximilian Michels, Nico Kruber, Niels Basjes, Paul Lam, PengFei Li, Peter Huang, Pierre Zemb, Piotr Nowojski, Piyush Narang, Richard Deurwaarder, Robert Metzger, Robert Stoll, Romano Vacca, Rong Rong, Rui Li, Ryantaocer, Scott Mitchell, Seth Wiesman, Shannon Carey, Shimin Yang, Stefan Richter, Stephan Ewen, Stephen Connolly, Steven Wu, SuXingLee, TANG Wen-hui, Thomas Weise, Till Rohrmann, Timo Walther, Tom Goong, TsReaper, Tzu-Li (Gordon) Tai, Ufuk Celebi, Victor Wong, WangHengwei, Wei Zhong, WeiZhong94, Xintong Song, Xpray, XuQianJin-Stars, Xuefu Zhang, Xupingyong, Yangze Guo, Yu Li, Yun Gao, Yun Tang, Zhanchun Zhang, Zhenghua Gao, Zhijiang, Zhu Zhu, Zili Chen, aloys, arganzheng, azagrebin, bd2019us, beyond1920, biao.liub, blueszheng, boshu Zheng, chenqi, chummyhe89, chunpinghe, dcadmin, dianfu, godfrey he, guanghui01.rong, hehuiyuan, hello, hequn8128, jackyyin, joongkeun.yang, klion26, lamber-ken, leesf, liguowei, lincoln-lil, liyafan82, luoqi, mans2singh, maqingxiang, maxin, mjl, okidogi, ozan, potseluev, qiangsi.lq, qiaoran, robbinli, shaoxuan-wang, shengqian.zhou, shenlang.sl, shuai-xu, sunhaibotb, tianchen, tianchen92, tison, tom_gong, vinoyang, vthinkxie, wanggeng3, wenhuitang, winifredtamg, xl38154, xuyang1706, yangfei5, yanghua, yuzhao.cyz, zhangxin516, zhangxinxing, zhaofaxian, zhijiang, zjuwangg, 林小铂, 黄培松, 时无两丶.


 

 

 

你可能感兴趣的:(flink)