Flink中Table API和SQL(五)

目录

11.8 SQL 客户端

11.9 连接到外部系统

11.9.1 Kafka

11.9.3 JDBC

11.9.4 Elasticsearch

11.9.5 HBase

11.9.6 Hive


11.8 SQL 客户端

有了 Table API 和 SQL,我们就可以使用熟悉的 SQL 来编写查询语句进行流处理了。不 过,这种方式还是将 SQL 语句嵌入到 Java/Scala 代码中进行的;另外,写完的代码后想要提 交作业还需要使用工具进行打包。这都给 Flink 的使用设置了门槛,如果不是 Java/Scala 程序 员,即使是非常熟悉 SQL 的工程师恐怕也会望而生畏了。

基于这样的考虑,Flink 为我们提供了一个工具来进行 Flink 程序的编写、测试和提交,这 工具叫作“SQL 客户端”。SQL 客户端提供了一个命令行交互界面(CLI),我们可以在里面非 常容易地编写 SQL 进行查询,就像使用 MySQL 一样;整个 Flink 应用编写、提交的过程全变 成了写 SQL,不需要写一行 Java/Scala 代码。

具体使用流程如下:

附:在flink目录下执行已下操作

(1)首先启动本地集群

./bin/start-cluster.sh 

(2)启动 Flink SQL 客户端

./bin/sql-client.sh 

SQL 客户端的启动脚本同样位于 Flink 的 bin 目录下。默认的启动模式是 embedded,也就 是说客户端是一个嵌入在本地的进程,这是目前唯一支持的模式。未来会支持连接到远程 SQL客户端的模式。

(3)设置运行模式

启动客户端后,就进入了命令行界面,这时就可以开始写 SQL 了。一般我们会在开始之 前对环境做一些设置,比较重要的就是运行模式。

首先是表环境的运行时模式,有流处理和批处理两个选项。默认为流处理:

Flink SQL> SET 'execution.runtime-mode' = 'streaming'; 

其次是 SQL 客户端的“执行结果模式”,主要有 table、changelog、tableau 三种,默认为table 模式:

Flink SQL> SET 'sql-client.execution.result-mode' = 'table';

table 模式就是最普通的表处理模式,结果会以逗号分隔每个字段;changelog 则是更新日 志模式,会在数据前加上“+”(表示插入)或“-”(表示撤回)的前缀;而 tableau 则是经典 的可视化表模式,结果会是一个虚线框的表格。

此外我们还可以做一些其它可选的设置,比如之前提到的空闲状态生存时间(TTL):

Flink SQL> SET 'table.exec.state.ttl' = '1000'; 

除了在命令行进行设置,我们也可以直接在 SQL 客户端的配置文件 sql-cli-defaults.yaml中进行各种配置,甚至还可以在这个 yaml 文件里预定义表、函数和 catalog。

(4)执行 SQL 查询

接下来就可以愉快的编写 SQL 语句了,这跟操作 MySQL、Oracle 等关系型数据库没什么 区别。

代码实现:

Flink SQL> CREATE TABLE EventTable( 
> user STRING, 
> url STRING, 
> `timestamp` BIGINT 
> ) WITH ( 
> 'connector' = 'filesystem', 
> 'path' = 'events.csv', 
> 'format' = 'csv' 
> ); 
 
Flink SQL> CREATE TABLE ResultTable ( 
> user STRING, 
> cnt BIGINT 
> ) WITH ( 
> 'connector' = 'print' 
> ); 
 
Flink SQL> INSERT INTO ResultTable SELECT user, COUNT(url) as cnt FROM EventTable 
 GROUP BY user; 

这里我们直接用 DDL 创建两张表,注意需要有 WITH 定义的外部连接。一张表叫作EventTable,是从外部文件 events.csv 中读取数据的,这是输入数据表;另一张叫作 ResultTable, 连接器为“print”,其实就是标准控制台打印,当然就是输出表了。所以接下来就可以直接执 行 SQL 查询,并将查询结果 INSERT 写入结果表中了。

在 SQL 客户端中,每定义一个 SQL 查询,就会把它作为一个 Flink 作业提交到集群上执 行。所以通过这种方式,我们可以快速地对流处理程序进行开发测试。

11.9 连接到外部系统

在 Table API 和 SQL 编写的 Flink 程序中,可以在创建表的时候用 WITH 子句指定连接器 (connector),这样就可以连接到外部系统进行数据交互了。

架构中的 TableSource 负责从外部系统中读取数据并转换成表,TableSink 则负责将结果表 写入外部系统。在 Flink 1.13 的 API 调用中,已经不去区分 TableSource 和 TableSink,我们只 要建立到外部系统的连接并创建表就可以,Flink 自动会从程序的处理逻辑中解析出它们的用途。 Flink 的 Table API 和 SQL 支持了各种不同的连接器。当然,最简单的其实就是上一节中 提到的连接到控制台打印输出:

CREATE TABLE ResultTable ( 
user STRING, 
cnt BIGINT 
WITH ( 
'connector' = 'print' 
); 

这里只需要在 WITH 中定义 connector 为 print 就可以了。而对于其它的外部系统,则需要 增加一些配置项

11.9.1 Kafka

Kafka 的 SQL 连接器可以从 Kafka 的主题(topic)读取数据转换成表,也可以将表数据 写入 Kafka 的主题。换句话说,创建表的时候指定连接器为 Kafka,则这个表既可以作为输入 表,也可以作为输出表。

1. 引入依赖

想要在 Flink 程序中使用 Kafka 连接器,需要引入如下依赖:

 
 org.apache.flink 
 flink-connector-kafka_${scala.binary.version} 
 ${flink.version} 
 

这里我们引入的 Flink 和 Kafka 的连接器,与之前 DataStream API 中引入的连接器是一样 的。如果想在 SQL 客户端里使用 Kafka 连接器,还需要下载对应的 jar 包放到 lib 目录下。

另外,Flink 为各种连接器提供了一系列的“表格式”(table formats),比如 CSV、JSON、Avro、Parquet 等等。这些表格式定义了底层存储的二进制数据和表的列之间的转换方式,相 当于表的序列化工具。对于 Kafka 而言,CSV、JSON、Avro 等主要格式都是支持的,根据 Kafka 连接器中配置的格式,我们可能需要引入对应的依赖支持。以 CSV 为例:

 
 org.apache.flink 
 flink-csv 
 ${flink.version} 

由于 SQL 客户端中已经内置了 CSV、JSON 的支持,因此使用时无需专门引入;而对于 没有内置支持的格式(比如 Avro),则仍然要下载相应的 jar 包。

2. 创建连接到 Kafka 的表

创建一个连接到 Kafka 表,需要在 CREATE TABLE 的 DDL 中在 WITH 子句里指定连接 器为 Kafka,并定义必要的配置参数。

下面是一个具体示例:

CREATE TABLE KafkaTable ( 
 `user` STRING, 
 `url` STRING, 
 `ts` TIMESTAMP(3) METADATA FROM 'timestamp' 
) WITH ( 
 'connector' = 'kafka', 
 'topic' = 'events', 
 'properties.bootstrap.servers' = 'localhost:9092', 
 'properties.group.id' = 'testGroup', 
 'scan.startup.mode' = 'earliest-offset', 
 'format' = 'csv' 
) 

这里定义了 Kafka 连接器对应的主题(topic),Kafka 服务器消费者组 ID消费者起始模式以及表格式。需要特别说明的是,在 KafkaTable 的字段中有一个 ts,它的声明中用到了METADATA FROM,这是表示一个“元数据列”(metadata column),它是由 Kafka 连接器的元数据“timestamp”生成的。这里的 timestamp 其实就是 Kafka 中数据自带的时间戳,我们把它直接作为元数据提取出来,转换成一个新的字段 ts。

3. Upsert Kafka

正常情况下,Kafka 作为保持数据顺序的消息队列,读取和写入都应该是流式的数据,对应在表中就是仅追加(append-only)模式。如果我们想要将有更新操作(比如分组聚合)的结 果表写入 Kafka,就会因为 Kafka 无法识别撤回(retract)或更新插入(upsert)消息而导致异常。

为了解决这个问题,Flink 专门增加了一个“更新插入 Kafka”(Upsert Kafka)连接器。这 个连接器支持以更新插入(UPSERT)的方式向 Kafka 的 topic 中读写数据。

具体来说,Upsert Kafka 连接器处理的是更新日志(changlog)流。如果作为 TableSource---数据源, 连接器会将读取到的 topic中的数据(key, value),解释为对当前 key 的数据值的更新(UPDATE), 也就是查找动态表中 key 对应的一行数据,将 value 更新为最新的值;因为是 Upsert 操作,所以如果没有 key 对应的行,那么也会执行插入(INSERT)操作。另外,如果遇到 value 为空 (null),连接器就把这条数据理解为对相应 key 那一行的删除(DELETE)操作。

如果作为 TableSink---输出端,Upsert Kafka 连接器会将有更新操作的结果表,转换成更新日志 (changelog)流。如果遇到插入(INSERT)或者更新后(UPDATE_AFTER)的数据,对应 的是一个添加(add)消息,那么就直接正常写入 Kafka 主题;如果是删除(DELETE)或者更新前的数据,对应是一个撤回(retract)消息,那么就把 value 为空(null)的数据写入 Kafka。 由于 Flink 是根据键(key)的值对数据进行分区的,这样就可以保证同一个 key 上的更新和删除消息都会落到同一个分区中。

下面是一个创建和使用 Upsert Kafka 表的例子:

CREATE TABLE pageviews_per_region ( 
 user_region STRING, 
 pv BIGINT, 
 uv BIGINT, 
 PRIMARY KEY (user_region) NOT ENFORCED 
) WITH ( 
 'connector' = 'upsert-kafka', 
 'topic' = 'pageviews_per_region', 
 'properties.bootstrap.servers' = '...', 
 'key.format' = 'avro', 
 'value.format' = 'avro' 
); 
 
CREATE TABLE pageviews ( 
 user_id BIGINT, 
 page_id BIGINT, 
 viewtime TIMESTAMP, 
 user_region STRING, 
 WATERMARK FOR viewtime AS viewtime - INTERVAL '2' SECOND 
) WITH ( 
 'connector' = 'kafka', 
 'topic' = 'pageviews', 
 'properties.bootstrap.servers' = '...', 
 'format' = 'json' 
); 
 
-- 计算 pv、uv 并插入到 upsert-kafka 表中 
INSERT INTO pageviews_per_region 
SELECT 
 user_region, 
 COUNT(*), 
 COUNT(DISTINCT user_id) 
FROM pageviews 
GROUP BY user_region; 

11.9.2 文件系统

另一类非常常见的外部系统就是文件系统(File System)了。Flink 提供了文件系统的连 接器,支持从本地或者分布式的文件系统中读写数据。这个连接器是内置在 Flink 中的,所以 使用它并不需要额外引入依赖。

下面是一个连接到文件系统的示例:

CREATE TABLE MyTable ( 
 column_name1 INT, 
 column_name2 STRING, 
 ... 
 part_name1 INT, 
 part_name2 STRING 
) PARTITIONED BY (part_name1, part_name2) WITH ( 
 'connector' = 'filesystem', -- 连接器类型 
 'path' = '...', -- 文件路径 
 'format' = '...' -- 文件格式 
) 

这里在 WITH 前使用了 PARTITIONED BY 对数据进行了分区操作。文件系统连接器支持 对分区文件的访问。

11.9.3 JDBC

系型数据表本身就是 SQL 最初应用的地方,所以我们也会希望能直接向关系型数据库 中读写表数据。Flink 提供的 JDBC 连接器可以通过 JDBC 驱动程序(driver)向任意的关系型 数据库读写数据,比如 MySQL、PostgreSQL、Derby 等。

作为 TableSink 向数据库写入数据时,运行的模式取决于创建表的 DDL 是否定义了主键 (primary key)。如果有主键,那么 JDBC 连接器就将以更新插入(Upsert)模式运行,可以向 外部数据库发送按照指定键(key)的更新(UPDATE)和删除(DELETE)操作;如果没有 定义主键,那么就将在追加(Append)模式下运行,不支持更新和删除操作

1. 引入依赖

想要在 Flink 程序中使用 JDBC 连接器,需要引入如下依赖:

 
 org.apache.flink 
 flink-connector-jdbc_${scala.binary.version} 
 ${flink.version} 
 

此外,为了连接到特定的数据库,我们还用引入相关的驱动器依赖,比如 MySQL:

 
 mysql 
 mysql-connector-java 
 5.1.38 
 

这里引入的驱动器版本是 5.1.38,我们可以依据自己的 MySQL 版本来进行选择。

2. 创建 JDBC 表

创建 JDBC 表的方法与前面 Upsert Kafka 大同小异。下面是一个具体示例:

-- 创建一张连接到 MySQL 的 表 
CREATE TABLE MyTable ( 
 id BIGINT, 
 name STRING, 
 age INT, 
 status BOOLEAN, 
 PRIMARY KEY (id) NOT ENFORCED 
) WITH ( 
 'connector' = 'jdbc', 
 'url' = 'jdbc:mysql://localhost:3306/mydatabase', 
 'table-name' = 'users' 
); 
 
-- 将另一张表 T 的数据写入到 MyTable 表中 
INSERT INTO MyTable 
SELECT id, name, age, status FROM T; 

这里创建表的 DDL 中定义了主键,所以数据会以 Upsert 模式写入到 MySQL 表中;而到MySQL 的连接,是通过 WITH 子句中的 url 定义的。要注意写入 MySQL 中真正的表名称是users,而 MyTable 是注册在 Flink 表环境中的表。

11.9.4 Elasticsearch

Elasticsearch 作为分布式搜索分析引擎,在大数据应用中有非常多的场景。Flink 提供的Elasticsearch的SQL连接器只能作为TableSink,可以将表数据写入Elasticsearch的索引(index)。

Elasticsearch 连接器的使用与 JDBC 连接器非常相似,写入数据的模式同样是由创建表的 DDL中是否有主键定义决定的。

1. 引入依赖

想要在 Flink 程序中使用 Elasticsearch 连接器,需要引入对应的依赖。具体的依赖与Elasticsearch 服务器的版本有关,对于 6.x 版本引入依赖如下:

 
 org.apache.flink 
flink-connector-elasticsearch6_${scala.binary.version} 
${flink.version} 
 

对于 Elasticsearch 7 以上的版本,引入的依赖则是:

 
 org.apache.flink 
flink-connector-elasticsearch7_${scala.binary.version} 
${flink.version} 
 

2. 创建连接到 Elasticsearch 的表

创建 Elasticsearch 表的方法与 JDBC 表基本一致。下面是一个具体示例:

-- 创建一张连接到 Elasticsearch 的 表 
CREATE TABLE MyTable ( 
 user_id STRING, 
 user_name STRING 
 uv BIGINT, 
 pv BIGINT, 
 PRIMARY KEY (user_id) NOT ENFORCED 
) WITH ( 
 'connector' = 'elasticsearch-7', 
 'hosts' = 'http://localhost:9200', 
 'index' = 'users' 
); 

这里定义了主键,所以会以更新插入(Upsert)模式向 Elasticsearch 写入数据。

11.9.5 HBase

作为高性能、可伸缩的分布式列存储数据库,HBase 在大数据分析中是一个非常重要的工 具。Flink 提供的 HBase 连接器支持面向 HBase 集群的读写操作。

在流处理场景下,连接器作为 TableSink 向 HBase 写入数据时,采用的始终是更新插入 (Upsert)模式。也就是说,HBase 要求连接器必须通过定义的主键(primary key)来发送更 新日志(changelog)。所以在创建表的 DDL 中,我们必须要定义行键(rowkey)字段,并将 它声明为主键;如果没有用 PRIMARY KEY 子句声明主键,连接器会默认把 rowkey 作为主键。

1. 引入依赖

想要在 Flink 程序中使用 HBase 连接器,需要引入对应的依赖。目前 Flink 只对 HBase 的1.4.x 和 2.2.x 版本提供了连接器支持,而引入的依赖也应该与具体的 HBase 版本有关。对于1.4 版本引入依赖如下:

 
 org.apache.flink 
 flink-connector-hbase-1.4_${scala.binary.version} 
 ${flink.version} 
 

 对于 HBase 2.2 版本,引入的依赖则是:

 
 org.apache.flink 
 flink-connector-hbase-2.2_${scala.binary.version} 
 ${flink.version} 
 

2. 创建连接到 HBase 的表

由于 HBase 并不是关系型数据库,因此转换为 Flink SQL 中的表会稍有一些麻烦。在 DDL创建出的 HBase 表中,所有的列族(column family)都必须声明为 ROW 类型,在表中占据一 个字段;而每个 family 中的列(column qualifier)则对应着 ROW 里的嵌套字段。我们不需要 将 HBase 中所有的 family 和 qualifier 都在 Flink SQL 的表中声明出来,只要把那些在查询中用 到的声明出来就可以了。

除了所有 ROW 类型的字段(对应着 HBase 中的 family),表中还应有一个原子类型的字 段,它就会被识别为 HBase 的 rowkey。在表中这个字段可以任意取名,不一定非要叫 rowkey。

下面是一个具体示例:

-- 创建一张连接到 HBase 的 表 
CREATE TABLE MyTable ( 
 rowkey INT, 
 family1 ROW, 
 family2 ROW, 
 family3 ROW, 
 PRIMARY KEY (rowkey) NOT ENFORCED 
) WITH ( 
 'connector' = 'hbase-1.4', 
 'table-name' = 'mytable', 
 'zookeeper.quorum' = 'localhost:2181' 
);  
-- 假设表 T 的字段结构是 [rowkey, f1q1, f2q2, f2q3, f3q4, f3q5, f3q6] 
INSERT INTO MyTable 
SELECT rowkey, ROW(f1q1), ROW(f2q2, f2q3), ROW(f3q4, f3q5, f3q6) FROM T;

我们将另一张 T 中的数据提取出来,并用 ROW()函数来构造出对应的 column family,最 终写入 HBase 中名为 mytable 的表。

11.9.6 Hive

Apache Hive 作为一个基于 Hadoop 的数据仓库基础框架,可以说已经成为了进行海量数 据分析的核心组件。Hive 支持类 SQL 的查询语言,可以用来方便对数据进行处理和统计分析, 而且基于 HDFS 的数据存储有非常好的可扩展性,是存储分析超大量数据集的唯一选择。Hive的主要缺点在于查询的延迟很高,几乎成了离线分析的代言人。而 Flink 的特点就是实时性强, 所以 Flink SQL 与 Hive 的结合势在必行。 Flink 与 Hive 的集成比较特别。Flink 提供了“Hive 目录”(HiveCatalog)功能,允许使用Hive 的“元存储”(Metastore)来管理 Flink 的元数据。这带来的好处体现在两个方面:

(1)Metastore 可以作为一个持久化的目录,因此使用 HiveCatalog 可以跨会话存储 Flink特定的元数据。这样一来,我们在 HiveCatalog 中执行执行创建 Kafka 表或者 ElasticSearch 表, 就可以把它们的元数据持久化存储在 Hive 的 Metastore 中;对于不同的作业会话就不需要重复创建了,直接在 SQL 查询中重用就可以。

(2)使用 HiveCatalog,Flink 可以作为读写 Hive 表的替代分析引擎。这样一来,在 Hive中进行批处理会更加高效;与此同时,也有了连续在 Hive 中读写数据、进行流处理的能力, 这也使得“实时数仓”(real-time data warehouse)成为了可能。 HiveCatalog 被设计为“开箱即用”,与现有的 Hive 配置完全兼容,我们不需要做任何的 修改与调整就可以直接使用。注意只有 Blink 的计划器(planner)提供了 Hive 集成的支持, 所以需要在使用 Flink SQL时选择Blink planner。下面我们就来看以下与Hive 集成的具体步骤。

1. 引入依赖

Hive 各版本特性变化比较大,所以使用时需要注意版本的兼容性。目前 Flink 支持的 Hive

版本包括:

⚫ Hive 1.x:1.0.0~1.2.2;

⚫ Hive 2.x:2.0.0~2.2.0,2.3.0~2.3.6;

⚫ Hive 3.x:3.0.0~3.1.2;

目前 Flink 与 Hive 的集成程度在持续加强,支持的版本信息也会不停变化和调整,大家 可以随着关注官网的更新信息。

由于 Hive 是基于 Hadoop 的组件,因此我们首先需要提供 Hadoop 的相关支持,在环境变 量中设置 HADOOP_CLASSPATH:

export HADOOP_CLASSPATH=`hadoop classpath` 

 在 Flink 程序中可以引入以下依赖:

 
 
 org.apache.flink 
 flink-connector-hive_${scala.binary.version} 
 ${flink.version} 
 
 
 
 
 org.apache.hive 
 hive-exec 
 ${hive.version} 
 

建议不要把这些依赖打包到结果 jar 文件中,而是在运行时的集群环境中为不同的 Hive版本添加不同的依赖支持。

2. 连接到 Hive  

在 Flink 中连接 Hive,是通过在表环境中配置 HiveCatalog 来实现的。需要说明的是,配 置 HiveCatalog 本身并不需要限定使用哪个 planner,不过对 Hive 表的读写操作只有 Blink 的planner 才支持。所以一般我们需要将表环境的 planner 设置为 Blink。

下面是代码中配置 Catalog 的示例:

EnvironmentSettings settings = EnvironmentSettings.newInstance().useBlinkPlanner().build(); 
TableEnvironment tableEnv = TableEnvironment.create(settings); 
 
String name = "myhive"; 
String defaultDatabase = "mydatabase"; 
String hiveConfDir = "/opt/hive-conf"; 
 
// 创建一个 HiveCatalog,并在表环境中注册 
HiveCatalog hive = new HiveCatalog(name, defaultDatabase, hiveConfDir); 
tableEnv.registerCatalog("myhive", hive); 
 
// 使用 HiveCatalog 作为当前会话的 catalog 
tableEnv.useCatalog("myhive"); 

当然,我们也可以直接启动 SQL 客户端,用 CREATE CATALOG 语句直接创建 HiveCatalog:

Flink SQL> create catalog myhive with ('type' = 'hive', 'hive-conf-dir' = 
'/opt/hive-conf'); 
[INFO] Execute statement succeed. 
 
Flink SQL> use catalog myhive; 
[INFO] Execute statement succeed. 

3. 设置 SQL 方言

我们知道,Hive内部提供了类SQL的查询语言,不过语法细节与标准SQL会有一些出入, 相当于是 SQL 的一种“方言”(dialect)。为了提高与 Hive 集成时的兼容性,Flink SQL 提供了 一个非常有趣而强大的功能:可以使用方言来编写 SQL 语句。换句话说,我们可以直接在 Flink

中写 Hive SQL 来操作 Hive 表,这无疑给我们的读写处理带来了极大的方便。 Flink 目前支持两种 SQL 方言的配置:default 和 hive。所谓的 default 就是 Flink SQL 默认 的 SQL 语法了。我们需要先切换到 hive 方言,然后才能使用 Hive SQL 的语法。具体设置可 以分为 SQL 和 Table API 两种方式。

(1)SQL 中设置

我们可以通过配置 table.sql-dialect 属性来设置 SQL 方言:

set table.sql-dialect=hive; 

当然,我们可以在代码中执行上面的 SET 语句,也可以直接启动 SQL 客户端来运行。如果使用 SQL 客户端,我们还可以在配置文件 sql-cli-defaults.yaml 中通过“configuration”模块来 设置:

execution: 
 planner: blink 
 type: batch 
 result-mode: table 
 
configuration: 
 table.sql-dialect: hive

(2)Table API 中设置

另外一种方式就是在代码中,直接使用 Table API 获取表环境的配置项来进行设置:

// 配置 hive 方言 
tableEnv.getConfig().setSqlDialect(SqlDialect.HIVE); 
// 配置 default 方言 
tableEnv.getConfig().setSqlDialect(SqlDialect.DEFAULT); 

4. 读写 Hive 表

有了 SQL 方言的设置,我们就可以很方便的在 Flink 中创建 Hive 表并进行读写操作了。

Flink 支持以批处理和流处理模式向 Hive 中读写数据。在批处理模式下,Flink 会在执行查询 语句时对 Hive 表进行一次性读取,在作业完成时将结果数据向 Hive 表进行一次性写入;而在 流处理模式下,Flink 会持续监控 Hive 表,在新数据可用时增量读取,也可以持续写入新数据 并增量式地让它们可见。

更灵活的是,我们可以随时切换 SQL 方言,从其它数据源(例如 Kafka)读取数据、经 转换后再写入Hive。下面是以纯SQL形式编写的一个示例,我们可以启动SQL客户端来运行:

-- 设置 SQL 方言为 hive,创建 Hive 表 
SET table.sql-dialect=hive; 
CREATE TABLE hive_table ( 
 user_id STRING, 
 order_amount DOUBLE 
) PARTITIONED BY (dt STRING, hr STRING) STORED AS parquet TBLPROPERTIES ( 
 'partition.time-extractor.timestamp-pattern'='$dt $hr:00:00', 
 'sink.partition-commit.trigger'='partition-time', 
 'sink.partition-commit.delay'='1 h', 
 'sink.partition-commit.policy.kind'='metastore,success-file' 
); 
 
-- 设置 SQL 方言为 default,创建 Kafka 表 
SET table.sql-dialect=default; 
CREATE TABLE kafka_table ( 
 user_id STRING, 
 order_amount DOUBLE, 
 log_ts TIMESTAMP(3), 
 WATERMARK FOR log_ts AS log_ts - INTERVAL '5' SECOND – 定义水位线 
) WITH (...); 
 
-- 将 Kafka 中读取的数据经转换后写入 Hive 
INSERT INTO TABLE hive_table 
SELECT user_id, order_amount, DATE_FORMAT(log_ts, 'yyyy-MM-dd'), 
DATE_FORMAT(log_ts, 'HH') 
FROM kafka_table; 

这里我们创建 Hive 表时设置了通过分区时间来触发提交的策略。将 Kafka 中读取的数据 经转换后写入 Hive,这是一个流处理的 Flink SQL 程序。】

你可能感兴趣的:(flink,sql,scala)