Flink Table Api读取kafka数据

前言

在上一篇我们通过代码演示了如何使用Flink Table Api 从外部的CSV文件中读取数据,然后输出到新的CSV文件中去;

本篇将继续探讨Flink Table Api 的相关使用,要分享的是利用Flink Table Api 读取来自kafka某个topic的数据,然后输出展示到控制台中;

结合实际业务场景来说,尤其是针对很多大数据的场景,kafka作为一个性能优异的消息中间件,被广泛使用,一个很常见的业务场景就是,上游应用将处理完毕的数据写出到kafka的某个topic中,flink程序做进一步的业务处理,然后输出到文件、或者数据库、或者继续写出到新的topic下;

前置准备

1、安装并启动zookeeper服务;

2、安装并启动kafka服务,单机或集群都可以;

3、提前创建一个topic,这里提前创建一个名叫 "zcy222"的topic ;

1、读取kafka数据,输出到控制台

核心代码如下:

import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.table.api.DataTypes;
import org.apache.flink.table.api.Table;
import org.apache.flink.table.api.java.StreamTableEnvironment;
import org.apache.flink.table.d

你可能感兴趣的:(flink,kafka,kafka,flink)