Flink中的DataStream程序是实现数据流转换的常规程序(例如,过滤、更新状态、定义窗口、聚合)。
数据流最初是从各种来源(例如,消息队列、套接字流、文件)创建的。
结果通过sink返回,例如,接收可以将数据写入文件或标准输出(例如命令行终端)。
Flink程序在各种上下文中运行,独立运行或嵌入到其他程序中。执行可以在本地JVM中进行,也可以在许多机器的集群中进行。
有关Flink API的基本概念的介绍,请参阅https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/api_concepts.html。
程序样例
下面的程序是一个完整的、可工作的流式窗口关于字数统计的应用程序示例,它在5秒内计算来自web套接字的字数。您可以复制并粘贴代码以在本地运行它。
import org.apache.flink.api.common.functions.FlatMapFunction;import org.apache.flink.api.java.tuple.Tuple2;import org.apache.flink.streaming.api.datastream.DataStream;import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;import org.apache.flink.streaming.api.windowing.time.Time;import org.apache.flink.util.Collector;public class WindowWordCount { public static void main(String[] args) throws Exception { StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); DataStream
> dataStream = env .socketTextStream("localhost", 9999) .flatMap(new Splitter()) .keyBy(0) .timeWindow(Time.seconds(5)) .sum(1); dataStream.print(); env.execute("Window WordCount"); } public static class Splitter implements FlatMapFunction > { @Override public void flatMap(String sentence, Collector > out) throws Exception { for (String word: sentence.split(" ")) { out.collect(new Tuple2 (word, 1)); } } }}
要运行示例程序,首先从终端使用netcat启动输入流:
nc-lk9999
只需键入一些单词,然后按回车键输入一个新单词。这些将是字数统计程序的输入。如果你想看到数大于1,输入相同的单词一遍又一遍在5s大小的窗口输出。
数据源
程序源是程序读取输入的地方。可以使用StreamExecutionEnvironment.addSource(sourceFunction)将数据源添加到程序中。
Flink附带了许多预先实现的源函数,而且你可以实现串行方式SourceFunction接口来实现自定义的数据源。
或通过并行方式ParallelSourceFunction接口或RichParallelSourceFunction来编写自己的数据源。
下面预定义的数据源可以通过StreamExecutionEnvironment来访问:
基于文件:
1.readTextFile(path) -按照TextInputFormat规范逐行以字符串形式读取文件或者文件夹。
2.readFile(fileInputFormat, path) - 按照指定的文件输入格式读取文件或者文件夹。
3.readFile(fileInputFormat, path, watchType, interval, pathFilter, typeInfo) -这是前两个方法在内部调用的方法。
它根据给定的fileInputFormat读取路径中的文件。根据所提供的watchType,此源可以定期(每隔一段时间)监视新数据的路径(fileprocessingmode . process_continuous),
或者一次性处理当前路径中的数据并退出(FileProcessingMode.PROCESS_ONCE)。使用pathFilter,可以排除不需要处理的文件。
实现:
在底层,Flink将文件读取过程分成两个子任务,即目录监视和数据读取。每个子任务都由一个单独的实体实现。
监视由单个非并行(parallelism = 1)任务实现,而读取由多个并行运行的任务执行。后者的并行度等于作业并行度。
单个监视任务的作用是扫描目录(定期或仅扫描一次,这取决于watchType),查找要处理的文件,将它们划分为分段,并将这些分段分配给下游的读取器。
读取器将读取实际数据。每个分割只由一个读取器读取,而一个读取器可以逐个读取多个分割。
注意:
如果watchType设置为FileProcessingMode。当一个文件被修改时,它的内容将被完全重新处理。这可能会打破“只有一次”的语义,因为在文件末尾附加数据将导致所有内容被重新处理。
如果watchType设置为FileProcessingMode。PROCESS_ONCE,源程序只扫描路径一次并退出,而不等待读取器完成文件内容的读取。
当然,程序将继续阅读,直到所有的文件内容被读取。关闭源将导致在该点之后没有更多的检查点。这可能会导致节点故障后恢复较慢,因为作业将从最后一个检查点恢复读取。
基于Socket:
1.socketTextStream - 从套接字读取。元素可以用分隔符分隔。
基于集合:
1.fromCollection(Collection) -从Java.util. collection创建一个数据流。集合中的所有元素必须具有相同的类型。
2.fromCollection(Iterator, Class) -从迭代器创建数据流。该类指定迭代器返回的元素的数据类型。
3.fromElements(T ...) - 从给定的对象序列创建数据流。所有对象必须具有相同的类型。
4.fromParallelCollection(SplittableIterator, Class) - 并行地从迭代器创建数据流。该类指定迭代器返回的元素的数据类型。
5.generateSequence(from, to) - 并行地生成给定区间内的数字序列。
基于自定义:
1.addSource - 添加一个新的source函数。例如,要从Apache Kafka中读取数据,可以使用addSource(new FlinkKafkaConsumer08<>(...))。有关更多细节,请参见连接器https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/connectors/index.html。
源地址:https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/datastream_api.html
更多大数据技术请咨询微信 18310801089