以WordCount为例,进行演示
pom.xml一般没有
标签对,需要手动添加。
最终pom.xml文件为:
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0modelVersion>
<groupId>org.examplegroupId>
<artifactId>flinkStudyartifactId>
<version>1.0-SNAPSHOTversion>
<properties>
<maven.compiler.source>8maven.compiler.source>
<maven.compiler.target>8maven.compiler.target>
<flink.version>1.13.0flink.version>
<java.version>1.8java.version>
<scala.binary.version>2.12scala.binary.version>
<slf4j.version>1.7.30slf4j.version>
properties>
<dependencies>
<dependency>
<groupId>org.apache.flinkgroupId>
<artifactId>flink-javaartifactId>
<version>${flink.version}version>
<scope>providedscope>
dependency>
<dependency>
<groupId>org.apache.flinkgroupId>
<artifactId>flink-streaming-java_${scala.binary.version}artifactId>
<version>${flink.version}version>
<scope>providedscope>
dependency>
<dependency>
<groupId>org.apache.flinkgroupId>
<artifactId>flink-clients_${scala.binary.version}artifactId>
<version>${flink.version}version>
<scope>providedscope>
dependency>
<dependency>
<groupId>org.apache.flinkgroupId>
<artifactId>flink-runtime-web_${scala.binary.version}artifactId>
<version>${flink.version}version>
<scope>providedscope>
dependency>
<dependency>
<groupId>org.slf4jgroupId>
<artifactId>slf4j-apiartifactId>
<version>${slf4j.version}version>
<scope>providedscope>
dependency>
<dependency>
<groupId>org.slf4jgroupId>
<artifactId>slf4j-log4j12artifactId>
<version>${slf4j.version}version>
<scope>providedscope>
dependency>
<dependency>
<groupId>org.apache.logging.log4jgroupId>
<artifactId>log4j-to-slf4jartifactId>
<version>2.14.0version>
<scope>providedscope>
dependency>
dependencies>
project>
如果编译程序没有问题,运行程序时报错
classpath not found
一般就是这个地方没有设置的原因。
在目录 src/main/resources 下添加文件:log4j.properties
内容配置如下:
log4j.rootLogger=error, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%-4r [%t] %-5p %c %x - %m%n
在项目下创建input
文件夹,再在该文件夹下创建words.txt
文件
文件内容为:
hello world
wang hello
hello wang
hello hello hello
wang wang
FlinkBatch.java
文件内容如下:
package com.hao.wordcount;
import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.java.ExecutionEnvironment;
import org.apache.flink.api.java.operators.DataSource;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.util.Collector;
public class FlinkBatch {
public static void main(String[] args) throws Exception {
// 1. 通过 单例模式 获取批处理的 执行环境
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
/* 如果需要设置固定的WebUI端口,则在获取执行环境时需要传入参数
Configuration conf = new Configuration();
conf.setInteger("rest.port", 10000);
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(conf);
*/
// 2. 获取源数据 (从文件一行一行读取)
DataSource<String> dataSource = env.readTextFile("input/words.txt");
// 3. 数据处理
dataSource
// (1) 一对多:将一行数据映射为多个单词
.flatMap(new FlatMapFunction<String, String>() {
@Override
public void flatMap(String line, Collector<String> out) throws Exception {
// 1) 对该行数据切割为一个一个的单词
String[] words = line.split(" ");
// 2) 将单词加入到收集器中
for (String word : words) {
out.collect(word);
}
}
})
// (2) 一对一:将单词 word 映射为 (word, 1) 形式。
// 这一个算子其实可以省略,在flatMap中返回out.collect(Tuple2.of(word, lL));即可
.map(new MapFunction<String, Tuple2<String, Long>>() {
@Override
public Tuple2<String, Long> map(String word) throws Exception {
return Tuple2.of(word, 1L);
}
})
// (3) 分组统计
.groupBy(0) // DataSet API 的算子
.sum(1)
// (4) 打印统计结果
.print();
}
}
注意:这里批处理使用的是
DataSet API
,下面的流处理使用的是DataStream API
。事实上 Flink 本身是流批统一的处理架构,批量的数据集本质上也是流(是有界的数据流),没有必要用两套不同的 API 来实现。所以从 Flink 1.12 开始,官方推荐的做法批处理也使用DataStream API
,只需要在提交任务是将执行模式设为 BATCH即可:$ bin/flink run -Dexecution.runtime-mode=BATCH BatchWordCount.jar
这样,
DataSet API
就处于弃用状态,在实际应用中我们只要维护一套 DataStream API 就可以了,即流批一体。
FlinkBoundStream.java
文件内容如下:
package com.hao.wordcount;
import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.functions.KeySelector;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;
public class FlinkBoundStream {
public static void main(String[] args) throws Exception {
// 1. 获取 有界流 的 执行环境
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
/* 如果需要设置固定的WebUI端口,则在获取执行环境时需要传入参数
Configuration conf = new Configuration();
conf.setInteger("rest.port", 10000);
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(conf);
*/
// 2. 设置并行度
env.setParallelism(1);
// 3. 获取源数据
DataStreamSource<String> dataStreamSource = env.readTextFile("input/words.txt");
// 4. 数据处理
dataStreamSource
// (1) 一对多:将一行数据映射为多个单词,
// 同时做一对一映射转换:将单词 word 映射为 (word, 1) 形式。
.flatMap(new FlatMapFunction<String, Tuple2<String, Long>>() {
@Override
public void flatMap(String line, Collector<Tuple2<String, Long>> out) throws Exception {
// 1) 对该行数据切割为一个一个的单词
String[] words = line.split(" ");
// 2) 将单词以元组(word, 1)的形式加入到收集器中
for (String word : words) {
out.collect(Tuple2.of(word, 1L));
}
}
})
// (3) 分组统计
// 后面的String是打上的标签类型,后面会根据标签分组。
// 因为这里是根据tuple2.f0字段分组,所以标签类型和tuple2.f0类型相同
.keyBy(new KeySelector<Tuple2<String, Long>, String>() { // DataStream API 的算子
@Override
public String getKey(Tuple2<String, Long> tuple2) throws Exception {
return tuple2.f0; // f0是指元组的0下标字段
}
})
.sum(1)
.print();
// 5. 执行(流数据处理必须有这一步)
env.execute("BoundStream"); // 传入的字符串是设置该job的名字,在WebUI界面会显示
}
}
与批处理有3点不同:
无界流的数据是没有定义数据的结束,所以不能使用上面有界的words.txt
文件,需要用一台机器来不断的输入数据:
FlinkUnboundStream.java
文件内容如下:
package com.hao.wordcount;
import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.functions.KeySelector;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;
public class FlinkUnboundStream {
public static void main(String[] args) throws Exception {
// 1. 获取 有界流 的 执行环境
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
/* 如果需要设置固定的WebUI端口,则在获取执行环境时需要传入参数
Configuration conf = new Configuration();
conf.setInteger("rest.port", 10000);
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(conf);
*/
// 2. 设置并行度
env.setParallelism(1);
// 3. 获取源数据(从远程机器上获取)
DataStreamSource<String> dataStreamSource = env.socketTextStream("192.168.10.111", 9999);
// 4. 数据处理
dataStreamSource
// (1) 一对多:将一行数据映射为多个单词,同时做一对一映射转换:将单词 word 映射为 (word, 1) 形式。
.flatMap(new FlatMapFunction<String, Tuple2<String, Long>>() {
@Override
public void flatMap(String line, Collector<Tuple2<String, Long>> out) throws Exception {
// 1) 对该行数据切割为一个一个的单词
String[] words = line.split(" ");
// 2) 将单词以元组(word, 1)的形式加入到收集器中
for (String word : words) {
out.collect(Tuple2.of(word, 1L));
}
}
})
// (3) 分组统计
// 后面的String是打上的标签类型,后面会根据标签分组。
// 因为这里是根据tuple2.f0字段分组,所以标签类型和tuple2.f0类型相同
.keyBy(new KeySelector<Tuple2<String, Long>, String>() { // DataStream API 的算子
@Override
public String getKey(Tuple2<String, Long> tuple2) throws Exception {
return tuple2.f0; // f0是指元组的0下标字段
}
})
.sum(1)
.print();
// 5. 执行(流数据处理必须有这一步)
env.execute("UnboundStream"); // 传入的字符串是设置该job的名字,在WebUI界面会显示
}
}
源数据的准备:
① 在待输入源数据的主机中下载nc
链接: https://pan.baidu.com/s/128wPq848M93ra-w6gXL02w | 提取码: rktv |
---|