大道三千:最近我修Flink
目前个人理解:
处理有界,无界流的工具
有界流:数据结束了,程序也就结束了
知道数据开始以及结束的地方
特征:读一条,计算一条,输出一次结果
知道数据开始的地方,却不知道结束的地方
(好似长江大河,会一直一直一直产生数据)
个人理解:(有状态流会基于内存保存之前的数据)
如果后续流的操作需要用到之前的数据,这个流时有状态的
如果后续流的操作不需要用到之前的数据,这个流是无状态的
1:创建执行环境
2:读取流(数据)
3:将读取到的数据,转换为方便处理的格式
4:将收集到的数据进行(分组,求和,最大,最小等....)操作
//批处理方式(有界流,因为很明确的知道这个文件在哪里结束)
public class BatchWordCount {
public static void main(String[] args) throws Exception {
// 1. 创建执行环境
ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
// 2. 从文件读取数据 按行读取(存储的元素就是每行的文本)
DataSource lineDS = env.readTextFile("input/words.txt");
// 3. 转换数据格式
FlatMapOperator> wordAndOne = lineDS.flatMap(new FlatMapFunction>() {
@Override //一行数据 // 数据收集器 out:相当于是一个按照 下面格式收集数据的收集器 格式=out.collect(Tuple2.of(word,1L));
public void flatMap(String line, Collector> out) throws Exception {
String[] words = line.split(" "); //一行数据按照" "拆分
for (String word : words) { //word = 一行中的每一个字段 如果1改成2,则统计时数目会成2
Tuple2 of = Tuple2.of(word, 1L);//每个的那次都转为这种格式
out.collect(of); // 收集器添加数据 (转换格式为 (循环到的字段,1L))
}
}
});
// 4. 按照 word 进行分组 按照第一个字段分组.(字段,1L),就是按照第一个字段分组(A,1),(b,1),(c,1),(d,1),(d,1) 就是按照abcd分组
UnsortedGrouping> wordAndOneUG = wordAndOne.groupBy(0);
// 5. 分组内聚合统计 根据第二个字段求和,即将每个分组的第二个字段相加,得到该分组的总和
AggregateOperator> sum = wordAndOneUG.sum(1);
// 6. 打印结果
sum.print();
}
}
1:创建流式执行环境(基于StreamExecutionEnvironment)
2:读取文件
3:转换、分组、求和,得到统计结果
4:打印输出
5:执行
//流处理方式 (有界流,因为很明确的知道这个文件在哪里结束),如果不是本地而是网络则是无界流
public class StreamWordCount {
public static void main(String[] args) throws Exception {
// 1. 创建流式执行环境
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
// 2. 读取文件
DataStreamSource lineStream = env.readTextFile("input/words.txt");
// 3. 转换、分组、求和,得到统计结果
SingleOutputStreamOperator> resultList = lineStream.flatM
输入类型,输出类型
ap(new FlatMapFunction>() {
@Override //当前行数据 //要返回的类型
public void flatMap(String line, Collector> list) throws Exception {
String[] fields = line.split(" ");
for (String field : fields) {
Tuple2 result = Tuple2.of(field, 1);
list.collect(result);
}
}
});
//分组 // 传入的数据类型() 要分组的数据类型
KeyedStream, String> gropbyDate = resultList.keyBy(new KeySelector, String>() {
@Override
public String getKey(Tuple2 value) throws Exception {
return value.f0; //这里是类型的第一位。如(hello,1),则是根据hello进行分组
}
});
//求和。 以上一个为例子:(hello,1)分组之后,根据1索引即第二位(hello,1)的1进行求和
SingleOutputStreamOperator> sum = gropbyDate.sum(1);
//打印输出
sum.print();
//执行
env.execute();
}
}
// 3. 转换、分组、求和,得到统计结果
SingleOutputStreamOperator> sum = lineStream.flatMap(new FlatMapFunction>() {
@Override
public void flatMap(String line, Collector> out) throws Exception {
String[] words = line.split(" ");
for (String word : words) {
out.collect(Tuple2.of(word, 1L));
}
}
}).keyBy(data -> data.f0)
.sum(1);
结果:
备注:先启动linux 输入命令nc -lk 7777
然后启动代码监听 7777
此时linux输入的数据会被代码抓取到
备注2:跟前两个的区别就是这个是调用的socketTextStream。其他无任何区别
//监听7777端口的数据流
// 这里代码监听了 IP地址192.168.200.130 端口号7777 的操作 。ip地址那里写主机名也行
public class SocketStreamWordCount {
public static void main(String[] args) throws Exception {
//构建流环境
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
//拿到数据
DataStreamSource lineStream = env.socketTextStream("192.168.200.130", 7777);
// 转换、分组、求和,得到统计结果
SingleOutputStreamOperator> convert = lineStream.flatMap(new FlatMapFunction>() {
@Override
public void flatMap(String line, Collector> out) throws Exception {
String[] fields = line.split(" ");
for (String field : fields) {
Tuple2 of = Tuple2.of(field, 1L);
out.collect(of);
}
}
});
//分组
KeyedStream, Object> gropBy = convert.keyBy(new KeySelector, Object>() {
@Override
public Object getKey(Tuple2 value) throws Exception {
return value.f0;
}
});
//求和
SingleOutputStreamOperator> sum = gropBy.sum(1);
//输出
sum.print();
//执行
env.execute();
}
}
SingleOutputStreamOperator> sum = lineStream.flatMap((String line, Collector> out) -> {
String[] words = line.split(" ");
for (String word : words) {
out.collect(Tuple2.of(word, 1L));
}
}).returns(Types.TUPLE(Types.STRING, Types.LONG))
.keyBy(data -> data.f0)
.sum(1);