StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
StreamTableEnvironment tableenv = TableEnvironment.getTableEnvironment(env);
String[] fields = new String[]{"id","name","age"};
TypeInformation[] fieldtype = new TypeInformation[]{Types.STRING,Types.STRING,Types.INT};
TableSource tsource = new CsvTableSource("../datasets/stuinfo.csv",fields,fieldtype);
tableenv.registerTableSource("student",tsource);
stuinfo.csv数据如下
1001,zhangsan,18
1002,lisi,20
1003,wangwu,23
1004,zhaoliu,25
Table t1 = tableenv.sqlQuery("select * from student where name='wangwu'");
FileSystem.WriteMode.OVERWRITE 表示允许覆盖写,默认不允许覆盖写,即默认情况下接收数据的文件必须是不存在情况,FileSystem.WriteMode.OVERWRITE 的作用就是当配置用于接收输出结果的文件存在的情况下,新数据覆盖旧数据(即新生成一个文件覆盖旧文件)
TableSink目前仅支持 CsvTableSink 一种方式,如果想要实现其他方式的输出,只能先将Table数据写入DataStream中,再将DataStream输出。
CsvTableSink参数说明:
TableSink tk = new CsvTableSink("E:\\IDEAProject\\Flink_Case\\FlinkDemo\\src\\main\\java\\gongcheng21\\datasets\\wangwu.csv",",",1, FileSystem.WriteMode.OVERWRITE);
t1.writeToSink(tk);
FileSystem.WriteMode.OVERWRITE 表示允许覆盖写,默认不允许覆盖写,即默认情况下接收数据的文件必须是不存在情况,FileSystem.WriteMode.OVERWRITE 的作用就是当配置用于接收输出结果的文件存在的情况下,新数据覆盖旧数据(即新生成一个文件覆盖旧文件)
// Tuple类型因为必须声明每个参数类型,所以需要TypeInformation.of(new TypeHint<>(){})来进行声明
DataStream<Tuple3<String, String,Integer>> ds = tableenv.toAppendStream(t1,TypeInformation.of(new TypeHint<Tuple3<String, String,Integer>>(){}));
// 输出数据
ds.writeAsCsv("E:\\IDEAProject\\Flink_Case\\FlinkDemo\\src\\main\\java\\gongcheng21\\datasets\\wangwu.csv", FileSystem.WriteMode.OVERWRITE);
// 流执行引擎
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
// 表执行引擎
StreamTableEnvironment tableenv = TableEnvironment.getTableEnvironment(env);
/*
表注册: registerTableSource -- CsvTableSource
*/
// 字段名称
String[] fields = new String[]{"id","name","age"};
// 字段类型
TypeInformation[] fieldtype = new TypeInformation[]{Types.STRING,Types.STRING,Types.INT};
TableSource tsource = new CsvTableSource("E:\\IDEAProject\\Flink_Case\\FlinkDemo\\src\\main\\java\\gongcheng21\\datasets\\stuinfo.csv",fields,fieldtype);
// 注册表
tableenv.registerTableSource("student",tsource);
/*
表数据处理
*/
// 查看表中数据
Table t1 = tableenv.scan("student").where("name='wangwu'");
// 声明TableSink
TableSink tk = new CsvTableSink("E:\\IDEAProject\\Flink_Case\\FlinkDemo\\src\\main\\java\\gongcheng21\\datasets\\wangwu.csv",",",1, FileSystem.WriteMode.OVERWRITE);
// 使用TableSink执行数据输出
t1.writeToSink(tk);
env.execute();
// 流执行引擎
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
// 表执行引擎
StreamTableEnvironment tableenv = TableEnvironment.getTableEnvironment(env);
/*
表注册: registerTableSource -- CsvTableSource
*/
// 字段名称
String[] fields = new String[]{"id","name","age"};
// 字段类型
TypeInformation[] fieldtype = new TypeInformation[]{Types.STRING,Types.STRING,Types.INT};
TableSource tsource = new CsvTableSource("E:\\IDEAProject\\Flink_Case\\FlinkDemo\\src\\main\\java\\gongcheng21\\datasets\\stuinfo.csv",fields,fieldtype);
// 注册表
tableenv.registerTableSource("student",tsource);
/*
表数据处理
*/
// 查看表中数据
Table t1 = tableenv.scan("student").where("name='wangwu'");
// 将表转换为DataStream类型
DataStream<Tuple3<String, String,Integer>> ds = tableenv.toAppendStream(t1,TypeInformation.of(new TypeHint<Tuple3<String, String,Integer>>(){}));
// 输出数据
ds.writeAsCsv("E:\\IDEAProject\\Flink_Case\\FlinkDemo\\src\\main\\java\\gongcheng21\\datasets\\wangwu.csv", FileSystem.WriteMode.OVERWRITE);
env.execute();