flink之kafka数据源之topic的分区和topic发现

flink之kafka数据源之topic的分区和topic发现设置

情景一:kafka因为后台数据增多,重新新增加分区,这时候需要在kafka中设置flink.partitions-discovery.interval-millis(设置时间为多少毫秒后天自动启动一个线程校验是否有新增分区)

情景二: 由于业务增多,需要新增一个topic,这时候需要设置kafka 匹配topic的名称的时候采用正则表达式flink之kafka数据源之topic的分区和topic发现_第1张图片

你可能感兴趣的:(kafka,flink,分布式)