Flink -- Sink输出

Flink--Sink输出

  • kafka
  • Redis
  • Elasticsearch
  • JDBC自定义sink

​Flink没有类似于spark中foreach方法,让用户进行迭代的操作。虽有对外的输出操作都要利用Sink完成。最后通过类似如下方式完成整个任务最终输出操作。

stream.addSink(new MySink(xxxx)) 

​ 官方提供了一部分的框架的sink。除此以外,需要用户自定义实现sink。

Flink -- Sink输出_第1张图片

kafka

// 从Kafka中读取数据
DataStream<String> inputStream = env.addSource( new FlinkKafkaConsumer<String>("sensor", new SimpleStringSchema(), properties));

// 将数据写入Kafka
dataStream.addSink( new FlinkKafkaProducer<String>("localhost:9092", "sinktest", new SimpleStringSchema()));

Redis

FlinkJedisPoolConfig config = new FlinkJedisPoolConfig.Builder()
         .setHost("localhost")
         .setPort(6379)
         .setPassword("123456")
         .setDatabase(0)
         .build();
         
dataStream.addSink(new RedisSink<>(config, new MyRedisMapper()));

Elasticsearch

List<HttpHost> httpHosts = new ArrayList<>();
httpHosts.add(new HttpHost("localhost", 9200));

dataStream.addSink( new ElasticsearchSink.Builder<SensorReading>(httpHosts, new MyEsSinkFunction()).build());

JDBC自定义sink

Flink之Mysql数据CDC

你可能感兴趣的:(Flink大数据框架,flink,kafka,big,data)