使用SpringBoot调用Kafka

一、Kafka基本介绍

  • Kafka是一种分布式消息队列系统,按照一定的顺序持久化保存数据,可以按需读取,具备一定的故障保护和性能伸缩能力;
  • Kafka中数据单元被称为消息(Message),可以理解为数据库中的一条记录;
  • 消息分批次写入Kafka,消息可以用不同的模式去组织(例如JSON),消息的模式称之为Schema;
  • 消息可以通过主题(Topic)进行分类,不同的消息具有不同的Topic;
  • 主题被存放在不同的分区(Partition)之中,存放数据的一个独立的Kafka服务器被称为Broker,Broker是服务器集群的一部分,一个分区从属于一个Broker,该Broker称为分区的首领,一个分区分给多个Broker,会产生分区的复制;
  • 生产者(Producer)用于发送数据到Kafka,基于不通过的业务逻辑,一个消息发布到一个特定的Topic上,通过负载均衡的原则将消息映射到不同的Partition上;
  • 消费者(Consumer)可以订阅一个或者多个主题,进行消息的读取,消费者通过检查分区的偏移量顺序的读取消息,一个或者多个Consumer可以共同读取一个主题,他们构成一个消费者组(Consumer)。

二、Kafka启动与配置

  • Kafka安装(MAC)
    brew install kafka
  • Kafka启动
  zookeeper-server-start /usr/local/etc/kafka/zookeeper.properties
  kafka-server-start /usr/local/etc/kafka/server.properties
  • 创建topic
kafka-topics --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic shgx
  • 查看创建的topic
kafka-topics --list --zookeeper localhost:2181
  • 发送一些消息
kafka-console-producer --broker-list localhost:9092 --topic shgx
   >test1
   >test2
   >test3
   Ctrl+Z停止
  • 消费消息
kafka-console-consumer --bootstrap-server localhost:9092 --topic shgx --from-beginning
   test1
   test2
   test3

三、SpingBoot依赖

在pom.xml中添加kafka依赖


            org.springframework.kafka
            spring-kafka

四、模型框架

  • 背景:本Project实现了Kafka消息的生产与消费,其中消息以微博消息为例设置了Schema,Producer包括WebSerives以及FileLoad两种方式,Consumer用于验证消息是否发送成功,实现了Kafka简易版的配置,用于理解Kafka处理数据的过程
  • 结构框架


    项目框架.png

1.Kafka-Schema

public class SchemaData {
    private Long userId;
    private String title;
    private String message;
    private int likes;
    private String comments;
    private String sendTime;
    private Boolean delete;
    //省略get set方法以及toString方法
}

2. Kafka-Producer

2.1 WebServices发送数据

  • 2.1.1 POST接收数据
@RequestMapping(value = "/producer", method = RequestMethod.POST)
@ResponseStatus(value = HttpStatus.OK)
public String postToProduce (@RequestBody SchemaData[] schemaDataArray) {
     postProducer.produceFromService(schemaDataArray);
     return "Send Success!!!";
}
  • 2.1.2 数据处理方式
public void produceFromService(SchemaData[] schemaDataArray) {
        for (SchemaData message : schemaDataArray) {
            log.info("++++++++++++  message = {}", gson.toJson(message));
            kafkaTemplate.send(topic, gson.toJson(message));
        }
 }

2.2 从File中读取数据

public  void produceFromFile (ArrayList fileLineIterators){
        for (LineIterator lineIterator : fileLineIterators) {
            while(lineIterator.hasNext()) {
                String line = lineIterator.nextLine();
                //parseFile工具用于将一行文件转为SchemaData
                SchemaData message = fileWatcher.parseFile(line);
                log.info("++++++++++++ message = {}", gson.toJson(message));
                //将meaasge发送给指定的topic
                kafkaTemplate.send(topic, gson.toJson(message));
            }
        }
 }

3.Kafka-Consumer

@KafkaListener(topics = {TOPIC})
public void listen(ConsumerRecord record) {
        Optional kafkaMessage = Optional.ofNullable(record.value());
        if (kafkaMessage.isPresent()) {
            Object message = kafkaMessage.get();
            log.info("------------ record =" + record);
            log.info("------------ message =" + message);
        }
 }   

五、项目代码

仅供参考,转载请注明出处
github源码
欢迎提问交流

你可能感兴趣的:(使用SpringBoot调用Kafka)