kafka 消费者代码示例

kafka 消费者代码示例

  • 最近在公司项目中使用kafka,主要的功能是从kafka消费数据,并且将数据以对象的方式写入自定义的日志文件中,每天生产一个日志文件。
    一开始使用高版本的kafka(0.9.0.0)
    maven配置
 <dependency>
      <groupId>org.apache.kafkagroupId>
      <artifactId>kafka-clientsartifactId>
      <version>0.9.0.0version>
 dependency>
public void process() {
        KafkaConsumer consumer = new KafkaConsumer<>(kafkaConfig.consumerProperties());
        List topicList = new ArrayList<>();
        topicList.add(kafkaConfig.getTopic());
        consumer.subscribe(topicList);
        try {
            while (flag) {
                System.out.println("定时执行consumer、、、");
                long start = System.currentTimeMillis();
                ConsumerRecords records = consumer.poll(kafkaConfig.getPollTime());
                for (ConsumerRecord record : records){
                    ClientRequestsModel model = (ClientRequestsModel) JsonUtils.json2Object(record.value(), ClientRequestsModel.class);
                    System.out.println("**********");
                    saveResult(model);
                }
                System.out.println("本次耗时:" + (System.currentTimeMillis() - start));
            }
            System.out.println("这里是while循环外面");
        } finally {
            consumer.close();
        }
    }
  1. 最后发现上面的代码并不能完美的解决问题,首先while循环一直执行,导致System.out.println(“这里是while循环外面”);这句代码不会执行到,因为while在这里会阻塞;
  2. 其次这里用的是kafka0.9的版本,自kafka0.8.x版本后kafka的offset的管理就提交给broker了,并没有提交给zookeeper,导致在使用kafka monitor监控数据的时候不显示consumer的offset信息,虽然kafka中国社区群(162272557)里面的大神说kafka monitor可以通过配置来让其支持高版本的kafka,但是毕竟kafka monitor是运维人员搭建的还要麻烦运维实在不好;
  3. 另外一个最不好的地方是与业务上有关联,应该要脱离业务,将kafka独立出来。

为了解决问题2决定采用低版本的kafka


 
 
 
 <dependency>
     <groupId>org.apache.kafkagroupId>
     <artifactId>kafka_2.10artifactId>
     <version>0.8.2.2version>
 dependency>

为了解决问题1和3,在社区大神的指导下进行了重构,代码如下:
对外消费方法

/**
     * 旧版本0.8.2.2处理消息方法
     */
    public void kafkaProcess() {
        ConsumerConnector consumerConnector = kafka.consumer.Consumer.createJavaConsumerConnector(kafkaConfig.createAdPvConsumerConfig());
        String topic = kafkaConfig.getAdPvtopic();
        String topic2 = kafkaConfig.getAdDevRegtopic();
        Map topicCountMap = new HashMap();
        int localConsumerCount = 1;
        topicCountMap.put(topic, localConsumerCount);
        topicCountMap.put(topic2, localConsumerCount);

        Mapbyte[], byte[]>>> consumerMap = consumerConnector
                .createMessageStreams(topicCountMap);
        for (Map.Entrybyte[], byte[]>>> kafkaStream : consumerMap.entrySet()) {
            new KafkaHandler(kafkaStream.getValue()).run();
        }

    }

KafkaHandler类

package com.coocaa.salad.stat.kafka;

import kafka.consumer.KafkaStream;

import java.util.Iterator;
import java.util.List;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

/**
 * Created by silence on 2016/10/18.
 * Desc :
 */
public class KafkaHandler extends Thread {
    Listbyte[], byte[]>> kafkaStreams;

    public KafkaHandler(Listbyte[], byte[]>> kafkaStreams) {
        super();
        this.kafkaStreams = kafkaStreams;
    }

    ExecutorService service = Executors.newFixedThreadPool(2);

    public void run() {
        try {
            Iteratorbyte[], byte[]>> iterator = kafkaStreams.iterator();
            while (iterator.hasNext()) {
                KafkaStream<byte[], byte[]> next = iterator.next();
                service.submit(new MessageHandler(next));
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

MessageHandler 类

package com.coocaa.salad.stat.kafka;

import com.alibaba.fastjson.JSON;
import com.coocaa.salad.core.entity.AdScheduleEntity;
import com.coocaa.salad.stat.entity.AdOrderEntity;
import com.coocaa.salad.stat.entity.CustomerEntity;
import com.coocaa.salad.stat.logFile.MyLogger;
import com.coocaa.salad.stat.model.ClientRequestsModel;
import com.coocaa.salad.stat.model.StatisticsModel;
import com.coocaa.salad.stat.service.ConstantService;
import com.origin.eurybia.utils.JsonUtils;
import com.origin.eurybia.utils.StringUtils;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.message.MessageAndMetadata;
import org.apache.log4j.Logger;
import org.slf4j.LoggerFactory;

/**
 * Created by silence on 2016/10/18.
 * Desc :
 */
public class MessageHandler extends Thread {
    private static final Logger logger = Logger.getLogger("messageHandler");
    private static final org.slf4j.Logger log = LoggerFactory.getLogger(MessageHandler.class);
    KafkaStream kafkaStreams;

    public MessageHandler(KafkaStream kafkaStreams) {
        super();
        this.kafkaStreams = kafkaStreams;
    }

    public void run() {
        //处理kafka数据
        ConsumerIterator streamIterator = kafkaStreams.iterator();
        ClientRequestsModel model = new ClientRequestsModel();
        while (streamIterator.hasNext()) {
            log.info("开始处理kafka数据。。。");
            MessageAndMetadata record = streamIterator.next();
            String message = new String(record.message());
            log.info("{} topic 的数据,写入{}日志文件中。。。", record.topic(), record.topic());
            if (record.topic().equals("adPv")) {
                model = (ClientRequestsModel) JsonUtils.json2Object(message, ClientRequestsModel.class);
                //保存数据到日志文件中
            } else if (record.topic().equals("adDevReg")) {
                MyLogger.myInfo2(logger, message);
            }
        }
    }

上面的MessageHandler 是同时消费两个topic,可以根据自己的需要进行设置。MyLogger.myInfo2(logger, message);是将信息写入自定义的日志级别的文件中,通过log4j写日志的方式写文件,可以快速并且高效的写入,写入速度还是挺快的。推荐使用。关于如何使用自定义log4j网上有例子,也可以看我另一篇博客。

至此,以上的三个问题都已经解决,但是对于使用低版本的kafka,内心是拒绝的,可是没有办法,至今kafka还没有发布1.0,高版本不稳定。期待新版本的发布。

kafka 消费者代码示例_第1张图片

你可能感兴趣的:(消息队列,kafka,kafka,消费者,自定义日志,kafka消费者)