8. 自定义拦截器Interceptor

文章目录

    • 自定义拦截器Interceptor
      • 1. 拦截器原理
      • 2. 拦截器案例
        • 2.1 需求
        • 2.2 代码实现
            • TimeInterceptor
            • CounterInterceptor
            • InterceptorProducer
        • 2.3 测试

自定义拦截器Interceptor

1. 拦截器原理

  1. Producer 拦截器(interceptor)是在 Kafka 0.10 版本被引入的,主要用于实现 clients 端的定制化控制逻辑。
  2. 对于 producer 而言,interceptor 使得用户在消息发送前以及 producer 回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。
  3. 同时,producer 允许用户指定多个 interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor 的实现接口是org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:
  • configure(configs)
    • 获取配置信息和初始化数据时调用。
  • onSend(ProducerRecord):
    • 该方法封装进 KafkaProducer.send 方法中,即它运行在用户主线程中。Producer 确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的 topic 和分区,否则会影响目标分区的计算。
  • onAcknowledgement(RecordMetadata, Exception)
    • 该方法会在消息从 RecordAccumulator 成功发送到 Kafka Broker 之后,或者在发送过程中失败时调用。并且通常都是在 producer 回调逻辑触发之前。onAcknowledgement 运行在producer 的 IO 线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢 producer 的消息发送效率。
  • close
    • 关闭 interceptor,主要用于执行一些资源清理工作如前所述,interceptor 可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个 interceptor,则 producer 将按照指定顺序调用它们,并仅仅是捕获每个 interceptor 可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。

2. 拦截器案例

2.1 需求

实现一个简单的双 interceptor 组成的拦截链。

  • 第一个 interceptor 会在消息发送前将时间戳信息加到消息value 的最前部;
  • 第二个 interceptor 会在消息发送后更新成功发送消息数或失败发送消息数。
  • 8. 自定义拦截器Interceptor_第1张图片

2.2 代码实现

TimeInterceptor

增加时间戳拦截器

/**
 * @Date 2020/8/21 13:59
 * @Version 10.21
 * @Author DuanChaojie
 */
public class TimeInterceptor implements ProducerInterceptor<String,String> {


    @Override
    public void configure(Map<String, ?> configs) {

    }

    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
        String topic = record.topic();
        Integer partition = record.partition();
        Long timestamp = record.timestamp();
        String key = record.key();
        String value = record.value();
        // 创建一个新的 record,把时间戳写入消息体的最前部
        return  new  ProducerRecord(topic,partition,timestamp,key,System.currentTimeMillis()+"," +value);
    }

    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {

    }

    @Override
    public void close() {

    }

}
CounterInterceptor

统计发送消息成功和发送失败消息数,并在 producer 关闭时打印这两个计数器。

/**
 * @Date 2020/8/21 14:04
 * @Version 10.21
 * @Author DuanChaojie
 */
public class CounterInterceptor implements ProducerInterceptor {
    private int success;
    private int error;

    @Override
    public void configure(Map<String, ?> configs) {

    }

    @Override
    public ProducerRecord onSend(ProducerRecord record) {
        return record;
    }

    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
        // 统计成功和失败的次数
        if (metadata != null) {
            success++;
        } else {
            error++;
        }
    }

    @Override
    public void close() {
        System.out.println("success = " + success);
        System.out.println("error = " + error);
    }


}
InterceptorProducer
public class InterceptorProducer {
    public static void main(String[] args) {

        // 1,生产者的配置信息
        Properties properties = new Properties();
        //配置属性可以使用工具类,ProducerConfig,ConsumerConfig,CommonClientConfigs
        properties.put("bootstrap.servers", "hadoop102:9092");
        properties.put("acks", "all");
        properties.put("retries", 3);
        properties.put("batch.size", 16384);
        properties.put("linger.ms", 1);
        properties.put("buffer.memory", 33554432);
        properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        // 构建拦截链
        List<String> interceptors = new ArrayList<>();
        interceptors.add("com.atguigu.interceptor.TimeInterceptor");
        interceptors.add("com.atguigu.interceptor.CounterInterceptor");
        properties.put("interceptor.classes",interceptors);


        // 创建生产者对象
        Producer<String,String> producer = new KafkaProducer<>(properties);

        // 发送数据
        for (int i = 0; i < 10; i++) {
            producer.send(new ProducerRecord<>("first","atguigu---"+i),(metadata, exception) -> {
                if (exception == null) {
                    System.out.println(metadata.partition() + "-----------"+ metadata.offset());
                }else {
                    exception.printStackTrace();
                }
            });
        }


        // 一定要关闭 producer,这样才会调用 interceptor 的 close 方法
        producer.close();
    }
}

2.3 测试

#在 kafka 上启动消费者,然后运行客户端 java 程序
bin/kafka-console-consumer.sh --zookeeper hadoop:2181 --topic first

#结果:
##Java客户端:
1-----------0
1-----------1
1-----------2
1-----------3
1-----------4
0-----------0
0-----------1
0-----------2
0-----------3
0-----------4
success = 10
error = 0

##Kafka消费端
1597996076908,atguigu---1
1597996076909,atguigu---3
1597996076909,atguigu---5
1597996076909,atguigu---7
1597996076910,atguigu---9
1597996076725,atguigu---0
1597996076909,atguigu---2
1597996076909,atguigu---4
1597996076909,atguigu---6
1597996076909,atguigu---8

org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms

测试中遇到的问题:上面是解决方案。

你可能感兴趣的:(kafka,大数据,kafka)