Kafka-Producer

1、生产者

从编程的角度而言,生产者是一个消息的生产者,它负责创建消息并发送到Kafka集群中的一个或多个topic中。

1.1、客户端开发

一个正常的生产逻辑需要具备以下几个步骤:

  1. 配置生产者客户端参数及创建相应的生产者实例
  2. 构建待发送的消息
    • public ProducerRecord(String topic, V value)
    • public ProducerRecord(String topic, Integer partition, Long timestamp, K key, V value, Iterable
      headers)
    • public ProducerRecord(String topic, Integer partition, K key, V value)
    • public ProducerRecord(String topic, K key, V value)
    • public ProducerRecord(String topic, V value, Iterable
      headers)
    • public ProducerRecord(String topic, K key, V value, Iterable
      headers)
    • public ProducerRecord(String topic, Integer partition, K key, V value, Iterable
      headers)
    • public ProducerRecord(String topic, Integer partition, Long timestamp, K key, V value)
  3. 发送消息
    • 同步发送(sync)
    • 异步发送(async)
      • producer.send(record).get()
    • 发后即忘(fire-and-forget)
  4. 关闭生产者实例

配置生产者客户端参数及创建相应的生产者实例

/**
 * @author supanpan
 * @date 2023/11/20
 */
public class KafkaProducerAnalysis {
  public static final String brokerList = "localhost:9092";
  public static final String topic = "topic-demo";

  /**
   * bootstrap.servers 该参数用来指定生产者客户端连接Kafka集群所需的broker地址清单,格式为host:port,host2:port2
   * serializer 该参数指定了用来对消息key进行序列化的序列化器类,key.serializer和value.serializer两个参数需要设置,必须填写序列化器的全限定类名
   * client.id 该参数用来设置生产者客户端的ID,是一个字符串,如果不设置,KafkaProducer会自动生成一个非空字符串,格式为"producer-1"、"producer-2"等
   *
   */
  public static Properties initConfig() {
    Properties props = new Properties();
    props.put("bootstrap.servers", brokerList);
    props.put("key.serializer",
            "org.apache.kafka.common.serialization.StringSerializer");
    props.put("value.serializer",
            "org.apache.kafka.common.serialization.StringSerializer");
    props.put("client.id", "producer.client.id.demo");
    return props;
  }

  /**
   * 防止配置书写错误,使用ProducerConfig类中的常量来设置参数
   * @return
   */
  public static Properties initNewConfig() {
    Properties props = new Properties();
    props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokerList);
    props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
            "org.apache.kafka.common.serialization.StringSerializer");
    props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
            "org.apache.kafka.common.serialization.StringSerializer");
    props.put(ProducerConfig.CLIENT_ID_CONFIG, "producer.client.id.demo");
    return props;
  }

  /**
   * 通过反射的方式来设置参数,获取序列化器的全限定类名
   *
   */
  public static Properties initPerferConfig() {

    Properties props = new Properties();
    props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokerList);
    props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
            StringSerializer.class.getName());
    props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
            StringSerializer.class.getName());

    return props;
  }

  public static void main(String[] args) throws InterruptedException {
    Properties props = initConfig();
    KafkaProducer<String, String> producer = new KafkaProducer<>(props);

//        KafkaProducer producer = new KafkaProducer<>(props,
//                new StringSerializer(), new StringSerializer());
    // 创建ProducerRecord对象,其中topic、value是必填项,其余属性都是可选项,partition、timestamp、key、headers
    ProducerRecord<String, String> record = new ProducerRecord<>(topic, "hello, Kafka!");
    try {
      producer.send(record);
              // 异步发送,获取回调对象获取发送结果
//            producer.send(record, new Callback() {
//                @Override
//                public void onCompletion(RecordMetadata metadata, Exception exception) {
//                    if (exception == null) {
//                        System.out.println(metadata.partition() + ":" + metadata.offset());
//                    }
//                }
//            });
    } catch (Exception e) {
      e.printStackTrace();
    }finally {
        // 关闭生产者实例
        producer.close();
    }

//        TimeUnit.SECONDS.sleep(5);
  }
}

1.2、序列化

生产者需要用序列化器(Serializer)把对象转换成字节数组才能通过网路发送给Kafka。
消费者需要用反序列化器(Deserializer)把字节数组转换成相应的对象才能使用。
生产者使用的序列化器和消费者使用的反序列化器必须是一致的,否则消费者无法正常消费生产者发送的消息。

常见序列化器

  • ByteArray
  • ByteBuffer
  • Bytes
  • Double
  • Integer
  • Long
  • String

上面列举的序列化器都是Kafka提供的,如果需要自定义序列化器,需要实现Serializer接口
org.apache.kafka.common.serialization.Serializer,此接口有三个方法

  • configure(Map configs, boolean isKey)
    • 该方法主要用来配置当前类,通过传入的configs参数获取配置信息,isKey参数用来指明当前配置的是key的序列化器还是value的序列化器
  • serialize(String topic, T data)
    • 该方法用来将给定的对象序列化成字节数组
  • close()
    • 该方法用来关闭当前序列化器,一般情况下可以空实现
    • 如果实现了此方法,则必须保证此方法的幂等性

1.3、分区器

分区器Partitioner)是生产者在将消息发送到Kafka集群时,根据分区策略选择消息发送的分区。
Kafka提供了默认的分区策略,即DefaultPartitioner,该分区器会根据ProducerRecord对象中的key来计算分区号。

  • 如果key为null,则使用轮询的方式选择分区,如果key不为null,则使用key的hash值来计算分区号。
  • 如果需要自定义分区器,需要实现Partitioner接口org.apache.kafka.clients.producer.Partitioner,该接口有两个方法:

Partitioner接口的方法

  • configure(Map configs)
    • 该方法主要用来配置当前类,通过传入的configs参数获取配置信息
    • 该方法在创建分区器实例时调用一次,用来初始化分区器
    • 这个方法来自Partitioner的父接口Configurable,该接口还有一个方法void close(),用来关闭当前分区器,一般情况下可以空实现
  • partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster)
    • 该方法用来计算分区号
    • topic:当前消息所属的topic
    • key:当前消息的key
    • keyBytes:当前消息key的字节数组
    • value:当前消息的value
    • valueBytes:当前消息value的字节数组
    • cluster:当前Kafka集群的信息
    • 返回值:当前消息的分区号

自定义分区器

/**
 * 自定义分区器
 *
 */
public class DemoPartitioner implements Partitioner {
    private final AtomicInteger counter = new AtomicInteger(0);

    @Override
    public int partition(String topic, Object key, byte[] keyBytes,
                         Object value, byte[] valueBytes, Cluster cluster) {
        List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
        int numPartitions = partitions.size();
        if (null == keyBytes) {
            return counter.getAndIncrement() % numPartitions;
        } else
            return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
    }

    @Override
    public void close() {
    }

    @Override
    public void configure(Map<String, ?> configs) {
    }
}

实现自定义的DemoPartitioner分区器后,需要在配置文件中指定分区器的全限定类名,即partitioner.class属性。

配置添加方式:

  • props.put(“partitioner.class”, “com.supanpan.kafka.demo.partitioner.DemoPartitioner”);

  • props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, DemoPartitioner.class.getName());

1.4、生产者拦截器

拦截器Interceptor)是在消息在序列化和反序列化过程中对消息进行处理的组件,它是在消息生产者和消费者与Kafka集群之间的一个拦截点,可以在消息发送前和消费之后对消息进行一些定制化的操作。
Kafka拦截器有两种类型:

  • 生产者拦截器
  • 消费者拦截器

拦截器是Producer和Consumer的一个公共接口,分别对应两个子接口:ProducerInterceptor和ConsumerInterceptor。

  • ProducerInterceptor
    • public ProducerRecord onSend(ProducerRecord record);
    • public void onAcknowledgement(RecordMetadata metadata, Exception exception);
    • public void close();
    • public void configure(Map configs);
  • ConsumerInterceptor
    • public ConsumerRecords onConsume(ConsumerRecords records);
    • public void onCommit(Map offsets);
    • public void close();
    • public void configure(Map configs);
  • onSend方法会在消息被序列化以前和封装成ProducerRecord对象之后调用,可以利用该方法对消息进行定制化操作,比如修改消息的某些内容,或者增加消息的头部信息等。

生产者拦截器示例

public class ProducerInterceptorPrefix implements ProducerInterceptor<String, String> {
    private volatile long sendSuccess = 0;
    private volatile long sendFailure = 0;

    @Override
    public ProducerRecord<String, String> onSend(
            ProducerRecord<String, String> record) {
        String modifiedValue = "prefix1-" + record.value();
        return new ProducerRecord<>(record.topic(),
                record.partition(), record.timestamp(),
                record.key(), modifiedValue, record.headers());
//        if (record.value().length() < 5) {
//            throw new RuntimeException();
//        }
//        return record;
    }

    @Override
    public void onAcknowledgement(
            RecordMetadata recordMetadata,
            Exception e) {
        if (e == null) {
            sendSuccess++;
        } else {
            sendFailure++;
        }
    }

    @Override
    public void close() {
        double successRatio = (double) sendSuccess / (sendFailure + sendSuccess);
        System.out.println("[INFO] 发送成功率="
                + String.format("%f", successRatio * 100) + "%");
    }

    @Override
    public void configure(Map<String, ?> map) {
    }
}

在KafkaProducer的配置参数中指定拦截器的全限定类名,即interceptor.classes属性。

配置方式:

  • props.put(“interceptor.classes”, “com.supanpan.kafka.demo.interceptor.ProducerInterceptorPrefix”);

  • props.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, ProducerInterceptorPrefix.class.getName())

KafkaProducer中不仅可以指定一个拦截器,还可以指定多个拦截器形成拦截链,
多个拦截器的执行顺序与它们在配置文件中的顺序一致,即先配置的拦截器先执行,后配置的拦截器后执行,
配置的时候,各个拦截器之间使用逗号隔开

1.5、原理分析

整个生产者客户端由两个线程协调运行,这两个线程分别是main线程(主线程)和Sender线程(发送线程)。

  • main线程负责接收客户端的请求,将请求转发给Sender线程,然后等待Sender线程的响应结果。
    • 在主线程中由KafkaProducer创建消息,然后通过可能的拦截器、序列化器和分区器的作用之后缓存到消息累加器(RecordAccumulator,也称为消息收集器)中。
  • Sender线程负责从RecordAccumulator中拉取消息批次(Batch),并将消息批次发送给Kafka集群。
    • Sender线程将消息批次发送给Kafka集群后,会根据Kafka集群的响应结果,对消息批次中的消息进行分类,分为发送成功的消息和发送失败的消息。
    • Sender线程会将发送失败的消息重新放入RecordAccumulator中,等待下次发送。
    • Sender线程会将发送成功的消息提交给RecordAccumulator,RecordAccumulator会将消息从消息缓冲区中移除。

RecordAccumulator

  • 主要用来缓存消息以便Sender线程可以批量发送,进而减少网络传输的资源消耗以提升性能

  • RecordAccumulator内部维护了一个消息缓冲区,该缓冲区由多个消息批次组成,每个消息批次中可以存放多条消息。

  • RecordAccumulator内部的消息缓冲区是一个双端队列,每个消息批次都是一个双端队列中的一个元素。

    • 主线程中发送过来的消息都会被追加到RecordAccumulator的某个双端队列(Deque)中,在RecordAccumulator的内部为每个分区都维护了一个双端队列,队列中的内容就是ProducerBatch,即Deque < ProducerBatch >。
    • 消息写入缓存时,追加到双端队列的尾部
    • Sender读取消息时,从双端队列的头部读取
  • RecordAccumulator内部的消息缓冲区中的消息批次是按照消息的topic和partition进行组织的,即每个topic-partition对应一个消息批次。

消息发送流程
  1. KafkaProducer.send()方法将消息发送给KafkaProducer内部的RecordAccumulator(消息累加器)。
  2. KafkaProducer内部的Sender线程不断从RecordAccumulator中拉取消息批次(Batch),并将消息批次发送给Kafka集群。
  3. KafkaProducer内部的Sender线程将消息批次发送给Kafka集群后,会根据Kafka集群的响应结果,对消息批次中的消息进行分类,分为发送成功的消息和发送失败的消息。
  4. KafkaProducer内部的Sender线程会将发送失败的消息重新放入RecordAccumulator中,等待下次发送。
  5. KafkaProducer内部的Sender线程会将发送成功的消息提交给RecordAccumulator,RecordAccumulator会将消息从消息缓冲区中移除。
消息发送失败的情况
  1. 消息发送失败的情况
  • 消息发送失败的情况主要有两种:
    • 一种是消息发送失败,但是可以重试,比如网络异常等。
    • 另一种是消息发送失败,且不可重试,比如消息太大、消息格式错误等。
  • 对于第一种情况,KafkaProducer内部的Sender线程会将发送失败的消息重新放入RecordAccumulator中,等待下次发送。
  • 对于第二种情况,KafkaProducer内部的Sender线程会将发送失败的消息放入RecordAccumulator中,但是不会重试发送,因为这种情况下消息是不可恢复的。
  1. 消息发送失败的处理
    • 消息发送失败的处理主要有两种方式:
      • 一种是将消息发送失败的异常抛出给用户,由用户来决定如何处理。
      • 另一种是将消息发送失败的异常记录到日志中,然后由KafkaProducer内部的Sender线程来处理。
    • KafkaProducer内部的Sender线程会将发送失败的消息重新放入RecordAccumulator中,等待下次发送。
    • KafkaProducer内部的Sender线程会将发送成功的消息提交给RecordAccumulator,RecordAccumulator会将消息从消息缓冲区中移除。

1.6、重要的生产者参数

  1. acks
    • 这个参数用来指定分区中必须要有多少个副本收到这条消息,之后生产者才会认为这条消息是成功写入的
    • acks默认值
      • acks=0
        • 生产者在成功写入消息之前不会等待任何来自服务器的响应
        • acks设置为0可以达到最大的吞吐量,但是会丢失一些消息
      • acks=1
        • 默认值即为1,生产者发送消息之后,只要分区的leader副本成功写入消息,那么它就会收到来自服务端的成功响应
        • 如果leader副本在成功写入消息之后,但是还没有来得及将消息同步到所有的follower副本之前,这时候如果leader副本宕机,那么这条消息就会丢失
        • 为了避免消息丢失,生产者可以选择重发消息
      • acks=all 或 acks=-1
        • 生产者发送消息之后,只有当分区的leader副本成功写入消息,并且所有的follower副本都成功写入消息之后,生产者才会收到来自服务端的成功响应
      • 这种情况下,只要有一个副本存活,那么这条消息就不会丢失
      • 但是这种情况下,由于需要等待所有的副本都成功写入消息之后,生产者才会收到来自服务端的成功响应,所以生产者的吞吐量会受到影响
      • 在这个模式下可以达到最强的可靠性
    • 参数配置方式(注意都是字符串形式)
      • properties.put(“acks”, “0”);
      • properties.put(ProducerConfig.ACKS_CONFIG, “0”);
  2. max.request.size
    • 该参数用来指定生产者发送消息的最大值,默认值为1048576字节,即1MB
    • 如果生产者发送的消息大小超过了max.request.size参数指定的值,那么生产者会抛出RecordTooLargeException异常
    • 参数配置方式
      • properties.put(“max.request.size”, “10485760”);
      • properties.put(ProducerConfig.MAX_REQUEST_SIZE_CONFIG, 10485760);
  3. retries & retry.backoff.ms
    • retries参数用来指定生产者发送消息失败后,重试发送的次数,默认值为0,即不进行重试
    • retry.backoff.ms参数用来指定两次重试发送消息的间隔,默认值为100ms,避免无效的频繁重试
    • 参数配置方式
      • properties.put(“retries”, “3”);
      • properties.put(ProducerConfig.RETRIES_CONFIG, 3);
      • properties.put(“retry.backoff.ms”, “500”);
      • properties.put(ProducerConfig.RETRY_BACKOFF_MS_CONFIG, 500);
  4. compression.type
  • 该参数用来指定消息的压缩类型,默认值为none,即不压缩
  • 常见配置
    • none:不压缩
    • gzip:使用GZIP算法压缩
    • snappy:使用Snappy算法压缩
    • lz4:使用LZ4算法压缩
  • 参数配置方式
    • properties.put(“compression.type”, “gzip”);
    • properties.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, “gzip”);
  1. connections.max.idle.ms
  • 该参数用来指定生产者与Kafka集群建立连接的空闲时间,默认值为540000,即9分钟
  1. linger.ms
  • 该参数用来指定生产者在发送消息前等待一段时间,希望可以等到更多的消息一起发送,以减少网络请求的次数,从而提升性能,默认值为0,即立即发送
  • 参数配置方式
    • properties.put(“linger.ms”, “1000”);
    • properties.put(ProducerConfig.LINGER_MS_CONFIG, 1000);
  1. receive.buffer.bytes
  • 该参数用来指定Socket接收消息缓冲区(SO_RECBUF)大小,默认值为32768字节,即32KB
  • 参数配置方式
    • properties.put(“receive.buffer.bytes”, “65536”);
    • properties.put(ProducerConfig.RECEIVE_BUFFER_CONFIG, 65536);
  1. send.buffer.bytes
  • 该参数用来指定Socket发送消息缓冲区(SO_SNDBUF)大小,默认值为131072字节,即128KB
  • 参数配置方式
    • properties.put(“send.buffer.bytes”, “131072”);
    • properties.put(ProducerConfig.SEND_BUFFER_CONFIG, 131072);
  1. request.timeout.ms
  • 该参数用来指定生产者发送消息到Kafka集群时等待响应的最大时间,默认值为30000,即30秒
  • 参数配置方式
    • properties.put(“request.timeout.ms”, “60000”);
    • properties.put(ProducerConfig.REQUEST_TIMEOUT_MS_CONFIG, 60000);

你可能感兴趣的:(kafka,linq,分布式)