kafka 解决大消息发送和接收报错问题

kafka消息超过一定大小会报错如下:

The message is 2044520 bytes when serialized which is larger than the maximum request size you have configured with the max.request.size configuration.

原因:Kafka 整个消息管道的默认口径是 1M,换句话说,默认 Producer 只能向 Kafka 发送大小不超过 1M 的消息,Kafka 内部也只能处理大小不超过 1M 的消息,Consumer 也只能消费大小不超过 1M 的消息。

改进:

配置以下配置设置最大上传大小解决:
  kafka:
    bootstrap-servers: xxx
    #生产者
    producer:
      # key/value的序列化
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      # 消息投递失败,重试次数
      retries: 1
      #最大发送数量
      batch-size: 20000
      #32MB的批处理缓冲区
      buffer-memory: 33554432
      properties:
        max:
          request:
            size: 20971520

kafka 解决大消息发送和接收报错问题_第1张图片
设置完成以后,kafka消息超过一定大小kafka服务器接收端会报错如下

RecordTooLargeException: The request included a message larger than the max message size the server will accept.

因此需要更改kafka配置文件:

kafka 解决大消息发送和接收报错问题_第2张图片

server.properties中添加:

message.max.bytes=5242880
#每个分区试图获取的消息字节数。要大于等于message.max.bytes
replica.fetch.max.bytes=6291456
#原有的socket.send.buffer.bytes,socket.receive.buffer.bytes,socket.request.max.bytes也要改成和message.max.bytes一样的大小

producer.properties中添加:

#请求的最大大小为字节。要小于 message.max.bytes
max.request.size = 5242880

consumer.properties中添加:

#每个提取请求中为每个主题分区提取的消息字节数。要大于等于message.max.bytes
fetch.message.max.bytes=6291456

重启kakfa:

#关闭kakfa
sh kafka-server-stop.sh
#启动 kakfa
nohup sh kafka-server-start.sh ../config/server.properties &

你可能感兴趣的:(kafka,java,分布式)