【配置篇】生产者配置总览[持续补充中..]

Producer实例化是初始化了60多项生产者配置项。这里整理的配置都是从源码中整理的。持续完善中…

配置项 描述 缺省值 作用
bootstrap.servers Kafka服务器地址列表,host1:port1,host2:port2格式配置
metadata.max.age.ms 元数据有效期毫秒值 5* 60 * 1000(5分钟) 更新本地缓存的的Kafka集群数据
batch.size 批量消息发送的大小byte 16*1024(16k) 指定ProducerBatch的大小 ,见配置详解 第1
acks ack数量,有多少个副本收到这条消息,之后生产者才会认为这条消息是成功写入的。 1 ack策略
linger.ms 延迟发送毫秒值 0 为了实现批处理而指定消息发送的最大延迟时间,见配置详解第2
client.id 客户单id,生产者默认“producer-int” “” 追踪消息
send.buffer.bytes 写缓冲区大小,-1将使用操作系统大小 128*1024(128k)
receive.buffer.bytes 读缓冲区大小,-1将使用操作系统大小 32*1024(32k)
max.request.size 最大请求size 1024*1024(1m)
reconnect.backoff.ms 客户端与服务器重新建立连接的间隔时间毫秒值 50
reconnect.backoff.max.ms 客户端与服务器重新建立连接的间隔最大时间毫秒值 1000
max.block.ms 最大阻塞毫秒值 60*1000(60s)
buffer.memory 生产者缓存总大小 32* 1024*1024(32m) 指定RecordAccumulator大小
retry.backoff.ms 重试间隔毫秒值 100
compression.type 数据压缩类型 “none”
max.in.flight.requests.per.connection 单个连接上能够发送的未响应请求的个数 指定请求队列InFlightRequests大小
retries
connections.max.idle.ms
request.timeout.ms
enable.idempotence
key.serializer
value.serializer
interceptor.classes
partitioner.class
transaction.timeout.ms
transactional.id
metric.reporters
metrics.sample.window.ms
metrics.num.samples
metrics.log.level
metrics.recording.level
metrics.num.samples
metrics.sample.window.ms
security.protocol
sasl.kerberos.ticket.renew.window.factor
sasl.mechanism
sasl.login.refresh.buffer.seconds
sasl.login.refresh.window.jitter
sasl.login.callback.handler.class
sasl.kerberos.min.time.before.relogin
sasl.client.callback.handler.class
sasl.jaas.config
sasl.kerberos.ticket.renew.jitter
sasl.kerberos.service.name
sasl.kerberos.kinit.cmd
sasl.login.refresh.min.period.seconds
sasl.login.refresh.window.factor
sasl.login.class
ssl.truststore.location
ssl.keystore.password
ssl.truststore.type
ssl.secure.random.implementation
ssl.key.password
ssl.trustmanager.algorithm
ssl.cipher.suites
ssl.keystore.location
ssl.enabled.protocols
ssl.provider
ssl.protocol
ssl.truststore.password
ssl.endpoint.identification.algorithm
ssl.truststore.password
ssl.keystore.type
ssl.keymanager.algorithm

你可能感兴趣的:(Kafka,kafka2.0,源码分析)