1、本文主要对 java客户端作为kafka 生产者进行测试, 消费者由 centos的kafka命令行线程扮演;
2、消息发送: kafka的生产者采用异步发送消息的方式,在消息发送过程中,涉及到2个线程——main线程和sender线程,以及一个线程共享变量 RecordAccumulator。main线程将消息发送给 RecordAccumulator,sender线程不断从 RecordAccumulator 中读取数据发送到 kafka broker;
3、开发环境
-- pom.xml
org.apache.kafka
kafka-clients
0.11.0.0
org.slf4j
slf4j-simple
1.7.25
compile
-- log4j.properties
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
为啥需要同步发送? 因为 kafka可以保证单个分区内消息有序,但无法保证全局有序,即多个分区消息有序;
存在一些业务场景,需要消息有序;
/* 10.同步发送数据 */
for (int i = 0; i < 10; i++) {
try {
Future future = producer.send(new ProducerRecord<>("first100", "first100-20210101--D" + i));
RecordMetadata rMetadata = future.get(); // 调用future的get方法,让main线程阻塞,就可以实现同步发送
} catch (Exception e) {
e.printStackTrace();
}
}
1.1、生产者代码
/**
* 普通生产者
*/
public class MyProducer {
public static void main(String[] args) {
/* 1.创建kafka生产者的配置信息 */
Properties props = new Properties();
/*2.指定连接的kafka集群, broker-list */
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "centos201:9092");
/*3.ack应答级别*/
props.put(ProducerConfig.ACKS_CONFIG, "all");
/*4.重试次数*/
props.put(ProducerConfig.RETRIES_CONFIG, 3);
/*5.批次大小,一次发送多少数据,当数据大于16k,生产者会发送数据到 kafka集群 */
props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16 * KfkNumConst._1K);
/*6.等待时间, 等待时间超过1毫秒,即便数据没有大于16k, 也会写数据到kafka集群 */
props.put(ProducerConfig.LINGER_MS_CONFIG, 1);
/*7. RecordAccumulator 缓冲区大小*/
props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 32 * KfkNumConst._1M);
/*8. key, value 的序列化类 */
props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
System.out.println(props);
/* 9.创建生产者对象 */
KafkaProducer producer = new KafkaProducer<>(props);
/* 10.发送数据 */
for (int i = 0; i < 10; i++) {
Future future = producer.send(new ProducerRecord<>("first100", "first100-20210101--D" + i));
try {
System.out.println(future.get().partition() + "-" + future.get().offset());
} catch (Exception e) {
e.printStackTrace();
}
}
/* 11.关闭资源 */
producer.close();
System.out.println("kafka生产者写入数据完成");
}
}
-- 日志
0-183203
0-183204
0-183205
0-183206
0-183207
0-183208
0-183209
0-183210
0-183211
0-183212
kafka生产者写入数据完成
1.2、消费者
[root@centos201 ~]# kafka-console-consumer.sh --topic first100 --bootstrap-server centos201:9092
first100-20210101--D0
first100-20210101--D1
first100-20210101--D2
first100-20210101--D3
first100-20210101--D4
first100-20210101--D5
first100-20210101--D6
first100-20210101--D7
first100-20210101--D8
first100-20210101--D9
2.1、生产者
/**
* 带回调的生产者
*/
for (int i = 0; i < 10; i++) {
Future future = producer.send(new ProducerRecord<>("first100", "first100-20210101--E" + i)
, (metadata, exception)-> {
/* lambda 表达式 */
System.out.println(metadata.partition() + " -- " + metadata.offset());
});
}
2.2、消费者
first100-20210101--E0
first100-20210101--E1
first100-20210101--E2
first100-20210101--E3
first100-20210101--E4
first100-20210101--E5
first100-20210101--E6
first100-20210101--E7
first100-20210101--E8
first100-20210101--E9
0、查看topic, 4个分区,3个副本
[root@centos201 ~]# kafka-topics.sh --describe --topic aaa --zookeeper centos201:2181
Topic:aaa PartitionCount:4 ReplicationFactor:3 Configs:
Topic: aaa Partition: 0 Leader: 2 Replicas: 2,1,3 Isr: 1,2,3
Topic: aaa Partition: 1 Leader: 3 Replicas: 3,2,1 Isr: 1,2,3
Topic: aaa Partition: 2 Leader: 1 Replicas: 1,3,2 Isr: 2,1,3
Topic: aaa Partition: 3 Leader: 2 Replicas: 2,3,1 Isr: 1,2,3
3.1、生产者
props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, MyPartitioner.class.getName()); // 设置分区器
/* 9.创建生产者对象 */
KafkaProducer producer = new KafkaProducer<>(props);
/* 10.发送数据 */
for (int i = 0; i < 10; i++) {
Future future = producer.send(new ProducerRecord<>("aaa", "aaa-key", "aaa-20210101--B" + i)
, (metadata, exception)-> {
/* lambda 表达式 */
System.out.println(metadata.partition() + " -- " + metadata.offset());
});
}
-- 日志
1 -- 112
1 -- 113
1 -- 114
1 -- 115
1 -- 116
1 -- 117
1 -- 118
1 -- 119
1 -- 120
1 -- 121
kafka生产者写入数据完成
3.2、自定义分区器
/**
* 自定义分区器
*/
public class MyPartitioner implements Partitioner {
@Override
public void configure(Map configs) {
}
@Override
public int partition(String topic, Object key, byte[] keyBytes,
Object value, byte[] valueBytes, Cluster cluster) {
Integer integer = cluster.partitionCountForTopic(topic);
return 1;
}
@Override
public void close() {
}
}
3.3、消费者
[root@centos201 ~]# kafka-console-consumer.sh --topic aaa --bootstrap-server centos201:9092
aaa-20210101--C0
aaa-20210101--C1
aaa-20210101--C2
aaa-20210101--C3
aaa-20210101--C4
aaa-20210101--C5
aaa-20210101--C6
aaa-20210101--C7
aaa-20210101--C8
aaa-20210101--C9
小结: 可以查看,即便topic 有4个分区,但我在自定义分区器中指定写入到分区1, 所以生产者只把消息写到分区1;