java客户端作为kafka生产者测试

【README】

1、本文主要对 java客户端作为kafka 生产者进行测试, 消费者由 centos的kafka命令行线程扮演; 

2、消息发送: kafka的生产者采用异步发送消息的方式,在消息发送过程中,涉及到2个线程——main线程和sender线程,以及一个线程共享变量 RecordAccumulator。main线程将消息发送给 RecordAccumulator,sender线程不断从 RecordAccumulator 中读取数据发送到 kafka broker;

3、开发环境

-- pom.xml
  
  
  	
  		org.apache.kafka
  		kafka-clients
  		0.11.0.0
  	
  	
	    org.slf4j
	    slf4j-simple
	    1.7.25
	    compile
  
  

-- log4j.properties
log4j.rootLogger=INFO, stdout  
log4j.appender.stdout=org.apache.log4j.ConsoleAppender  
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout  
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n  
log4j.appender.logfile=org.apache.log4j.FileAppender  
log4j.appender.logfile.File=target/spring.log  
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout  
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n  

【0】 生产者同步发送消息

为啥需要同步发送? 因为 kafka可以保证单个分区内消息有序,但无法保证全局有序,即多个分区消息有序; 

存在一些业务场景,需要消息有序;

/* 10.同步发送数据 */ 
		for (int i = 0; i < 10; i++) { 
			try {
				Future future = producer.send(new ProducerRecord<>("first100", "first100-20210101--D" + i));
				RecordMetadata rMetadata = future.get(); // 调用future的get方法,让main线程阻塞,就可以实现同步发送 
			} catch (Exception e) {
				e.printStackTrace();
			} 
		}

 

 

下面都是异步发送

【1】普通生产者

1.1、生产者代码 

/**
 * 普通生产者 
 */
public class MyProducer {
	public static void main(String[] args) {
		/* 1.创建kafka生产者的配置信息 */
		Properties props = new Properties();
		/*2.指定连接的kafka集群, broker-list */
		props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "centos201:9092");  
		/*3.ack应答级别*/
		props.put(ProducerConfig.ACKS_CONFIG, "all");
		/*4.重试次数*/ 
		props.put(ProducerConfig.RETRIES_CONFIG, 3); 
		/*5.批次大小,一次发送多少数据,当数据大于16k,生产者会发送数据到 kafka集群 */
		props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16 * KfkNumConst._1K);  
		/*6.等待时间, 等待时间超过1毫秒,即便数据没有大于16k, 也会写数据到kafka集群 */
		props.put(ProducerConfig.LINGER_MS_CONFIG, 1); 
		/*7. RecordAccumulator 缓冲区大小*/ 
		props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 32 * KfkNumConst._1M);  
		/*8. key, value 的序列化类 */ 
		props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
		props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
		
		System.out.println(props); 
		/* 9.创建生产者对象 */
		KafkaProducer producer = new KafkaProducer<>(props);  
		/* 10.发送数据 */ 
		for (int i = 0; i < 10; i++) { 
			Future future = producer.send(new ProducerRecord<>("first100", "first100-20210101--D" + i));
			try {
				System.out.println(future.get().partition() + "-" + future.get().offset());
			} catch (Exception e) {
				e.printStackTrace();
			} 
		}
		/* 11.关闭资源 */  
		producer.close();
		System.out.println("kafka生产者写入数据完成"); 
	} 
}
-- 日志 
0-183203
0-183204
0-183205
0-183206
0-183207
0-183208
0-183209
0-183210
0-183211
0-183212
kafka生产者写入数据完成

1.2、消费者

[root@centos201 ~]# kafka-console-consumer.sh --topic first100 --bootstrap-server centos201:9092
first100-20210101--D0
first100-20210101--D1
first100-20210101--D2
first100-20210101--D3
first100-20210101--D4
first100-20210101--D5
first100-20210101--D6
first100-20210101--D7
first100-20210101--D8
first100-20210101--D9

【2】带回调的生产者

2.1、生产者

/**
		 * 带回调的生产者 
		 */
		for (int i = 0; i < 10; i++) { 
			Future future = producer.send(new ProducerRecord<>("first100", "first100-20210101--E" + i)
					, (metadata, exception)-> {
				/* lambda 表达式  */
				System.out.println(metadata.partition() + " -- " + metadata.offset());
			});
		}

2.2、消费者

first100-20210101--E0
first100-20210101--E1
first100-20210101--E2
first100-20210101--E3
first100-20210101--E4
first100-20210101--E5
first100-20210101--E6
first100-20210101--E7
first100-20210101--E8
first100-20210101--E9

【3】创建分区策略的生产者 (指定分区)

0、查看topic, 4个分区,3个副本

[root@centos201 ~]# kafka-topics.sh --describe --topic aaa --zookeeper centos201:2181
Topic:aaa       PartitionCount:4        ReplicationFactor:3     Configs:
        Topic: aaa      Partition: 0    Leader: 2       Replicas: 2,1,3 Isr: 1,2,3
        Topic: aaa      Partition: 1    Leader: 3       Replicas: 3,2,1 Isr: 1,2,3
        Topic: aaa      Partition: 2    Leader: 1       Replicas: 1,3,2 Isr: 2,1,3
        Topic: aaa      Partition: 3    Leader: 2       Replicas: 2,3,1 Isr: 1,2,3

3.1、生产者

props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, MyPartitioner.class.getName()); // 设置分区器 
		/* 9.创建生产者对象 */
		KafkaProducer producer = new KafkaProducer<>(props);  
		/* 10.发送数据 */ 
		for (int i = 0; i < 10; i++) { 
			Future future = producer.send(new ProducerRecord<>("aaa", "aaa-key", "aaa-20210101--B" + i)
					, (metadata, exception)-> {
						/* lambda 表达式  */
						System.out.println(metadata.partition() + " -- " + metadata.offset());
			});
		}

-- 日志
1 -- 112
1 -- 113
1 -- 114
1 -- 115
1 -- 116
1 -- 117
1 -- 118
1 -- 119
1 -- 120
1 -- 121
kafka生产者写入数据完成

3.2、自定义分区器 

/**
 * 自定义分区器
 */
public class MyPartitioner implements Partitioner {

	@Override
	public void configure(Map configs) {
		
	}

	@Override
	public int partition(String topic, Object key, byte[] keyBytes,
			Object value, byte[] valueBytes, Cluster cluster) {
		Integer integer = cluster.partitionCountForTopic(topic);
		
		return 1;
	}

	@Override
	public void close() {
		
	}
}

3.3、消费者

[root@centos201 ~]# kafka-console-consumer.sh --topic aaa --bootstrap-server centos201:9092
aaa-20210101--C0
aaa-20210101--C1
aaa-20210101--C2
aaa-20210101--C3
aaa-20210101--C4
aaa-20210101--C5
aaa-20210101--C6
aaa-20210101--C7
aaa-20210101--C8
aaa-20210101--C9

小结: 可以查看,即便topic 有4个分区,但我在自定义分区器中指定写入到分区1, 所以生产者只把消息写到分区1; 

 

 

 

 

你可能感兴趣的:(kafka)