前置知识:
Kafka概述及使用
通过Java操作Kafka
<!--引入kafka依赖-->
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
此处我使用的是Kafka集群
server:
port: 8080
spring:
kafka:
bootstrap-servers: 192.168.145.13:9092, 192.168.145.13:9093, 192.168.145.13:9094 # kafka地址
producer: # 生产者
retries: 3 # 重试次数
batch-size: 16384
buffer-memory: 33554432
acks: 1
# 指定消息key和消息体的编码解码方式
key-serializer: org.apache.kafka.common.serialization.StringSerializer
value-serializer: org.apache.kafka.common.serialization.StringSerializer
consumer: # 消费者
group-id: default-group
enable-auto-commit: false
auto-offset-reset: earliest
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
max-poll-records: 500 # 一次最多拉500条消息
listener: # 配置监听
ack-mode: MANUAL_IMMEDIATE
@RestController
@RequestMapping("/msg")
public class KafkaController {
private final static String TOPIC_NAME = "my-replicated-topic";
@Autowired
private KafkaTemplate<String, String> kafkaTemplate;
@GetMapping("/send")
public String sendMsg(){
kafkaTemplate.send(TOPIC_NAME, 0, "key", "this is a message!");
return "send msg success";
}
}
@Component
public class MyConsumer {
@KafkaListener(topics = "my-replicated-topic", groupId = "MyGroup1")
public void listenGroup(ConsumerRecord<String, String> record, Acknowledgment ack){
String value = record.value();
System.out.println(value);
System.out.println(record);
//手动提交offset【如果不提交offset,会导致消息重复消费】
ack.acknowledge();
}
}
测试:
启动boot项目,访问地址:http://localhost:8080/msg/send, 发送消息,查看控制台打印信息
this is a message!
ConsumerRecord(topic = my-replicated-topic, partition = 0, leaderEpoch = 4, offset = 10,
CreateTime = 1668158942418, serialized key size = 3, serialized value size = 18, headers =
RecordHeaders(headers = [], isReadOnly = false), key = key, value = this is a message!)
@KafkaListener(groupId = "testGroup", topicPartitions = {
@TopicPartition(topic = "topic1", partitions = {"0", "1"}),
@TopicPartition(topic = "topic2", partitions = "0",
partitionOffsets = @PartitionOffset(partition = "1",
initialOffset = "100"))
}, concurrency = "3")
//concurrency就是同组下的消费者个数,就是并发消费数,建议⼩于等于分区总数
public void listenGroupPro(ConsumerRecord<String, String> record,
Acknowledgment ack) {
String value = record.value();
System.out.println(value);
System.out.println(record);
//⼿动提交offset
ack.acknowledge();
}
"MANUAL":当每⼀批poll()的数据被消费者监听器(ListenerConsumer)处理之后,
⼿动调⽤Acknowledgment.acknowledge()后提交
"MANUAL_IMMEDIATE":⼿动调⽤Acknowledgment.acknowledge()后⽴即提交,⼀般使⽤这种
# 最后取决于自己在配置文件中配置的listener的ack-mode模式
ack-mode: MANUAL_IMMEDIATE
每个broker启动时会向zk创建一个临时序号节点,获得的序号最小的那个broker将会作为集群中的controller,主要负责这么几件事:
- 当集群中有一个副本的leader挂掉,需要在集群中选举出一个新的leader,选举的规则是从ISR集合中最左边获得
- 当集群中有broker新增或减少,controller会同步信息给其他的broker
- 当集群中有分区新增或减少,controller会同步信息给其他broker
前提:消费组中的消费者没有指明分区来消费
触发的条件:当消费组中的消费者和分区关系发生变化的时候
分区分配的策略:在rebalance之前,分区怎么分配会有这么三种策略:
- range:根据公式计算得到每个消费者消费哪几个分区:前面的消费者实时分区总数/消费者数量+1,后面的消费者是分区总数/消费者数量
- 轮询:大家轮着来
- sticky:粘合策略,如果需要rebalance,会在之前已分配的基础上调整,不会改变之前的分配情况。如果这个策略没有打开,那么就要进行全部的重新分配。【建议开启】
LEO是某个副本最后消息的消息位置(log-end-offset)
HW(High Watermark,高水位)是已完成同步的位置。消息在写入broker时,且每个broker完成这条消息的同步后,hw才会变化。在这之前消费者是消费不到这条消息的。在同步完成之后,HW更新之后,消费者才能消费到这条消息,这样的目的是防止消息的丢失。
在防止消息丢失的方案中,如果生产者发送完消息后,因为网络抖动,没有收到ack,但实际上broker已经收到了。
此时生产者会进行重试,于是broker就会收到多条相同的消息,而造成消费者的重复消费。
解决方案:
幂等性:多次访问的结果是一样的。
对于Rest的请求来说:
- get:幂等
- post:非幂等
- put:幂等
- delete:幂等
解决办法
:
- 在数据库中创建主键
- 使用分布式锁,以业务id为锁。保证只有一条记录能够创建成功。
拓展:常见解决幂等性方案
四种幂等性解决方案
Kafka的顺序消费使用场景不多,因为牺牲了性能。【Rocketmq在顺序消费这一块有专门的功能,已经设计好】
1)消息积压问题的出现
消费者的消费速度远远赶不上生产者的生产速度,导致kafka中有大量的数据没有被消费。随着没有被消费的数据越来越多,消费者寻址的性能会越来越差。最后导致整个kafka对外提供服务的性能很差,从而造成其他服务的访问速度也变慢,导致服务雪崩。
2)解决方案
- 如果是(超过30分钟):去数据库中修改订单状态为已取消
- 如果否:记录当前消息的offset,并不再继续消费之后的消息。等待1分钟之后,再次向kafka中拉取该offset及之后的消息,继续进行判断,以此反复。
export KE_HOME=/usr/local/kafka-eagle
export PATH=$PATH:$KE_HOME/bin
配置完环境变量之后记得刷新
source /etc/profile
修改⾥⾯的zk的地址和mysql的地址
进入bin目录
./ke.sh start