Kafka快速入门系列(8) | Kafka的消费过程分析

  本篇博主带来的是producer(生产者)的数据可靠性保证。

目录

  • 1. 高级API
    • 1.高级API优点
    • 2.高级API缺点
  • 1. 低级API
    • 1.低级 API 优点
    • 2.低级API缺点
  • 3. 消费者组
  • 4. 消费方式
  • 5. 分区分配策略
    • 1. roundrobin
    • 2. range


  kafka提供了两套consumer API:高级Consumer API和低级Consumer API。

1. 高级API

1.高级API优点

  • 高级API 写起来简单
  • 不需要自行去管理offset,系统通过zookeeper自行管理。
  • 不需要管理分区,副本等情况,.系统自动管理。
  • 消费者断线会自动根据上一次记录在zookeeper中的offset去接着获取数据(默认设置1分钟更新一下zookeeper中存的offset)
  • 可以使用group来区分对同一个topic的不同程序访问分离开来(不同的group记录不同的offset,这样不同程序读取同一个topic才不会因为offset互相影响)

2.高级API缺点

  • 不能自行控制offset(对于某些特殊需求来说)
  • 不能细化控制如分区、副本、zk等

1. 低级API

1.低级 API 优点

  • 能够让开发者自己控制offset,想从哪里读取就从哪里读取
  • 自行控制连接分区,对分区自定义进行负载均衡
  • 对zookeeper的依赖性降低(如:offset不一定非要靠zk存储,自行存储offset即可,比如存在文件或者内存中)

2.低级API缺点

  • 太过复杂,需要自行控制offset,连接哪个分区,找到分区leader 等。

3. 消费者组

Kafka快速入门系列(8) | Kafka的消费过程分析_第1张图片
  消费者是以consumer group消费者组的方式工作,由一个或者多个消费者组成一个组,共同消费一个topic。每个分区在同一时间只能由group中的一个消费者读取,但是多个group可以同时消费这个partition。在图中,有一个由三个消费者组成的group,有一个消费者读取主题中的两个分区,另外两个分别读取一个分区。某个消费者读取某个分区,也可以叫做某个消费者是某个分区的拥有者。
  在这种情况下,消费者可以通过水平扩展的方式同时读取大量的消息。另外,如果一个消费者失败了,那么其他的group成员会自动负载均衡读取之前失败的消费者读取的分区。

4. 消费方式

  consumer采用pull(拉)模式从broker中读取数据
  push(推)模式很难适应消费速率不同的消费者,因为消息发送速率是由broker决定的。它的目标是尽可能以最快速度传递消息,但是这样很容易造成consumer来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而pull模式则可以根据consumer的消费能力以适当的速率消费消息。
  对于Kafka而言,pull模式更合适,它可简化broker的设计,consumer可自主控制消费消息的速率,同时consumer可以自己控制消费方式——即可批量消费也可逐条消费,同时还能选择不同的提交方式从而实现不同的传输语义。
  pull模式不足之处是,如果kafka没有数据,消费者可能会陷入循环中,一直等待数据到达。为了避免这种情况,我们在我们的拉请求中有参数,允许消费者请求在等待数据到达的“长轮询”中进行阻塞(并且可选地等待到给定的字节数,以确保大的传输大小)。

5. 分区分配策略

  一个consumer group中有多个consumer,一个 topic有多个partition,所以必然会涉及到partition的分配问题,即确定那个partition由哪个consumer来消费。
  Kafka有两种分配策略,一是roundrobin,一是range。

1. roundrobin

Kafka快速入门系列(8) | Kafka的消费过程分析_第2张图片
Kafka快速入门系列(8) | Kafka的消费过程分析_第3张图片

2. range

Kafka快速入门系列(8) | Kafka的消费过程分析_第4张图片
Kafka快速入门系列(8) | Kafka的消费过程分析_第5张图片

  本次的分享就到这里了,


11

   看 完 就 赞 , 养 成 习 惯 ! ! ! \color{#FF0000}{看完就赞,养成习惯!!!} ^ _ ^ ❤️ ❤️ ❤️
  码字不易,大家的支持就是我坚持下去的动力。点赞后不要忘了关注我哦!

你可能感兴趣的:(Hadoop,#,Kafka)