Kafka详细学习资料

Kafka

一. 消息中间件的好处

1.解耦

​ 允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。

2.异步

​ 很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们。

3.灵活性/削峰

​ 在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见。如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。

4.可恢复性

​ 系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。

5.缓冲

​ 有助于控制和优化数据流经过系统的速度,解决生产消息和消费消息的处理速度不一致的情况。

二. 消息队列通信的模式

1.点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除)

Kafka详细学习资料_第1张图片

2.发布订阅模式(一对多,消费者消费数据之后不会清除消息)

kafka一般使用的是消费方拉取,会一直轮询,浪费资源。(可以设置一个等待时间,在没有拉取到信息的时候,会等待设置的时间)

Kafka详细学习资料_第2张图片

三. Kafka

Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala(一种类java语言)和Java编写。Kafka是一种高吞吐量的分布式的基于发布/订阅模式的消息队列,主要应用于大数据实时处理领域(spark实时分析框架)。

1.Kafka的特性
  • 高吞吐量、低延迟:kafka每秒可以处理几十万条消息,它的延迟最低只有几毫秒,每个topic可以分多个partition, consumer group 对partition进行consume操作。
  • 可扩展性:kafka集群支持热扩展
  • 持久性、可靠性:消息被持久化到本地磁盘,并且支持数据备份防止数据丢失
  • 容错性:允许集群中节点失败(若副本数量为n,则允许n-1个节点失败)
  • 高并发:支持数千个客户端同时读写
2.Kafka的基本架构

Kafka详细学习资料_第3张图片

1)Producer :消息生产者,就是向 kafka broker 发消息的客户端; 2)Consumer :消息消费者,向 kafka broker 取消息的客户端; 3)Consumer Group (CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。 4)Broker :一台 kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker可以容纳多个 topic。 5)Topic :可以理解为一个队列,生产者和消费者面向的都是一个 topic; 6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列; 7)Replica:副本,为保证集群中的某个节点发生故障时,该节点上的 partition 数据不丢失,且 kafka 仍然能够继续工作,kafka 提供了副本机制,一个 topic 的每个分区都有若干个副本,一个 leader 和若干个 follower。 8)leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 leader。 9)follower:每个分区多个副本中的“从”,实时从 leader 中同步数据,保持和 leader 数据的同步。leader 发生故障时,某个 follower 会成为新的 follower

​ 最优的设计就是,consumer group下的consumer thread的数量等于partition数量,这样效率是最高的。

​ 所以我们线上的分布式多个service服务,每个service里面的kafka consumer数量都小于对应的topic的partition数量,但是所有服务的consumer数量只和等于partition的数量,这是因为分布式service服务的所有consumer都来自一个consumer group,如果来自不同的consumer group就会处理重复的message了(同一个consumer group下的consumer不能处理同一个partition,不同的consumer group可以处理同一个topic,那么都是顺序处理message,一定会处理重复的。一般这种情况都是两个不同的业务逻辑,才会启动两个consumer group来处理一个topic)。

​ 如果producer的流量增大,当前的topic的parition数量=consumer数量,这时候的应对方式就是很想扩展:增加topic下的partition,同时增加这个consumer group下的consumer。

3.Kafka安装部署
3.1 jar包下载

http://kafka.apache.org/downloads.html

我这里用的是kafka_2.11-0.11.0.0.tgz版本

3.2 集群部署

1)解压安装包

[atguigu@hadoop102 software]$ tar -zxvf kafka_2.11-0.11.0.0.tgz -C /opt/module/

2)修改解压后的文件名称

[atguigu@hadoop102 module]$ mv kafka_2.11-0.11.0.0/ kafka

3)在/opt/module/kafka 目录下创建 logs 文件夹

[atguigu@hadoop102 kafka]$ mkdir logs

4)修改配置文件

[atguigu@hadoop102 kafka]$ cd config/

[atguigu@hadoop102 config]$ vi server.properties

输入以下内容:

broker 的全局唯一编号,不能重复

broker.id=0

删除 topic 功能开启

delete.topic.enable=true

处理网络请求的线程数量

num.network.threads=3

用来处理磁盘 IO 的现成数量

num.io.threads=8

发送套接字的缓冲区大小

socket.send.buffer.bytes=102400

接收套接字的缓冲区大小

socket.receive.buffer.bytes=102400

请求套接字的缓冲区大小

socket.request.max.bytes=104857600

kafka 运行日志存放的路径

log.dirs=/opt/module/kafka/logs

topic 在当前 broker 上的分区个数

num.partitions=1

用来恢复和清理 data 下数据的线程数量

num.recovery.threads.per.data.dir=1

segment 文件保留的最长时间,超时将被删除

log.retention.hours=168

配置连接 Zookeeper 集群地址

zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181

5)配置环境变量

[atguigu@hadoop102 module]$ sudo vi /etc/profile

KAFKA_HOME

export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin

[atguigu@hadoop102 module]$ source /etc/profile

6) 同理修改另外两个Kafka

server.properties中的 broker.id=1、broker.id=2
注:broker.id 不得重复

7) 启动集群

[atguigu@hadoop102 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties \[atguigu@hadoop103 kafka\]$ bin/kafka-server-start.sh -daemon config/server.properties [atguigu@hadoop104 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties

8) 关闭集群

[atguigu@hadoop102 kafka]$ bin/kafka-server-stop.sh stop
[atguigu@hadoop103 kafka]$ bin/kafka-server-stop.sh stop
[atguigu@hadoop104 kafka]$ bin/kafka-server-stop.sh stop

9) Kafka群起脚本

for i in hadoop102 hadoop103 hadoop104
do
echo "========== $i =========="
ssh $i '/opt/module/kafka/bin/kafka-server-start.sh -daemon /opt/module/kafka/config/server.properties'
done

4.Kafka基本命令

1)查看当前服务器中的所有 topic

[atguigu@hadoop102 kafka]$ bin/kafka-topics.sh --zookeeper hadoop102:2181 --list

2)创建 topic

[atguigu@hadoop102 kafka]$ bin/kafka-topics.sh --zookeeper hadoop102:2181 --create --replication-factor 3 --partitions 1 -topic first

--topic 定义 topic 名 --replication-factor 定义副本数 --partitions 定义分区数

3)删除 topic

[atguigu@hadoop102 kafka]$ bin/kafka-topics.sh --zookeeper hadoop102:2181 --delete --topic first

需要 server.properties 中设置 delete.topic.enable=true 否则只是标记删除。

4)发送消息

[atguigu@hadoop102 kafka]$ bin/kafka-console-producer.sh --brokerlist hadoop102:9092 --topic first
>hello world
>atguigu zywx

5)消费消息

[atguigu@hadoop102 kafka]$ bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --topic first

连接zookeeper方法已经过期,暂时还可以使用,但不推荐

[atguigu@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first

[atguigu@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --from-beginning --topic first

--from-beginning:会把主题中以往所有的数据都读取出来

6)查看某个 Topic 的详情

[atguigu@hadoop102 kafka]$ bin/kafka-topics.sh --zookeeper hadoop102:2181 --describe --topic first

7)修改分区数

[atguigu@hadoop102 kafka]$ bin/kafka-topics.sh --zookeeper hadoop102:2181 --alter --topic first --partitions 6

四. Kafka 架构深入

1.Kafka 生产者

1.1 分区策略

1)分区的原因 (1)方便在集群中扩展,每个 Partition 可以通过调整以适应它所在的机器,而一个 topic又可以有多个 Partition 组成,因此整个集群就可以适应任意大小的数据了; (2)可以提高并发,因为可以以 Partition 为单位读写了。 2)分区的原则 我们需要将 producer 发送的数据封装成一个 ProducerRecord 对象。

image

​ (1)指明 partition 的情况下,直接将指明的值直接作为 partiton 值; (2)没有指明 partition 值但有 key 的情况下,将 key 的 hash 值与 topic 的 partition数进行取余得到 partition 值; (3)既没有 partition 值又没有 key 值的情况下,第一次调用时随机生成一个整数(后面每次调用在这个整数上自增),将这个值与 topic 可用的 partition 总数取余得到 partition值,也就是常说的 round-robin 算法。

1.2 数据可靠性保证

​ 为保证 producer 发送的数据,能可靠的发送到指定的 topic,topic 的每个 partition 收到producer 发送的数据后,都需要向 producer 发送 ack(acknowledgement 确认收到),如果producer 收到 ack,就会进行下一轮的发送,否则重新发送数据。

Kafka详细学习资料_第4张图片

1)副本数据同步策略

方案

优点

缺点

半数以上follower完成同步,就发送ack

延迟低(follower同步有快有慢,半数以上同步完成就发送ack能把满的那些给过滤掉)

选举新的leader时,容忍n台节点的故障,需要2n+1个副本(半数以上参与投票表示需要n+1台节点存活,总共则需要n+1+n个副本)

全部的follower完成同步,才发送ack

选举新的leader时,容忍n台节点的故障,需要n+1个副本

延迟高(同步快的需要等同步满的,导致延迟高)

Kafka选择了第二种方案(全部完成同步,才发送ack),原因如下:

  1. 同样为了容忍n台节点的故障,第一种方案需要2n+1个副本,而第二种方案只需要n+1个副本,而Kafka的每个分区都有大量的数据,第一种方案会造成大量数据的冗余。
  2. 虽然第二种方案的网络延迟会比较高,但网络延迟对Kafka的影响较小。

2)ISR

​ 采用第二种方案之后,设想以下情景:leader收到数据,所有follower都开始同步数据,但有一个follower,因为某种故障,迟迟不能与leader进行同步,那leader就要一直等下去,直到它完成同步,才能发送ack。这个问题怎么解决呢?

​ Leader维护了一个动态的in-sync replica set (ISR-同步副本列表),意为和leader保持同步的follower集合。当ISR中的follower完成数据的同步之后,leader就会给follower发送ack。如果follower长时间未向leader同步数据,则该follower将被踢出ISR,该时间阈值由replica.lag.time.max.ms参数设定。Leader发生故障之后,就会从ISR中选举新的leader。

3)ack 应答机制

​ 对于某些不太重要的数据,对数据的可靠性要求不是很高,能够容忍数据的少量丢失,所以没必要等ISR中的follower全部接收成功。

​ 所以Kafka为用户提供了三种可靠性级别,用户根据对可靠性和延迟的要求进行权衡,选择以下的配置。

acks参数配置:

  • 0:producer不等待broker的ack,这一操作提供了一个最低的延迟,broker一接收到还没有写入磁盘就已经返回,当broker故障时有可能丢失数据
  • 1:producer等待broker的ack,partition的leader落盘成功后返回ack,如果在follower同步成功之前leader故障,而由于已经返回了ack,系统默认新选举的leader已经有了数据,从而不会进行失败重试,那么将会丢失数据

    对于某些不太重要的数据,对数据的可靠性要求不是很高,能够容忍数据的少量丢失,所以没必要等ISR中的follower全部接收成功。

    所以Kafka为用户提供了三种可靠性级别,用户根据对可靠性和延迟的要求进行权衡,选择以下的配置。

    acks参数配置:

    • 0:producer不等待broker的ack,这一操作提供了一个最低的延迟,broker一接收到还没有写入磁盘就已经返回,当broker故障时有可能丢失数据
    • 1:producer等待broker的ack,partition的leader落盘成功后返回ack,如果在follower同步成功之前leader故障,而由于已经返回了ack,系统默认新选举的leader已经有了数据,从而不会进行失败重试,那么将会丢失数据
    • -1(all):producer等待broker的ack,partition的leader和follower全部落盘成功后才返回ack。但是如果在follower同步完成后,broker发送ack之前,leader发生故障,导致没有返回ack给Producer,由于失败重试机制,又会给新选举出来的leader发送数据,造成数据重复

4)故障处理细节

Kafka详细学习资料_第5张图片

​ LEO:指的是每个副本最大的 offset; HW:指的是消费者能见到的最大的 offset,ISR 队列中最小的 LEO

(1)follower 故障 follower 发生故障后会被临时踢出 ISR,待 该 follower 恢复后,follower 会读取本地磁盘记录的上次的 HW,并将 log 文件高于 HW 的部分截取掉,从 HW 开始向 leader 进行同步。等该 follower 的 LEO 大于等于该 Partition 的 HW,即 follower 追上 leader 之后,就可以重新加入 ISR 了。 (2)leader 故障 leader 发生故障之后,会从 ISR 中选出一个新的 leader,之后,为保证多个副本之间的数据一致性,其余的 follower 会先将各自的 log 文件高于 HW 的部分截掉,然后从新的 leader同步数据。 注意:这只能保证副本之间的数据一致性,并不能保证数据不丢失或者不重复。

2.消费者

2.1 消费方式

​ consumer 采用 pull(拉)模式从 broker 中读取数据。 push(推)模式很难适应消费速率不同的消费者,因为消息发送速率是由 broker 决定的。它的目标是尽可能以最快速度传递消息,但是这样很容易造成 consumer 来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而 pull 模式则可以根据 consumer 的消费能力以适当的速率消费消息。

​ pull 模式不足之处是,如果 kafka 没有数据,消费者可能会陷入循环中,一直返回空数据。针对这一点,Kafka 的消费者在消费数据时会传入一个时长参数 timeout,如果当前没有数据可供消费,consumer 会等待一段时间之后再返回,这段时长即为 timeout。

2.2 分区分配策略

​ 一个 consumer group 中有多个 consumer,一个 topic 有多个 partition,所以必然会涉及到 partition 的分配问题,即确定那个 partition 由哪个 consumer 来消费。 Kafka 有两种分配策略,一是 RoundRobin(根据消费组来分配),一是 Range(根据主题Topic分配)。

​ 在启动消费者,增加减少消费者时候进行分配。

2.3 offset 的维护

​ 由于 consumer 在消费过程中可能会出现断电宕机等故障,consumer 恢复后,需要从故障前的位置的继续消费,所以 consumer 需要实时记录自己消费到了哪个 offset,以便故障恢复后继续消费。

​ Kafka 0.9 版本之前,consumer 默认将 offset 保存在 Zookeeper 中,从 0.9 版本开始,consumer 默认将 offset 保存在 Kafka 一个内置的 topic 中,该 topic 为__consumer_offsets。
1)修改配置文件

consumer.properties exclude.internal.topics=false

2)读取 offset

0.11.0.0 之前版本:

bin/kafka-console-consumer.sh --topic __consumer_offsets -zookeeper hadoop102:2181 --formatter "kafka.coordinator.GroupMetadataManager\$OffsetsMessageFormatter" --consumer.config config/consumer.properties --from-beginning

0.11.0.0 之后版本(含):

bin/kafka-console-consumer.sh --topic __consumer_offsets -zookeeper hadoop102:2181 --formatter "kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageForm atter" --consumer.config config/consumer.properties --from-beginning

2.4 消费者组案例

1)需求:测试同一个消费者组中的消费者,同一时刻只能有一个消费者消费。 2)案例实操 (1)在 hadoop102、hadoop103 上修改consumer.properties 配置文件中的 group.id 属性为任意组名。

[atguigu@hadoop103 config]$ vi consumer.properties
group.id=zywx

​ (2)在 hadoop102、hadoop103 上分别启动消费者

[atguigu@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop103:9092 --topic first --consumer.config config/consumer.properties
[atguigu@hadoop103 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first --consumer.config config/consumer.properties

​ (3)在 hadoop104 上启动生产者

[atguigu@hadoop104 kafka]$ bin/kafka-console-producer.sh \ --broker-list hadoop102:9092 --topic first
>hello world

​ (4)查看 hadoop102 和 hadoop103 的接收者。 同一时刻只有一个消费者接收到消息。

五. Kafka API

5.1 Producer API

5.1.1 消息发送流程

Kafka 的 Producer 发送消息采用的是异步发送的方式。在消息发送的过程中,涉及到了两个线程——main 线程和 Sender 线程,以及一个线程共享变量——RecordAccumulator。main 线程将消息发送RecordAccumulator,Sender 线程不断从 RecordAccumulator 中拉取消息发送到 Kafka broker。

Kafka详细学习资料_第6张图片

5.1.2 异步发送 API

1)导入依赖


org.apache.kafka
kafka-clients
0.10.1.1

2)编写代码

1.不带回调函数的 API

package com.zywx.producer;

import org.apache.kafka.clients.CommonClientConfigs;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;

import java.util.Properties;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.Future;

public class MyProducer {
public static void main(String[] args) {
//1.创建kafka生产者的配置信息
Properties properties = new Properties();
//指定连接的kafka集群
properties.put("bootstrap.servers","192.168.25.128:9091");

//ACK应答级别
properties.put("acks", "all");

//重试次数
properties.put("retries", 1);

//批次大小
properties.put("batch.size", 16384);

//等待时间
properties.put("linger.ms", 1);

//RecordAccumulator 缓冲区大小
properties.put("buffer.memory", 33554432);

//key,value的序列化类
properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

//创建生产者对象
KafkaProducer producer = new KafkaProducer<>(properties);

//发送数据
for (int i = 0; i < 10; i++) {
producer.send(new ProducerRecord("first","zywx----" + i));
}

//关闭资源
producer.close();
}
}

Kafka详细学习资料_第7张图片

2.带回调函数的 API

​ 回调函数会在 producer 收到 ack 时调用,为异步调用,该方法有两个参数,分别是RecordMetadata 和 Exception,如果 Exception 为 null,说明消息发送成功,如果Exception 不为 null,说明消息发送失败。

public class CallBackProducer {
public static void main(String[] args) {
//1.创建配置信息
Properties properties = new Properties();
properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.25.128:9091");

properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
"org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
"org.apache.kafka.common.serialization.StringSerializer");

//2.创建生产者对象
KafkaProducer producer = new KafkaProducer(properties);

//3.发送数据
for (int i = 0; i < 10 ; i++) {
producer.send(new ProducerRecord("lol","zywx===" + i), (recordMetadata, e) -> {
if (e == null){
System.out.println(recordMetadata.partition()+"======"+recordMetadata.offset());
}else {
e.printStackTrace();
}
});
}

//4.关闭资源
producer.close();
}
}

Kafka详细学习资料_第8张图片

package com.zywx.producer;

import org.apache.kafka.clients.producer.*;

import java.util.ArrayList;
import java.util.Properties;

public class CallBackProducer {
public static void main(String[] args) {
//1.创建配置信息
Properties properties = new Properties();
properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.25.128:9091");
properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringSerializer");

//2.创建生产者对象
KafkaProducer producer = new KafkaProducer(properties);

ArrayList list = new ArrayList<>();
list.add("a");
list.add("b");
list.add("c");
//3.发送数据
for (int i = 0; i < 10 ; i++) {
producer.send(new ProducerRecord("lol", list.get(i%3),"zywx===" + i), (recordMetadata, e) -> {
if (e == null){
System.out.println(recordMetadata.partition()+"======"+recordMetadata.offset());
}else {
e.printStackTrace();
}
});
}

//4.关闭资源
producer.close();
}
}

Kafka详细学习资料_第9张图片

5.1.3 自定义分区器

编写自定义分区器

package com.zywx.partitioner;

import org.apache.kafka.clients.producer.Partitioner;
import org.apache.kafka.common.Cluster;

import java.util.Map;

public class MyPartitioner implements Partitioner {

@Override
public int partition(String s, Object o, byte[] bytes, Object o1, byte[] bytes1, Cluster cluster) {
// Integer count = cluster.partitionCountForTopic(topic);
// return key.toString().hashCode() % count;
return 1;
}

@Override
public void close() {

}

@Override
public void configure(Map map) {

}
}

自定义分区器实现的接口

//
// Source code recreated from a .class file by IntelliJ IDEA
// (powered by Fernflower decompiler)
//

package org.apache.kafka.clients.producer;

import org.apache.kafka.common.Cluster;
import org.apache.kafka.common.Configurable;

public interface Partitioner extends Configurable {
int partition(String var1, Object var2, byte[] var3, Object var4, byte[] var5, Cluster var6);

void close();
}

接口的实现类(默认的分区方法)

//
// Source code recreated from a .class file by IntelliJ IDEA
// (powered by Fernflower decompiler)
//

package org.apache.kafka.clients.producer.internals;

import java.util.List;
import java.util.Map;
import java.util.Random;
import java.util.concurrent.atomic.AtomicInteger;
import org.apache.kafka.clients.producer.Partitioner;
import org.apache.kafka.common.Cluster;
import org.apache.kafka.common.PartitionInfo;
import org.apache.kafka.common.utils.Utils;

public class DefaultPartitioner implements Partitioner {


private final AtomicInteger counter = new AtomicInteger((new Random()).nextInt());

public DefaultPartitioner() {
}

public void configure(Map configs) {
}

public int partition(String topic, Object key, byte\[\] keyBytes, Object value, byte\[\] valueBytes, Cluster cluster) {
    List partitions = cluster.partitionsForTopic(topic);
    int numPartitions = partitions.size();
    if (keyBytes == null) {
        int nextValue = this.counter.getAndIncrement();
        List availablePartitions = cluster.availablePartitionsForTopic(topic);
        if (availablePartitions.size() > 0) {
            int part = Utils.toPositive(nextValue) % availablePartitions.size();
            return ((PartitionInfo)availablePartitions.get(part)).partition();
        } else {
            return Utils.toPositive(nextValue) % numPartitions;
        }
    } else {
        return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
    }
}

public void close() {
}

}

测试自定义分区器

package com.zywx.producer;

import org.apache.kafka.clients.producer.*;

import java.util.Properties;

public class PartitionProducer {

public static void main(String\[\] args) {        
    //1.创建kafka生产者的配置信息
    Properties properties = new Properties();       
   //指定连接的kafka集群
   properties.put("bootstrap.servers","192.168.25.128:9091");
    //ACK应答级别
    properties.put("acks", "all");

    //重试次数
    properties.put("retries", 1);

    //批次大小
    properties.put("batch.size", 16384);

    //等待时间
    properties.put("linger.ms", 1);

    //RecordAccumulator 缓冲区大小
    properties.put("buffer.memory", 33554432);

    //key,value的序列化类
    properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

    //添加分区器
    properties.put(ProducerConfig.PARTITIONER\_CLASS\_CONFIG, "com.zywx.partitioner.MyPartitioner");

    //创建生产者对象
    KafkaProducer producer = new KafkaProducer<>(properties);

    //发送数据
    for (int i = 0; i < 10; i++) {
        producer.send(new ProducerRecord("first", "zywx----" + i), new Callback() {
            @Override
            public void onCompletion(RecordMetadata recordMetadata, Exception e) {
                if (e == null){
                    System.out.println(recordMetadata.partition());
                }
            }
        });
    }

    //关闭资源
    producer.close();
}

}

Kafka详细学习资料_第10张图片

5.1.4 同步发送API

​ 同步发送的意思就是,一条消息发送之后,会阻塞当前线程,直至返回 ack。

由于 send 方法返回的是一个 Future 对象,根据 Futrue 对象的特点,我们也可以实现同步发送的效果,只需在调用 Future 对象的 get 方发即可。

    …………
    
    //发送数据
    for (int i = 0; i < 10; i++) {
        //Future的get方法会阻塞其他线程,实现同步.(一般不使用,效率太低)
        Future future = producer.send(new ProducerRecord("first", "zywx----" + i));
        try {
            RecordMetadata recordMetadata = future.get();
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (ExecutionException e) {
            e.printStackTrace();
        }
    }
    
    ……………


5.2 Consumer API

5.2.1 基本的消息监听

package com.zywx.consumer;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;

import java.util.Arrays;
import java.util.Properties;

public class MyConsumer {

public static void main(String\[\] args) {
    //1.创建消费者的配置信息
    Properties properties = new Properties();

    //2.给配置信息赋值
    //连接的集群
    properties.put(ConsumerConfig.BOOTSTRAP\_SERVERS\_CONFIG,"192.168.25.128:9091");
    //开启自动提交
    properties.put(ConsumerConfig.ENABLE\_AUTO\_COMMIT\_CONFIG,true);
    //自动提交offset的延迟
    properties.put(ConsumerConfig.AUTO\_COMMIT\_INTERVAL\_MS\_CONFIG,"1000");
    
    //Key/Value反序列化        properties.put(ConsumerConfig.KEY\_DESERIALIZER\_CLASS\_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
    properties.put(ConsumerConfig.VALUE\_DESERIALIZER\_CLASS\_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
    
    //消費者組
    properties.put(ConsumerConfig.GROUP\_ID\_CONFIG,"demodata");

    //3.创建消费者
    KafkaConsumer consumer = new KafkaConsumer(properties);

    //4.订阅主题
    consumer.subscribe(Arrays.asList("first","lol"));

    while (true){
        //5.获取数据
        ConsumerRecords records = consumer.poll(100);

        //6.解析并打印
        for (ConsumerRecord record : records) {
            System.out.println(record.key()+"======="+record.value());
        }
    }

}

}

重新读取之前发送的消息

(只能消费到保存的最近七天消息,从七天中最早的消息开始消费)

//该消费者应属于一个新的消费者组
properties.put(ConsumerConfig.GROUP_ID_CONFIG,"demodata");
//配置 重置消费者的offset
properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");

上述代码中使用的是自动提交,自动提交会出现漏数据或者数据重复消费的问题

5.2.2 手动提交offset

1)同步提交

…………

properties.put("enable.auto.commit", "false");//关闭自动提交 offset

…………

    while (true){
        //5.获取数据
        ConsumerRecords records = consumer.poll(100);

        //6.解析并打印
        for (ConsumerRecord record : records) {
            System.out.println(record.key()+"======="+record.value());
        }
        
        //同步提交,当前线程会阻塞直到 offset 提交成功
         consumer.commitSync();
    }

…………

2)异步提交

…………

properties.put("enable.auto.commit", "false");//关闭自动提交 offset

…………

    while (true){
        //5.获取数据
        ConsumerRecords records = consumer.poll(100);

        //6.解析并打印
        for (ConsumerRecord record : records) {
            System.out.println(record.key()+"======="+record.value());
        }
        
        //异步提交
         consumer.commitAsync(new OffsetCommitCallback() {
             @Override
            public void onComplete(Map offsets,Exception                 exception) {
                 if (exception != null) {
                     System.err.println("Commit failed for" +offsets);
                 }
             }
         });

    }

…………

异步提交可以避免漏数据的问题,但是一样无法避免数据重复消费的问题。

5.2.3 自定义提交offset

​ offset 的维护是相当繁琐的,因为需要考虑到消费者的 Rebalace。

​ 当有新的消费者加入消费者组、已有的消费者推出消费者组或者所订阅的主题的分区发生变化,就会触发到分区的重新分配,重新分配的过程叫做 Rebalance。

​ Consumer Rebalance的触发条件:(1)Consumer增加或删除会触发 Consumer Group的Rebalance(2)Broker的增加或者减少都会触发 Consumer Rebalance

​ 消费者发生 Rebalance 之后,每个消费者消费的分区就会发生变化。因此消费者要首先获取到自己被重新分配到的分区,并且定位到每个分区最近提交的 offset 位置继续消费。

package com.zywx.consumer;

import org.apache.kafka.clients.consumer.*;
import org.apache.kafka.common.TopicPartition;
import java.util.*;

public class CustomConsumer {

 private static Map currentOffset = new HashMap<>();
public static void main(String\[\] args) {

//创建配置信息
 Properties props = new Properties();
 
//Kafka 集群
 props.put("bootstrap.servers", "hadoop102:9092");
 
//消费者组,只要 group.id 相同,就属于同一个消费者组
 props.put("group.id", "test");
 
//关闭自动提交 offset
 props.put("enable.auto.commit", "false");
 
 //Key 和 Value 的反序列化类
 props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
 props.put("value.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
 
 //创建一个消费者
 KafkaConsumer consumer = new KafkaConsumer<>(props);

 //消费者订阅主题
 consumer.subscribe(Arrays.asList("first"), new ConsumerRebalanceListener() {

     //该方法会在 Rebalance 之前调用
     @Override
     public void onPartitionsRevoked(Collection partitions) {
         commitOffset(currentOffset);
     }
     //该方法会在 Rebalance 之后调用
     @Override
     public void onPartitionsAssigned(Collection partitions) {
          currentOffset.clear();
         for (TopicPartition partition : partitions) {
         consumer.seek(partition, getOffset(partition));//定位到最近提交的 offset 位置继续消费
         }
     }
 });
 while (true) {
     //5.获取数据
    ConsumerRecords records = consumer.poll(100);

    //6.解析并打印
    for (ConsumerRecord record : records) {
        System.out.println(record.key()+"======="+record.value());
    }
        
    //异步提交
     consumer.commitAsync(new OffsetCommitCallback() {
         @Override
        public void onComplete(Map offsets,Exception             exception) {
             if (exception != null) {
                 System.err.println("Commit failed for" +offsets);
             }
         }
     });
 }
 //获取某分区的最新 offset
 private static long getOffset(TopicPartition partition) {
     return 0;
 }
 //提交该消费者所有分区的 offset
 private static void commitOffset(Map currentOffset) {
     //将offset信息入库方法
 }

}

简单说,就是在消费完数据,将数据入库的同时,把消费到的offset信息也存到一张专门的offset表中(这张表用消费者组ID+Topic+分区名三列做复合主键)。在发生故障或者rebalance以后读取最新的offset。

5.3 自定义拦截器

5.3.1 拦截器原理

​ 对于 producer 而言,interceptor 使得用户在消息发送前以及 producer 回调逻辑前有机会 对消息做一些定制化需求,比如修改消息等。同时,producer 允许用户指定多个 interceptor 按序作用于同一条消息从而形成一个拦截链(interceptor chain)。

​ Intercetpor 的实现接口是 org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:

​ (1)configure(configs)

​ 获取配置信息和初始化数据时调用。

​ (2)onSend(ProducerRecord):

​ 该方法封装进 KafkaProducer.send 方法中,即它运行在用户主线程中。Producer 确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的 topic 和分区,否则会影响目标分区的计算。

​ (3)onAcknowledgement(RecordMetadata, Exception):

​ 该方法会在消息从 RecordAccumulator 成功发送到 Kafka Broker 之后,或者在发送过程中失败时调用。并且通常都是在producer回调逻辑触发之前。onAcknowledgement运行在 producer 的IO线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢 producer 的消息 发送效率。

​ (4)close:

​ 关闭 interceptor,主要用于执行一些资源清理工作。

​ 如前所述,interceptor 可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个 interceptor,则 producer 将按照指定顺序调用它们,并仅仅是捕获每个 interceptor 可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。

5.3.2 拦截器编码

(1)增加时间戳拦截器

package com.zywx.interceptor;

import org.apache.kafka.clients.producer.ProducerInterceptor;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;

import java.util.Map;

public class TimeInterceptor implements ProducerInterceptor {

@Override
public void configure(Map map) {

}

@Override
public ProducerRecord onSend(ProducerRecord producerRecord) {
    //1.取出数据
    String value = producerRecord.value();
    //2.创建新的ProducerRecord(没有setValue方法)
    return new ProducerRecord(producerRecord.topic(),producerRecord.partition(),producerRecord.key(),System.currentTimeMillis()+","+value);
}

@Override
public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {

}

@Override
public void close() {

}

}

(2)统计发送消息成功和发送失败消息数,并在 producer 关闭时打印这两个计数器

package com.zywx.interceptor;

import org.apache.kafka.clients.producer.ProducerInterceptor;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;

import java.util.Map;

/**
*
*/
public class CounterInterceptor implements ProducerInterceptor {

int success;
int error;

/\*\*
 \* 默认返回的是null,要改成返回参数本身
 \* @param producerRecord
 \* @return
 \*/
@Override
public ProducerRecord onSend(ProducerRecord producerRecord) {
    return producerRecord;
}

@Override
public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {
    if (recordMetadata != null){
        success++;
    }else {
        error++;
    }
}

@Override
public void close() {
    System.out.println("success:"+success);
    System.out.println("error:"+error);
}

@Override
public void configure(Map map) {

}

}

(3)在producer中添加拦截器/拦截链

…………

    //添加拦截器
    ArrayList interceptors = new ArrayList<>();
    interceptors.add("com.zywx.interceptor.TimeInterceptor");
    interceptors.add("com.zywx.interceptor.CounterInterceptor");
    properties.put(ProducerConfig.INTERCEPTOR\_CLASSES\_CONFIG,interceptors);
    

…………

结果:

Kafka详细学习资料_第11张图片

Kafka详细学习资料_第12张图片

六. Kafka监控

Kafka Eagle

1)修改 kafka 启动命令

修改 kafka-server-start.sh 命令中

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
fi

修改为

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m
-XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -
XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
export JMX_PORT="9999"
#export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
fi

集群每个节点都要修改

2)上传压缩包 kafka-eagle-bin-1.3.7.tar.gz 到集群/opt/software 目录

3)解压到本地

[atguigu@hadoop102 software]$ tar -zxvf kafka-eagle-bin1.3.7.tar.gz

4)进入刚才解压的目录

[atguigu@hadoop102 kafka-eagle-bin-1.3.7]$ ll
总用量 82932
-rw-rw-r--. 1 atguigu atguigu 84920710 8 月 13 23:00 kafka-eagleweb-1.3.7-bin.tar.gz

5)将kafka-eagle-web-1.3.7-bin.tar.gz 解压至/opt/module

[atguigu@hadoop102 kafka-eagle-bin-1.3.7]$ tar -zxvf kafka-eagleweb-1.3.7-bin.tar.gz -C /opt/module/

6)修改名称

[atguigu@hadoop102 module]$ mv kafka-eagle-web-1.3.7/ eagle

7)给启动文件执行权限

[atguigu@hadoop102 eagle]$ cd bin/
[atguigu@hadoop102 bin]$ ll
总用量 12
-rw-r--r--. 1 atguigu atguigu 1848 8 月 22 2017 ke.bat
-rw-r--r--. 1 atguigu atguigu 7190 7 月 30 20:12 ke.sh
[atguigu@hadoop102 bin]$ chmod 777 ke.sh

8)修改配置文件

multi zookeeper&kafka cluster list

kafka.eagle.zk.cluster.alias=cluster1
cluster1.zk.list=hadoop102:2181,hadoop103:2181,hadoop104:2181

kafka offset storage

cluster1.kafka.eagle.offset.storage=kafka

enable kafka metrics

kafka.eagle.metrics.charts=true
kafka.eagle.sql.fix.error=false

kafka jdbc driver address

kafka.eagle.driver=com.mysql.jdbc.Driver
kafka.eagle.url=jdbc:mysql://hadoop102:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
kafka.eagle.username=root
kafka.eagle.password=root

9)添加环境变量

export KE_HOME=/opt/module/eagle
export PATH=$PATH:$KE_HOME/bin

注意:source /etc/profile

10)启动

[atguigu@hadoop102 eagle]$ bin/ke.sh start

Kafka详细学习资料_第13张图片

11)登录页面查看监控数据

image

七. Kafka与Spring-boot整合

7.1 项目依赖

pom.xml

`

     xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
4.0.0

    org.springframework.boot
    spring-boot-starter-parent
    2.3.3.RELEASE
     

com.example
spring\_boot\_kafka
0.0.1-SNAPSHOT
spring\_boot\_kafka
Demo project for Spring Boot`


    1.8



    
        org.springframework.boot
        spring-boot-starter-web
    
    
        org.springframework.kafka
        spring-kafka
    

    
        org.projectlombok
        lombok
        true
    
    
        org.springframework.boot
        spring-boot-starter-test
        test
        
            
                org.junit.vintage
                junit-vintage-engine
            
        
    
    
        org.springframework.kafka
        spring-kafka-test
        test
    
    
        com.alibaba
        fastjson
        1.2.44
    




    
        
            org.springframework.boot
            spring-boot-maven-plugin
        
    

7.2 实体类User

package com.example.spring_boot_kafka.entity;

import lombok.Data;
import lombok.experimental.Accessors;

@Data
@Accessors(chain = true)
public class User {

private Integer id;
private String name;
private Integer age;

}

7.3 消息发送

package com.example.spring_boot_kafka.producer;

import com.alibaba.fastjson.JSON;
import com.example.spring_boot_kafka.entity.User;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

@Component
public class UserProducer {

@Autowired
private KafkaTemplate kafkaTemplate;

public void sendUser(Integer id){
    User user = new User();
    user.setId(id).setAge(17).setName("张三");
    System.err.println("发送用户日志:"+user);
    kafkaTemplate.send("user", JSON.toJSONString(user));
}

}

7.4 消息接收(监听)

package com.example.spring_boot_kafka.consumer;

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import java.util.Optional;

@Component
@Slf4j
public class UserConsumer {

@KafkaListener(topics = {"user"})
public void consumer(ConsumerRecord consumerRecord){
    //判断是否为null
    Optional kafkaMessage = Optional.ofNullable(consumerRecord.value());
    log.info(">>>>record="+kafkaMessage);
    if (kafkaMessage.isPresent()){
        //得到Optional实例中的值
        Object message = kafkaMessage.get();
        System.err.println("消费消息:"+message);
    }
}

}

7.5 配置文件

spring.application.name=kafka-user
server.port=8080

============== kafka ===================

指定kafka 代理地址,可以多个

spring.kafka.bootstrap-servers=localhost:9092

=============== provider =======================

spring.kafka.producer.retries=0

每次批量发送消息的数量

spring.kafka.producer.batch-size=16384
spring.kafka.producer.buffer-memory=33554432

指定消息key和消息体的编解码方式

spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

=============== consumer =======================

指定默认消费者group id

spring.kafka.consumer.group-id=user-log-group

spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=100

指定消息key和消息体的编解码方式

spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

7.6 启动类

package com.example.spring_boot_kafka;

import com.example.spring_boot_kafka.producer.UserProducer;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;

import javax.annotation.PostConstruct;

@SpringBootApplication
public class SpringBootKafkaApplication {
@Autowired
private UserProducer kafkaSender;
@PostConstruct
public void init(){
for (int i = 0; i < 10; i++){
kafkaSender.sendUser(i);
}
}

public static void main(String[] args) {
SpringApplication.run(SpringBootKafkaApplication.class, args);
}

}

7.7 测试结果

Kafka详细学习资料_第14张图片

你可能感兴趣的:(kafka)