消息队列不知道大家看到这个词的时候,会不会觉得它是一个比较高端的技术。消息队列,一般会简称为 MQ(Message Queue)。消息队列是一种帮助开发人员解决系统间异步通信的中间件,常用于解决系统解耦和请求的削峰平谷的问题。
队列(Queue):Queue 是一种先进先出的数据结构,容器。
消息(Message):不同应用之间传送的数据。
消息队列:可以把消息队列比作是一个存放消息的容器,当需要使用消息的时候可以取出消息使用。消息队列是分布式系统中重要的组件,使用消息队列主要是为了通过异步处理提高系统性能和削峰、降低系统耦合性。队列 Queue 是一种先进先出的数据结构,所以消费消息时也是按照顺序来消费的。比如生产者发送消息 1, 2, 3,对于消费者就会按照 1, 2, 3 的顺序来消费。
上游系统 --发送消息--> MQ --发送消息--> [下游系统1,下游系统2]
添加完成 MQ 可以实现上下游之间的解耦合,异步调用,流量削峰填谷。
下游系统可以灵活决定什么时候执行,执行几次,执行的时长。
消息队列在实际应用中包括如下四个场景:
应用耦合:多应用间通过消息队列对同一消息进行处理,避免调用接口失败导致整个过程失败。
异步处理:多应用对消息队列中同一消息进行处理,应用间并发处理消息,相比串行处理,减少处理时间。
限流削峰:广泛应用于秒杀或抢购活动中,避免流量过大导致应用系统挂掉的情况。
消息驱动的系统:系统分为消息队列、消息生产者、消息消费者,生产者负责产生消息,消费者 (可能有多个) 负责对消息进行处理。
具体场景:用户为了使用某个应用,进行注册,系统需要发送注册邮件并验证短信。对这两个子系统操作的处理方式有两种:串行及并行。涉及到三个子系统:注册系统、邮件系统、短信系统。
1)串行方式:新注册信息生成后,先发送注册邮件,再发送验证短信。在这种方式下,需要最终发送验证短信后再返回给客户端。
用户注册 ----> 注册信息写入 ----> 发送注册邮件 ----> 发送注册短信
用户注册 ----> 注册信息写入 ----> [发送注册短信,发送注册邮件]
假设以上三个子系统处理的时间均为 50 ms,且不考虑网络延迟,则总的处理时间:
如果引入消息队列,在来看整体的执行效率:
用户注册 ----> 注册信息写入 ----> 消息队列 ----> [发送注册短信,发送注册邮件]
在写入消息队列后立即返回成功给客户端,则总的响应时间依赖于写入消息队列的时间,而写入消息队列的时间本身是可以很快的,基本可以忽略不计,因此总的处理时间为 50 ms,相比串行提高了 2 倍,相比并行提高了一倍。
具体场景:用户使用 QQ 相册上传一张图片,人脸识别系统会对该图片进行人脸识别。
一般的做法是,服务器接收到图片后,图片上传系统立即调用人脸识别系统,调用完成后再返回成功。调用方式:webService、Http 协议(HttpClient、RestTemplate)、TCP 协议(Dubbo)。
图片上传系统 --调用接口--> 人脸识别系统
该方法有如下缺点:
若使用消息队列:
图片上传系统 --生产--> 消息队列 <--消费-- 人脸识别系统
具体场景:购物网站开展秒杀活动,一般由于瞬时访问量过大,服务器接收过大,会导致流量暴增,相关系统无法处理请求甚至崩溃;而加入消息队列后,系统可以从消息队列中取数据,相当于消息队列做了一次缓冲。
用户请求 --写入--> 消息队列 <--读取-- 业务处理系统
该方法有如下优点:
具体场景: 用户新上传了一批照片 ->人脸识别系统需要对这个用户的所有照片进行聚类 -> 由对账系统重新生成用户的人脸索引(加快查询)。
这三个子系统间由消息队列连接起来,前一个阶段的处理结果放入队列中,后一个阶段从队列中获取消息继续处理。
图片上传系统
--生产--> 消息队列
<--消费-- 人脸识别系统
--生产--> 消息队列
<--消费-- 对账系统
该方法有如下优点:
消息队列包括两种模式,点对点模式(point to point,queue)和发布/订阅模式(publish/subscribe,topic)。
点对点模式下包括三个角色:
每个消息都被发送到一个特定的队列,接收者从队列中获取消息。队列保留着消息,可以放在内存中也可以持久化,直到他们被消费或超时。
[Producer, Producer, Producer]
---sendMsg---> Queue
<---receive&ack--- [Consumer, Cosumer, Consumer]
点对点模式特点:
发布 / 订阅模式下包括三个角色:
消息生产者(发布)将消息发布到 topic 中,同时有多个消息消费者(订阅)消费该消息;和点对点方式不同,发布到 topic 的消息会被多个订阅者消费。
[Producer, Producer, Producer]
---publishMsg---> Topic
<---subscrib&deliver--- [Subscriber, Subscriber, Subscriber]
发布 / 订阅模式特点:
JMS(JAVA Message Service,Java 消息服务)是一个 Java 平台中关于面向消息中间件的 API。
允许应用程序组件基于 JavaEE 平台创建、发送、接收和读取消息。
是一个消息服务的标准或者说是规范,是 Java 平台上有关面向消息中间件的技术规范。
便于消息系统中的 Java 应用程序进行消息交换,并且通过提供标准的产生、发送、接收消息的接口,简化企业应用的开发。
JMS 消息机制主要分为两种模型:PTP 模型和 Pub/Sub 模型。
实现产品:Apache ActiveMQ。
AMQP,即 Advanced Message Queuing Protocol,一个提供统一消息服务的应用层标准高级消息队列协议,是应用层协议的一个开放标准,为面向消息的中间件设计。基于此协议的客户端与消息中间件可传递消息,并不受客户端 / 中间件不同产品,不同的开发语言等条件的限制。Erlang 中的实现有 RabbitMQ 等。
队列可以绑定交换机,只要发送消息到交换机上,那么对应的队列就可以接受到。
JMS:
AMQP:
byte[]
当实际应用时,有复杂的消息,可以将消息序列化后发送;1)中小型软件公司:
建议选 RabbitMQ。一方面,erlang 语言天生具备高并发的特性,而且管理界面用起来十分方便。但它的弊端也在这里,虽然 RabbitMQ 是开源的,然而国内缺少能定制化开发 erlang 的程序员。所幸,RabbitMQ 的社区十分活跃,可以解决开发过程中遇到的 bug,这点对于中小型公司来说十分重要。不考虑 RocketMQ 和 Kafka 的原因是,一方面中小型软件公司不如互联网公司,数据量没那么大,选消息中间件,应首选功能比较完备的,所以 kafka 排除。不考虑RocketMQ 的原因是,RocketMQ 是阿里出品,如果阿里放弃维护 RocketMQ,中小型公司一般抽不出人来进行 RocketMQ 的定制化开发,因此不推荐。
2)大型软件公司:
根据具体使用在 RocketMQ 和 Kafka 之间二选一。一方面,大型软件公司,具备足够的资金搭建分布式环境,也具备足够大的数据量。针对 RocketMQ,大型软件公司也可以抽出人手对RocketMQ 进行定制化开发,毕竟国内有能力改 JAVA 源码的人,还是相当多的。至于 Kafka,根据业务场景选择,如果有日志采集功能,肯定是首选 Kafka 了。
RabbitMQ 2007 年发布,是一个在 AMQP (高级消息队列协议) 基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
开发语言为 Erlang,单机吞吐量为万级,时效性为 us 级,可用性高(主从架构);
并发能力很强,性能极其好,延迟很低,管理界面较丰富。
ActiveMQ 是由 Apache 出品,ActiveMQ 是一个完全支持 JMS1.1 和 J2EE 1.4 规范的 JMS Provider 实现。它非常快速,支持多种语言的客户端和协议,而且可以非常容易的嵌入到企业的应用环境中,并有许多高级功能。
开发语言为 Java,单机吞吐量为万级,时效性为 ms 级,可用性高(主从架构);
成熟产品,在很多公司得到应用,有较多的文档,各种协议支持较好。
RocketMQ 出自阿里公司的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进,消息可靠性上比 Kafka 更好。RocketMQ 在阿里集团被广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理等。
开发语言为 Java,单机吞吐量为十万级,时效性为 ms 级,可用性非常高(分布式架构);
MQ 功能比较完备,扩展性佳。
Apache Kafka 是一个分布式消息发布订阅系统。它最初由 LinkedIn 公司基于独特的设计实现为一个分布式的提交日志系统 (a distributed commit log),之后成为 Apache 项目的一部分。Kafka 系统快速、可扩展并且可持久化。它的分区特性,可复制和可容错都是其不错的特性。
开发语言为 scala,单机吞吐量为十万级,时效性为 ms 级以内,可用性非常高(分布式架构);
只支持主要的 MQ 功能,像一些消息查询、消息回溯等功能都没有提供,毕竟是为大数据准备的,在大数据领域应用广。
官网:http://kafka.apache.org/
Kafka 是最初由 Linkedin 公司开发,是一个分布式、分区的、多副本的、多订阅者,基于 Zookeeper 协调的分布式日志系统(也可以当做 MQ 系统),常见可以用于 web/nginx 日志、访问日志,消息服务等等,Linkedin 于 2010 年贡献给了 Apache 基金会并成为顶级开源项目。
主要应用场景是:日志收集系统和消息系统。
Kafka 主要设计目标:
以时间复杂度为 O(1) 的方式提供消息持久化能力,即使对 TB 级以上数据也能保证常数时间的访问性能。
高吞吐率,即使在非常廉价的商用机器上也能做到单机支持每秒 100K 条消息的传输。
支持 Kafka Server 间的消息分区,及分布式消费,同时保证每个 partition 内的消息顺序传输。
同时支持离线数据处理和实时数据处理。
Scale out - 支持在线水平扩展。
1)解耦。Kafka 具备消息系统的优点,只要生产者和消费者数据两端遵循接口约束,就可以自行扩展或修改数据处理的业务过程。
2)高吞吐量、低延迟。即使在非常廉价的机器上,Kafka 也能做到每秒处理几十万条消息,而它的延迟最低只有几毫秒。
3)持久性。Kafka 可以将消息直接持久化在普通磁盘上,且磁盘读写性能优异。
4)扩展性。Kafka 集群支持热扩展,Kafka 集群启动运行后,用户可以直接向集群添加。
5)容错性。Kafka 会将数据备份到多台服务器节点中,即使 Kafka 集群中的某一台 Kafka 服务节点宕机,也不会影响整个系统的功能。
6)支持多种客户端语言。Kafka 支持 Java、.NET、PHP、Python 等多种语言。
消息处理(MQ)。
KafKa 可以代替传统的消息队列软件,使用 KafKa 来实现队列有如下优点:
分布式日志系统 (Log):
在很多时候需要对一些庞大的数据进行存留,日志存储这块会遇到巨大的问题,日志不能丢,日志存文件不好找,定位一条消息成本高(遍历当天日志文件),实时显示给用户难,这几类问题 KafKa 都能游刃有余。
流式处理:
流式处理就是指实时地处理一个或多个事件流。
流式的处理框架 (spark、storm、flink) 从主题中读取数据,对其进行处理,并将处理后的结果数据写入新的主题,供用户和应用程序使用,Kafka 的强耐久性在流处理的上下文中也非常的有用。
producer01 --订单消息--> Kafka集群
producer02 --用户注册的消息--> Kafka集群
Kafka集群:存储消息
{
[broker0 ip port (订单的 topic)],
[broker1 ip port (用户注册的 topic)],
[broker2 ip port]
}
Kafka集群:可以有很多个节点实例,每一个实例都是一个 Broker。
Consumer 消费者 -----> Kafka集群
[Producer,Kafka集群,Consumer] ----> Zookeeper存储集群的元数据信息
不同的消费生产者生产不同的消息
Kafka Cluster - 由多个服务器组成,每个服务器单独的名字 broker。
Kafka Broker - Kafka 集群中包含的服务器。
Kafka Producer - 消息生产者,发布消息到 Kafka 集群的终端或服务。
Kafka Consumer - 消息消费者,负责消费数据。
Kafka Topic - 主题,一类消息的名称;存储数据时将一类数据存放在某个 Topic 下,消费数据也是消费一类数据。
注意:Kafka 的元数据都是存放在 Zookeeper 中。
Kafka 支持消息持久化,消费端为 pull 模型来拉取数据,消费状态和订阅关系有客户端负责维护,消息消费完后,不会立即删除,会保留历史消息。因此支持多订阅时,消息只会存储一份就可以了。
Topic & Partition 主题和分区:
commit log
文件。Topic --> 多个分区 --> 分区日志。
每个消息都是在分区日志进行追加。
ID 就是 offset,为 long 类型,每次加一,有序性,唯一表示和位置。
消费者可以选择性消费消息。
在每一个消费者中唯一保存的元数据是 offset(偏移量)即消费在 log 中的位置,偏移量由消费者所控制:通常在读取记录后,消费者会以线性的方式增加偏移量,但是实际上,由于这个位置由消费者控制,所以消费者可以采用任何顺序来消费记录。例如,一个消费者可以重置到一个旧的偏移量,从而重新处理旧的数据;也可以跳过最近的记录,从"现在"开始消费。
这些细节说明 Kafka 消费者是非常廉价的 ---- 消费者的增加和减少,对集群或者其他消费者没有多大的影响。
ZooKeeper 作为给分布式系统提供协调服务的工具被 Kafka 所依赖。在分布式系统中,消费者需要知道有哪些生产者是可用的,而如果每次消费者都需要和生产者建立连接并测试是否成功连接,那效率也太低了,显然是不可取的。而通过使用 ZooKeeper 协调服务,Kafka 就能将 Producer,Consumer,Broker 等结合在一起,同时借助 ZooKeeper,Kafka 就能够将所有组件在无状态的条件下建立起生产者和消费者的订阅关系,实现负载均衡。
环境准备:准备三台服务器,安装 jdk1.8,其中每一台 Linux 服务器的 hosts 文件中都需要配置如下的内容。
192.168.186.11 node1
192.168.186.12 node2
192.168.186.13 node3
安装目录创建:
安装包存放的目录:/export/software
安装程序存放的目录:/export/servers
数据目录:/export/data
日志目录:/export/logs
创建各级目录命令:
mkdir -p /export/servers/
mkdir -p /export/software/
mkdir -p /export/data/
mkdir -p /export/logs/
修改 host:
执行命令 cd /etc/
进入服务器 etc 目录。
执行命令 vi hosts
编辑 hosts 文件。
输入要修改的内容。
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.186.11 node1
192.168.186.12 node2
192.168.186.13 node3
执行命令 /etc/init.d/network restart
重启 hosts。
执行命令 cat /etc/hosts
可以查看到 hosts 文件修改成功。
Linux 安装 JDK,三台 Linux 都安装。
上传 JDK 到 linux:使用 SSH 方式、使用 CRT 方式。
使用 CRT 需要先在 Linux 虚拟机上安装 lrzsz 上传工具,安装方式: yum install -y lrzsz
。
安装 lrzsz 之后,只需要在 Linux 命令行中输入:rz
,就可以弹出一个文件上传窗口。
安装并配置 JDK:
# 使用 rpm 安装 JDK
rpm -ivh jdk-8u261-linux-x64.rpm
# 默认的安装路径是 /usr/java/jdk1.8.0_261-amd64
# 配置 JAVA_HOME
vi /etc/profile
# 文件最后添加两行
export JAVA_HOME=/usr/java/jdk1.8.0_261-amd64
export PATH=$PATH:$JAVA_HOME/bin
# 退出 vi,使配置生效
source /etc/profile
查看 JDK 是否正确安装
java -version
Linux 安装 Zookeeper,三台 Linux 都安装,以搭建 Zookeeper 集群。
上传 zookeeper-3.4.14.tar.gz
。
解压并配置 Zookeeper(配置 data 目录,集群节点)。
# node1操作
# 解压到/opt 目录
tar -zxf zookeeper-3.4.14.tar.gz -C /opt
# 配置
cd /opt/zookeeper-3.4.14/conf
# 配置文件重命名后生效
cp zoo_sample.cfg zoo.cfg
#编辑
vi zoo.cfg
# 设置数据目录
dataDir=/var/renda/zookeeper/data
# 添加配置 Zookeeper 集群节点
server.1=node1:2881:3881
server.2=node2:2881:3881
server.3=node3:2881:3881
# 退出 vim
mkdir -p /var/renda/zookeeper/data
echo 1 > /var/renda/zookeeper/data/myid
# 配置环境变量
vi /etc/profile
# 添加
export ZOOKEEPER_PREFIX=/opt/zookeeper-3.4.14
export PATH=$PATH:$ZOOKEEPER_PREFIX/bin
export ZOO_LOG_DIR=/var/renda/zookeeper/log
# 退出 vim,让配置生效
source /etc/profile
node2
配置与 node1
基本一样,下面为不同之处:
echo 2 > /var/renda/zookeeper/data/myid
node3
配置与 node1
基本一样,下面为不同之处:
echo 3 > /var/renda/zookeeper/data/myid
启动 Zookeeper:
# 在三台 Linux 上启动 Zookeeper
[root@node1 ~]# zkServer.sh start
[root@node2 ~]# zkServer.sh start
[root@node3 ~]# zkServer.sh start
# 在三台 Linux 上查看 Zookeeper 的状态
[root@node1 ~]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper-3.4.14/bin/../conf/zoo.cfg
Mode: follower
[root@node2 ~]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper-3.4.14/bin/../conf/zoo.cfg
Mode: leader
[root@node3 ~]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/zookeeper-3.4.14/bin/../conf/zoo.cfg
Mode: follower
中文网站:https://kafka.apachecn.org/
英文网站:https://kafka.apache.org/
由于 kafka 是 scala 语言编写的,基于 scala 的多个版本,kafka 发布了多个版本。
其中 2.11 是推荐版本。
# 使用 rz 命令将安装包上传至 /export/software
# 1) 切换目录上传安装包
cd /export/software
rz
# 选择对应安装包上传即可
# 2) 解压安装包到指定目录下
tar -zxvf kafka_2.11-1.0.0.tgz -C /export/servers/
cd /export/servers/
# 3) 重命名 (由于名称太长)
mv kafka_2.11-1.0.0 kafka
cd /export/servers/kafka/config/
vi server.properties
# 主要修改一下 6 个地方:
# 1) broker.id 需要保证每一台 kafka 都有一个独立的 broker
# 2) log.dirs 数据存放的目录
# 3) zookeeper.connect zookeeper 的连接地址信息
# 4) delete.topic.enable 是否直接删除 topic
# 5) host.name 主机的名称
# 6) 修改: listeners=PLAINTEXT://node1:9092
# broker.id 标识了 kafka 集群中一个唯一 broker
broker.id=0
listeners=PLAINTEXT://node1:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
# 存放生产者生产的数据,数据一般以 topic 的方式存放
log.dirs=/export/data/kafka
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
# zk 的信息
zookeeper.connect=node1:2181,node2:2181,node3:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
delete.topic.enable=true
host.name=node1
cd /export/servers
scp -r kafka/ node2:$PWD
scp -r kafka/ node3:$PWD
Linux scp
命令用于 Linux 之间复制文件和目录。
scp
是 secure copy 的缩写,scp
是 linux 系统下基于 ssh 登陆进行安全的远程文件拷贝命令。
拷贝后,需要修改每一台服务器的 Kafka 配置文件的 broker.id
和 host.name
和 listeners
。
# ip 为 192.168.186.11 的服务器:
broker.id=0
host.name=node1
listeners=PLAINTEXT://node1:9092
# ip 为 192.168.186.12 的服务器:
broker.id=1
host.name=node2
listeners=PLAINTEXT://node2:9092
# ip 为 192.168.186.13 的服务器:
broker.id=2
host.name=node3
listeners=PLAINTEXT://node3:9092
在每一台的服务器执行创建数据文件的命令:
mkdir -p /export/data/kafka
注意事项:在 kafka 启动前,一定要让 zookeeper 启动起来。
cd /export/servers/kafka/bin
# 前台启动
./kafka-server-start.sh /export/servers/kafka/config/server.properties
# 后台启动
nohup ./kafka-server-start.sh /export/servers/kafka/config/server.properties 2>&1 &
# 注意:可以启动一台 broker,单机版。也可以同时启动三台 broker,组成一个 kafka 集群版
# kafka 停止
./kafka-server-stop.sh
登录的前提是,通过 jps 是可以看到 Kafka 的进程。登录 zookeeper /opt/zookeeper-3.4.14/bin/zkCli.sh
;然后执行 ls /brokers/ids
,可以看到输出为 [0, 1, 2]
。
zoo1
- 192.168.0.11
- 2184:2181
zoo2
- 192.168.0.12
- 2185:2181
zoo3
- 192.168.0.13
- 2186:2181
kafka1
- 192.168.0.14
- 9092:9092
- kafka1
kafka2
- 192.168.0.15
- 9093:9092
- kafka1
kafka3
- 192.168.0.16
- 9094:9092
- kafka1
kafka-manager
- 192.168.0.17
- 9000:9000
宿主机
- 192.168.186.20
1)宿主机 IP 地址为 192.168.186.20
修改网络配置:vi /etc/sysconfig/network-scrpits/ifcfg-ens33
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=b8fd5718-51f5-48f8-979b-b9f1f7a5ebf2
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.186.20
GATEWAY=192.168.186.2
NETMASK=255.255.255.0
NM_CONTROLLED=no
DNS1=8.8.8.8
DNS2=8.8.4.4
2)安装 docker - compose
Compose 是用于定义和运行多容器 Docker 应用程序的工具。
如果还是使用原来的方式操作 docker,那么就需要下载三个镜像:Zookeeper、Kafka、Kafka-Manager,需要对 Zookeeper 安装三次并配置集群、需要对 Kafka 安装三次,修改配置文件,Kafka-Manager 安装一次,但是需要配置端口映射机器 Zookeeper、Kafka 容器的信息。
但是引入 Compose 之后可以使用 yaml 格式的配置文件配置好这些信息,每个 image 只需要编写一个 yaml 文件,可以在文件中定义集群信息、端口映射等信息,运行该文件即可创建完成集群。
通过 Compose,可以使用 YML 文件来配置应用程序需要的所有服务。然后,使用一个命令,就可以从 YML 文件配置中创建并启动所有服务。
Compose 使用的两个步骤:
docker-compose.yml
定义构成应用程序的服务,这样它们可以在隔离环境中一起运行。docker-compose up
命令来启动并运行整个应用程序。# curl 是一种命令行工具,作用是发出网络请求,然后获取数据
curl -L https://github.com/docker/compose/releases/download/1.8.0/run.sh > /usr/local/bin/docker-compose
# chmod(change mode)命令是控制用户对文件的权限的命令
chmod +x /usr/local/bin/docker-compose
# 查看版本
docker-compose --version
3)拉取镜像
# 拉取 Zookeeper 镜像
docker pull zookeeper:3.4
# 拉取 kafka 镜像
docker pull wurstmeister/kafka
# 拉取 kafka-manager 镜像
docker pull sheepkiller/kafka-manager:latest
4)创建集群网络
基于 Linux 宿主机而工作的,也是在 Linux 宿主机创建,创建之后 Docker 容器中的各个应用程序可以使用该网络。
# 创建
docker network create --driver bridge --subnet 192.168.0.0/24 --gateway 192.168.0.1 kafka
# 查看
docker network ls
5)网络设置
新建网段之后可能会出现:WARNING: IPv4 forwarding is disabled. Networking will not work.
解决方式:
echo "net.ipv4.ip_forward=1" >>/usr/lib/sysctl.d/00-system.conf
。systemctl restart network && systemctl restart docker
。每个镜像一个 yml 文件,Zookeeper、Kafka、Kafka-Manager 一个;编写 yml 文件。
1)docker-compose-zookeeper.yml
Zookeeper 各个节点的信息,端口映射,集群信息,网络配置:
# 指定 compose 文件的版本
version: '2'
# 通过镜像安装容器的配置
services:
zoo1:
# 使用的镜像
image: zookeeper:3.4
# 当 Docker 重启时,该容器重启
restart: always
# 类似于在基于 Linux 虚拟机 Kafka 集群中 hosts 文件的值
hostname: zoo1
container_name: zoo1
ports:
# 端口映射
- 2184:2181
# 集群环境
environment:
# 当前 Zookeeper 实例的 id
ZOO_MY_ID: 1
# 集群节点
ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888
# 使用的网络配置
networks:
kafka:
ipv4_address: 192.168.0.11
zoo2:
image: zookeeper:3.4
restart: always
hostname: zoo2
container_name: zoo2
ports:
- 2185:2181
environment:
ZOO_MY_ID: 2
ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=0.0.0.0:2888:3888 server.3=zoo3:2888:3888
networks:
kafka:
ipv4_address: 192.168.0.12
zoo3:
image: zookeeper:3.4
restart: always
hostname: zoo3
container_name: zoo3
ports:
- 2186:2181
environment:
ZOO_MY_ID: 3
ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=0.0.0.0:2888:3888
networks:
kafka:
ipv4_address: 192.168.0.13
networks:
kafka:
external:
name: kafka
2)docker-compose-kafka.yml
version: '2'
services:
kafka1:
image: wurstmeister/kafka
restart: always
hostname: kafka1
container_name: kafka1
privileged: true
ports:
- 9092:9092
# 集群环境配置
environment:
KAFKA_ADVERTISED_HOST_NAME: kafka1
KAFKA_LISTENERS: PLAINTEXT://kafka1:9092
KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka1:9092
KAFKA_ADVERTISED_PORT: 9092
KAFKA_ZOOKEEPER_CONNECT: zoo1:2181,zoo2:2181,zoo3:2181
# 配置 Zookeeper 集群的地址
external_links:
- zoo1
- zoo2
- zoo3
networks:
kafka:
ipv4_address: 192.168.0.14
kafka2:
image: wurstmeister/kafka
restart: always
hostname: kafka2
container_name: kafka2
privileged: true
ports:
- 9093:9093
environment:
KAFKA_ADVERTISED_HOST_NAME: kafka2
KAFKA_LISTENERS: PLAINTEXT://kafka2:9093
KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka2:9093
KAFKA_ADVERTISED_PORT: 9093
KAFKA_ZOOKEEPER_CONNECT: zoo1:2181,zoo2:2181,zoo3:2181
external_links:
- zoo1
- zoo2
- zoo3
networks:
kafka:
ipv4_address: 192.168.0.15
kafka3:
image: wurstmeister/kafka
restart: always
hostname: kafka3
container_name: kafka3
privileged: true
ports:
- 9094:9094
environment:
KAFKA_ADVERTISED_HOST_NAME: kafka3
KAFKA_LISTENERS: PLAINTEXT://kafka3:9094
KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka3:9094
KAFKA_ADVERTISED_PORT: 9094
KAFKA_ZOOKEEPER_CONNECT: zoo1:2181,zoo2:2181,zoo3:2181
external_links:
- zoo1
- zoo2
- zoo3
networks:
kafka:
ipv4_address: 192.168.0.16
networks:
kafka:
external:
name: kafka
3)docker-compose-manager.yml
version: '2'
services:
kafka-manager:
image: sheepkiller/kafka-manager:latest
restart: always
container_name: kafka-manager
hostname: kafka-manager
ports:
- 9000:9000
# 可以管理 zoo 集群和 kafka 集群
environment:
ZK_HOSTS: zoo1:2181,zoo2:2181,zoo3:2181
KAFKA_BROKERS: kafka1:9092,kafka2:9092,kafka3:9092
APPLICATION_SECRET: letmein
KM_ARGS: -Djava.net.preferIPv4Stack=true
networks:
kafka:
ipv4_address: 192.168.0.17
networks:
kafka:
external:
name: kafka
将 yaml 文件上传到 Docker 宿主机中。
开始部署:
# 使用命令:
# 参数说明:up 表示启动,-d 表示后台运行。
docker-compose up -d
# 参数说明: -f:表示加载指定位置的yaml文件
docker-compose -f /home/docker-compose-zookeeper.yml up -d
docker-compose -f /home/docker-compose-kafka.yml up -d
docker-compose -f /home/docker-compose-manager.yml up -d
测试:浏览器访问宿主机 http://192.168.186.20:9000/
在 docker 环境中操作。
创建一个名字为 test 的主题, 有一个分区,有三个副本。一个主题下可以有多个分区,每个分区可以用对应的副本。
Docker:
# 登录到 Kafka 容器
docker exec -it a44b97cb4f00 /bin/bash
# 切换到 bin 目录
cd opt/kafka/bin/
# 执行创建
kafka-topics.sh --create --zookeeper zoo1:2181 --replication-factor 3 --partitions 1 --topic test
--create
:新建命令。--zookeeper
:Zookeeper节点,一个或多个。--replication-factor
:指定副本,每个分区有三个副本。--partitions
:1查看 kafka 当中存在的主题:
kafka-topics.sh --list --zookeeper zoo1:2181,zoo2:2181,zoo3:2181
__consumer_offsets
这个 topic 是由 kafka 自动创建的,默认 50 个分区,存储消费位移信息(offset),老版本架构中是存储在 Zookeeper 中。
模拟生产者来生产数据:
Kafka 自带一个命令行客户端,它从文件或标准输入中获取输入,并将其作为 message(消息)发送到 Kafka 集群。
默认情况下,每行将作为单独的 message 发送。
运行 producer,然后在控制台输入一些消息以发送到服务器。
bash-4.4# kafka-console-producer.sh --broker-list kafka1:9092,kafka2:9093,kafka3:9094 --topic test
>This is a new Message
>This is another new Message
bash-4.4# kafka-console-consumer.sh --bootstrap-server kafka1:9092,kafka2:9093,kafka3:9094 --topic test --from-beginning
This is a new Message
This is another new Message
在使用的时候会用到 bootstrap-server
与 broker-list
其实是实现一个功能,broker-list
是旧版本命令。
确保消费者消费的消息是顺序的,需要把消息存放在同一个 topic 的同一个分区。
一个主题多个分区,分区内消息有序。
运行 describe 查看 topic 的相关详细信息。
# 查看 topic 主题详情,Zookeeper 节点写一个和全部写,效果一致
kafka-topics.sh --describe --zookeeper zoo1:2181,zoo2:2181,zoo3:2181 --topic test
# 结果列表
Topic: test1 PartitionCount: 3 ReplicationFactor: 3 Configs:
Topic: test1 Partition: 0 Leader: 1001 Replicas: 1001,1003,1002 Isr: 1001,1003,1002
Topic: test1 Partition: 1 Leader: 1002 Replicas: 1002,1001,1003 Isr: 1002,1001,1003
Topic: test1 Partition: 2 Leader: 1003 Replicas: 1003,1002,1001 Isr: 1003,1002,1001
结果说明:这是输出的解释。第一行给出了所有分区的摘要,每个附加行提供有关一个分区的信息。有几个分区,下面就显示几行。
Leader
:是负责给定分区的所有读取和写入的节点。每个节点将成为随机选择的分区部分的领导者。Replicas
:显示给定 partiton 所有副本所存储节点的节点列表,不管该节点是否是 leader 或者是否存活。Isr
:副本都已同步的的节点集合,这个集合中的所有节点都是存活状态,并且跟 leader 同步。任意 kafka 服务器执行以下命令可以增加 topic 分区数:
bash-4.4# kafka-topics.sh --zookeeper zoo1:2181,zoo2:2181,zoo3:2181 --alter --topic test --partitions 8
WARNING: If partitions are increased for a topic that has a key, the partition logic or ordering of the messages will be affected
Adding partitions succeeded!
flush.messages
:此项配置指定时间间隔,强制进行 fsync 日志,默认值为 None。
例如,如果这个选项设置为 1,那么每条消息之后都需要进行 fsync,如果设置为 5,则每 5 条消息就需要进行一次 fsync
。
一般来说,建议不要设置这个值。此参数的设置需要在"数据可靠性"与"性能"之间做必要的权衡。
如果此值过大将会导致每次 fsync
的时间较长 (IO 阻塞)。
如果此值过小将会导致 fsync
的次数较多,这也意味着整体的 client 请求有一定的延迟,物理 server 故障,将会导致没有 fsync
的消息丢失。
动态修改 Kakfa 的配置示例:
bash-4.4# kafka-topics.sh --zookeeper zoo1:2181 --alter --topic test --config flush.messages=1
WARNING: Altering topic configuration from this script has been deprecated and may be removed in future releases.
Going forward, please use kafka-configs.sh for this functionality
Updated config for topic test.
动态删除 Kafka 集群配置:
bash-4.4# kafka-topics.sh --zookeeper zoo1:2181 --alter --topic test --delete-config flush.messages
WARNING: Altering topic configuration from this script has been deprecated and may be removed in future releases.
Going forward, please use kafka-configs.sh for this functionality
Updated config for topic test.
目前删除 topic 在默认情况只是打上一个删除的标记,在重新启动 kafka 后才删除。如果需要立即删除,则需要在 server.properties
文件中配置:delete.topic.enable=true
(集群中的所有实例节点),一个主题会在不同的 Kafka 节点中分配分组信息和副本信息。
然后执行以下命令进行删除 topic:
bash-4.4# kafka-topics.sh --zookeeper zoo1:2181 --delete --topic test
Topic test is marked for deletion.
Note: This will have no impact if delete.topic.enable is not set to true.
Kafka 集群之间是通过 Host Name 进行通讯,HostName --> IP 地址。
Kafka 容器各个节点的 Host Name 为 kafka1, kafka2, kafka3。
192.168.186.20:9092 -> kafka1
192.168.186.20:9093 -> kafka2
192.168.186.20:9094 -> kafka3
Compose.yml:指定了端口映射,将 Kafka 各个容器的端口映射到宿主机 CentOS 7,因此可以通过访问 CentOS 7 的 IP 地址访问 Kafka 容器。
将 Kafka 的 hostname 定义一份在 windows 的 host 文件中。
如果通过 Java API 访问 Kafka 的集群,那么需要在 Windows 的 host 文件添加本地解析。
修改 Windows 的 Host 文件:
192.168.186.20 kafka1
192.168.186.20 kafka2
192.168.186.20 kafka3
创建 maven 的工程, 导入 kafka 相关的依赖:
<dependencies>
<dependency>
<groupId>org.apache.kafkagroupId>
<artifactId>kafka-clientsartifactId>
<version>1.0.0version>
dependency>
dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.pluginsgroupId>
<artifactId>maven-compiler-pluginartifactId>
<version>3.2version>
<configuration>
<source>1.8source>
<target>1.8target>
<encoding>UTF-8encoding>
configuration>
plugin>
plugins>
build>
com.renda.ProducerDemo
public class ProducerDemo {
// 定义主题
public static String topic = "renda";
public static void main(String[] args) {
Properties properties = new Properties();
properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
"192.168.186.20:9092,192.168.186.20:9093,192.168.186.20:9094");
// 网络传输, 对 key 和 value 进行序列化
properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
// 创建消息生产对象,需要从 properties 对象或者从 properties 文件中加载信息
KafkaProducer<String, String> kafkaProducer = new KafkaProducer<>(properties);
try {
while (true) {
// 设置消息内容
String msg = "Hello, " + new Random().nextInt(100);
// 将消息内容封装到 ProducerRecord 中
ProducerRecord<String, String> producerRecord = new ProducerRecord<>(topic, msg);
kafkaProducer.send(producerRecord);
System.out.println("Message Sent Successfully: " + msg);
Thread.sleep(500);
}
} catch (Exception e) {
e.printStackTrace();
} finally {
kafkaProducer.close();
}
}
}
com.renda.CosumerDemo
public class ConsumerDemo {
public static String topic = "renda";
public static void main(String[] args) {
Properties properties = new Properties();
properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
"192.168.186.20:9092,192.168.186.20:9093,192.168.186.20:9094");
properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
// 指定组名
properties.put(ConsumerConfig.GROUP_ID_CONFIG, "renda-1");
KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(properties);
// 订阅消息
kafkaConsumer.subscribe(Collections.singletonList(topic));
while (true) {
ConsumerRecords<String, String> records = kafkaConsumer.poll(100);
for (ConsumerRecord<String, String> record : records) {
System.out.println(String.format("topic: %s, offset: %d. msg: %s",
record.topic(), record.offset(), record.value()));
}
}
}
}
Kafka 有三层结构:Kafka 有多个主题,每个主题有多个分区,每个分区又有多条消息。
分区机制:主要解决了单台服务器存储容量有限和单台服务器并发数限制的问题。一个分片的不同副本不能放到同一个 broker 上。
当主题数据量非常大的时候,一个服务器存放不了,就将数据分成两个或者多个部分,存放在多台服务器上。每个服务器上的数据,叫做一个分片。
分区对于 Kafka 集群的好处是:实现负载均衡,高存储能力、高伸缩性。分区对于消费者来说,可以提高并发度,提高效率。
副本:副本备份机制解决了数据存储的高可用问题。
当数据只保存一份的时候,有丢失的风险。为了更好的容错和容灾,将数据拷贝几份,保存到不同的机器上。
多个 follower 副本通常存放在和 leader 副本不同的 broker 中。通过这样的机制实现了高可用,当某台机器挂掉后,其他 follower 副本也能迅速”转正“,开始对外提供服务。
Kafka 副本的作用:在 kafka 中,实现副本的目的就是冗余备份,且仅仅是冗余备份,所有的读写请求都是由 leader 副本进行处理的。Follower 副本仅有一个功能,那就是从 leader 副本拉取消息,尽量让自己跟 leader 副本的内容一致。
Follower 副本不对外提供服务,这样可以防止出现一些类似于数据库事务的幻读脏读的问题。为了提高一些性能而导致出现数据不一致问题,显然是不值得的。
从 Kafka 的大体角度上可以分为数据生产者,Kafka 集群,还有就是消费者,而要保证数据的不丢失也要从这三个角度去考虑。
消息生产者保证数据不丢失 - 消息确认机制(ACK 机制),参考值有三个:0,1,-1。
// producer 无需等待来自 broker 的确认而继续发送下一批消息。
// 这种情况下数据传输效率最高,但是数据可靠性确是最低的。
properties.put(ProducerConfig.ACKS_CONFIG,"0");
// producer 只要收到一个分区副本成功写入的通知就认为推送消息成功了。
// 这里有一个地方需要注意,这个副本必须是 leader 副本。
// 只有 leader 副本成功写入了,producer 才会认为消息发送成功。
properties.put(ProducerConfig.ACKS_CONFIG,"1");
// ack=-1,简单来说就是,producer 只有收到分区内所有副本的成功写入的通知才认为推送消息成功了。
properties.put(ProducerConfig.ACKS_CONFIG,"-1");
Kafka 消费消息的模型:
消息队列:0 1 2 3 4 5 6 7 8 9 10 11 12
Producers wirtes
Consumer A (offset=9) reads
Consumer B (offset=11) reads
消费者丢失数据:由于 Kafka consumer 默认是自动提交位移的(先更新位移,再消费消息),如果消费程序出现故障,没消费完毕,则丢失了消息,此时,broker 并不知道。
解决方案:
enable.auto.commit=false
关闭自动提交位移。
在消息被完整处理之后再手动提交位移。
properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");
Kafka 使用日志文件的方式来保存生产者消息,每条消息都有一个 offset 值来表示它在分区中的偏移量。
Kafka 中存储的一般都是海量的消息数据,为了避免日志文件过大,一个分片并不是直接对应在一个磁盘上的日志文件,而是对应磁盘上的一个目录,这个目录的命名规则是
。
Kafka 容器数据目录:/kafka/kafka-logs-kafka1
Kafka 作为消息中间件,只负责消息的临时存储,并不是永久存储,所以需要删除过期的数据。如果将所有的数据都存储在一个文件中,要删除过期的数据的时候,就变得非常的麻烦。如果将其进行切分成多个文件后,如果要删除过期数据,就可以根据文件的日期属性删除即可。默认只保留 168 小时,即七天之内的数据。因此 Kafka 的数据存储方案是多文件存储。
Log 分段:
每个分片目录中,kafka 通过分段的方式将数据分为多个 LogSegment。
一个 LogSegment 对应磁盘上的一个日志文件(00000000000000000000.log)和一个索引文件 (00000000000000000000.index)。
其中日志文件是用来记录消息的,索引文件是用来保存消息的索引。
每个 LogSegment 的大小可以在 server.properties
中 log.segment.bytes=107370
(设置分段大小,默认是 1 GB)选项进行设置。
当 log 文件等于 1 G 时,新的会写入到下一个 segment 中。
timeindex
文件,是 kafka 的具体时间日志。
存储的结构:
一个主题 --> 多个分区 --> 多个日志段(多个文件)。
第一步 - 查询 segment file
:
segment file 命名规则跟 offset 有关,根据 segment file 可以知道它的起始偏移量,因为 Segment file 的命名规则是上一个 segment 文件最后一条消息的 offset 值。所以只要根据 offset 二分查找文件列表,就可以快速定位到具体文件。
比如,第一个 segment file 是 00000000000000000000.index
表示最开始的文件,起始偏移量 (offset) 为 0。第二个是 00000000000000091932.index
- 代表消息量起始偏移量为 91933 = 91932 + 1
。那么 offset=5000
时应该定位 00000000000000000000.index
。
第二步 - 通过 segment file 查找 message:
通过第一步定位到 segment file,当 offset=5000
时,依次定位到 00000000000000000000.index
的元数据物理位置和 00000000000000000000.log
的物理偏移地址,然后再通过 00000000000000000000.log
顺序查找直到 offset=5000
为止。
Kafka 在数据生产的时候,有一个数据分发策略。默认的情况使用 DefaultPartitioner.class
类。
这个类中就定义数据分发的策略:
public interface Partitioner extends Configurable, Closeable {
/**
* Compute the partition for the given record.
*
* @param topic The topic name
* @param key The key to partition on (or null if no key)
* @param keyBytes The serialized key to partition on( or null if no key)
* @param value The value to partition on or null
* @param valueBytes The serialized value to partition on or null
* @param cluster The current cluster metadata
*/
public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster);
/**
* This is called when partitioner is closed.
*/
public void close();
}
默认实现类:org.apache.kafka.clients.producer.internals.DefaultPartitioner
1) 如果是用户指定了 partition,生产就不会调用 DefaultPartitioner.partition()
方法。
数据分发策略的时候,可以指定数据发往哪个partition。
当 ProducerRecord 的构造参数中有 partition 的时候,就可以发送到对应 partition 上。
/**
* Creates a record to be sent to a specified topic and partition
*
* @param topic The topic the record will be appended to
* @param partition The partition to which the record should be sent
* @param key The key that will be included in the record
* @param value The record contents
* @param headers The headers that will be included in the record
*/
public ProducerRecord(String topic, Integer partition, K key, V value, Iterable<Header> headers) {
this(topic, partition, null, key, value, headers);
}
2) DefaultPartitioner 源码
如果指定 key,是取决于 key 的 hash 值。
如果不指定 key,轮询分发。
public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
// 获取该 topic 的分区列表
List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
// 获得分区的个数
int numPartitions = partitions.size();
// 如果 key 值为 null; 如果没有指定 key,那么就是轮询
if (keyBytes == null) {
// 维护一个 key 为 topic 的 ConcurrentHashMap,并通过 CAS 操作的方式对 value 值执行递增 +1 操作
int nextValue = nextValue(topic);
// 获取该 topic 的可用分区列表
List<PartitionInfo> availablePartitions = cluster.availablePartitionsForTopic(topic);
// 如果可用分区大于 0
if (availablePartitions.size() > 0) {
// 执行求余操作,保证消息落在可用分区上
int part = Utils.toPositive(nextValue) % availablePartitions.size();
return availablePartitions.get(part).partition();
} else {
// no partitions are available, give a non-available partition
return Utils.toPositive(nextValue) % numPartitions;
}
} else {
// 指定了 key,key 肯定就不为 null
// hash the keyBytes to choose a partition
return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
}
}
同一个分区中的数据,只能被一个消费者组中的一个消费者所消费。例如 P0 分区中的数据不能被 Consumer Group A 中 C1 与 C2 同时消费。
消费组:一个消费组中可以包含多个消费者,properties.put(ConsumerConfig.GROUP_ID_CONFIG, "groupName");
如果该消费组有四个消费者,主题有四个分区,那么每人一个。多个消费组可以重复消费消息。
server.properties
1、broker.id = 0
Kafka 集群是由多个节点组成的,每个节点称为一个 broker,中文翻译是代理。每个 broker 都有一个不同的 brokerId,由 broker.id 指定,是一个不小于 0 的整数,各 brokerId 必须不同,但不必连续。如果想扩展 kafka 集群,只需引入新节点,分配一个不同的 broker.id 即可。
启动 kafka 集群时,每一个 broker 都会实例化并启动一个 kafkaController,并将该 broker 的 brokerId 注册到 zooKeeper 的相应节点中。集群各 broker 会根据选举机制选出其中一个 broker 作为 leader,即 leader kafkaController。Leader kafkaController 负责主题的创建与删除、分区和副本的管理等。当 leader kafkaController 宕机后,其他 broker 会再次选举出新的 leader kafkaController。
2、log.dir = /export/data/kafka/
Broker 持久化消息到哪里,数据目录。
3、log.retention.hours = 168
Log 文件最小存活时间,默认是 168h,即 7 天。相同作用的还有 log.retention.minutes
、log.retention.ms
。
数据存储的最大时间超过这个时间会根据 log.cleanup.policy
设置的策略处理数据,也就是消费端能够多久去消费数据。
log.retention.bytes
和 log.retention.hours
任意一个达到要求,都会执行删除,会被 topic 创建时的指定参数覆盖。
4、log.retention.check.interval.ms
多长时间检查一次是否有 log 文件要删除。默认是 300000ms,即 5 分钟。
5、log.retention.bytes
限制单个分区的 log 文件的最大值,超过这个值,将删除旧的 log,以满足 log 文件不超过这个值。默认是 -1,即不限制。
6、log.roll.hours
多少时间会生成一个新的 log segment,默认是 168h,即 7 天。相同作用的还有 log.roll.ms、segment.ms。
7、log.segment.bytes
Log segment 多大之后会生成一个新的 log segment,默认是 1073741824,即 1G。
8、log.flush.interval.messages
指定 broker 每收到几个消息就把消息从内存刷到硬盘(刷盘)。默认是 9223372036854775807。
Kafka 官方不建议使用这个配置,建议使用副本机制和操作系统的后台刷新功能,因为这更高效。这个配置可以根据不同的 topic 设置不同的值,即在创建 topic 的时候设置值。
在 Linux 操作系统中,把数据写入到文件系统之后,数据其实在操作系统的 page cache 里面,并没有刷到磁盘上去。如果此时操作系统挂了,其实数据就丢了。
1、kafka 是多副本的,当配置了同步复制之后。多个副本的数据都在 page cache 里面,出现多个副本同时挂掉的概率比 1 个副本挂掉,概率就小很多了。
2、操作系统有后台线程,定期刷盘。如果应用程序每写入 1 次数据,都调用一次 fsync,那性能损耗就很大,所以一般都会在性能和可靠性之间进行权衡。因为对应一个应用来说,虽然应用挂了,只要操作系统不挂,数据就不会丢。
9、log.flush.interval.ms
指定 broker 每隔多少毫秒就把消息从内存刷到硬盘。默认值同 log.flush.interval.messages
一样, 9223372036854775807。
同 log.flush.interval.messages
一样,kafka 官方不建议使用这个配置。
10、delete.topic.enable=true
是否允许从物理上删除 topic。
在生产环境下,在 Kafka 集群中,消息数据变化是被关注的问题,当业务前提不复杂时,可以使用 Kafka 命令提供带有 Zookeeper 客户端工具的工具,可以轻松完成工作。随着业务的复杂性,增加 Group 和 Topic,那么使用 Kafka 提供命令工具,已经感到无能为力,那么 Kafka 监控系统目前尤为重要,需要观察消费者应用的细节。
为了简化开发者和服务工程师维护 Kafka 集群的工作有一个监控管理工具,叫做 Kafka-eagle。这个管理工具可以很容易地发现分布在集群中的哪些 topic 分布不均匀,或者是分区在整个集群分布不均匀的的情况。它支持管理多个集群、选择副本、副本重新分配以及创建 topic。同时,这个管理工具也是一个非常好的可以快速浏览这个集群的工具。
Kafka-eagle 在 Docker 中没有镜像。
环境要求:需要安装 jdk,启动 zk 以及 kafka 的服务。
# 启动 Zookeeper
zkServer.sh start
# 启动 Kafka
cd /export/servers/kafka/bin
nohup ./kafka-server-start.sh /export/servers/kafka/config/server.properties 2>&1 &
Windows host 文件:
192.168.186.20 kafka1
192.168.186.20 kafka2
192.168.186.20 kafka3
192.168.186.11 node1
192.168.186.12 node2
192.168.186.13 node3
搭建步骤:
Kafka-eagle 官网 - http://download.kafka-eagle.org/
可以从官网上面直接下载最新的安装包即可 kafka-eagle-bin-1.3.2.tar.gz
这个版本即可。
代码托管地址 - https://github.com/smartloli/kafka-eagle/releases
这里选择将 kafak-eagle 安装在 node3 服务器。
如果要解压的是 zip 格式,需要先安装命令支持。
yum install unzip
unzip xxxx.zip
# 将安装包上传至 node01 服务器的 /export/softwares 路径下, 然后解压
cd /export/software/
unzip kafka-eagle.zip
cd kafka-eagle/kafka-eagle-web/target/
tar -zxf kafka-eagle-web-2.0.1-bin.tar.gz -C /export/servers
Kafka-eagle 需要使用一个数据库来保存一些元数据信息,这里直接使用 MySQL 数据库来保存即可,在本地执行以下命令创建一个 MySQL 数据库即可。
可以使用 SQLite 或者 MySQL 数据库。
-- 进入 mysql 客户端
create database if not exists eagle character set utf8mb4;
cd /export/servers/kafka-eagle-web-1.3.2/conf
vi system-config.properties
# 修改内容如下
######################################
# multi zookeeper & kafka cluster list
######################################
kafka.eagle.zk.cluster.alias=cluster1
cluster1.zk.list=node1:2181,node2:2181,node3:2181
######################################
# kafka offset storage
######################################
cluster1.kafka.eagle.offset.storage=kafka
# cluster2.kafka.eagle.offset.storage=zk
######################################
# kafka sqlite jdbc driver address
######################################
# kafka.eagle.driver=org.sqlite.JDBC
# kafka.eagle.url=jdbc:sqlite:/hadoop/kafka-eagle/db/ke.db
# kafka.eagle.username=root
# kafka.eagle.password=www.kafka-eagle.org
######################################
# kafka mysql jdbc driver address
######################################
kafka.eagle.driver=com.mysql.jdbc.Driver
kafka.eagle.url=jdbc:mysql://192.168.1.116:3306/eagle?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
kafka.eagle.username=root
kafka.eagle.password=password
默认情况下 MySQL 只允许本机连接到 MySQL 实例中,所以如果要远程访问,必须开放权限。
# 修改权限
update user set host = '%' where user ='root';
# 刷新配置
flush privileges;
Kafka-eagle 必须配置环境变量,node03 服务器执行以下命令来进行配置环境变量。
vi /etc/profile
# 内容如下:
export KE_HOME=/export/servers/kafka-eagle-web-1.3.2
export PATH=:$KE_HOME/bin:$PATH
# 让修改立即生效,执行
source /etc/profile
cd /export/servers/kafka-eagle-web-1.3.2/bin
chmod u+x ke.sh
./ke.sh start
http://node03:8048/ke/account/signin?/ke/
用户名:admin
密码:123456
想了解更多,欢迎关注我的微信公众号:Renda_Zhang