"Apache Kafka is a distributed streaming platform"
这是 kafka 官网上给出的介绍,Kafka 是一个分布式的流式平台。什么是分布式的流式平台?一般来说,流式平台包含以下三个特点:
Kafka 通常用于两大类的应用:
为了理解 Kafka 是如何做这些事的,我们从底层开始来深入了解和探索一下 Kakfa 的能力。
首先熟悉一些基本概念:
topics
key
,一个 value
,和一个 timestamp
Kafka 包含四个核心的 APIs
在Kafka中,客户端和服务器之间的通信是通过简单,高性能,语言无关的TCP协议完成的。 此协议已版本化并保持与旧版本的向后兼容性。 我们为Kafka提供Java客户端,但客户端还有多种其它语言版本。
我们首先来探讨一下 Kafka 为记录流提供的核心抽象 — 主题 (topic)
主题是发布记录的类别或订阅源名称。 Kafka的主题总是多订阅的; 也就是说,一个主题可以有零个,一个或多个消费者订阅写入它的数据。
对于每一个主题,Kafka 集群都包含一个 partition
的日志,看起来如下:
每一个 partition
(分区)都是有序的,不可变的记录序列,不断附加到结构化的提交日志中。 分区中的记录每个都分配了一个称为 offset
(偏移量)的顺序ID号,它唯一地标识分区中的每个记录。
Kafka 集群持久保存所有已发布的记录 - 无论是否已使用 - 使用可配置的保留期。例如,如果保留策略设置为两天,则在发布记录后的两天内,它可供使用,之后将被丢弃以释放空间。 Kafka的性能在数据大小方面实际上是恒定的,因此长时间存储数据不是问题
实际上,基于每个消费者保留的唯一元数据是该消费者在日志中的偏移或位置。 这种偏移由消费者控制:通常消费者在读取记录时会线性地提高其偏移量,但事实上,由于该位置由消费者控制,因此它可以按照自己喜欢的任何顺序消费记录。 例如,消费者可以重置为较旧的偏移量来重新处理过去的数据,或者跳到最近的记录并从“现在”开始消费。
这些功能组合意味着Kafka消费者非常便宜 - 他们可以来来往往对集群或其他消费者没有太大影响。 例如,您可以使用我们的命令行工具 tail
任何主题的内容,而无需更改任何现有使用者所消耗的内容。
日志中的分区有多种用途。 首先,它们允许日志扩展到超出适合单个服务器的大小。 每个单独的分区必须适合托管它的服务器,但主题可能有许多分区,因此它可以处理任意数量的数据。 其次,它们充当了并行性的单位.
日志的分区分布在Kafka集群中的服务器上,每个服务器处理数据并请求分区的共享。 每个分区都在可配置数量的服务器上进行复制,以实现容错。
每个分区都有一个服务器充当 leader
,零个或多个服务器充当 followers
。leader
处理分区的所有读取和写入请求,而 follower
被动地复制 leader
。 如果 leader
失败,其中一个 follower
将自动成为新的 leader
。 每个服务器都充当其某些分区的 leader
和其他服务器的 follower
,因此负载在群集中得到很好的平衡。
Kafka 镜像制作为您的群集提供地理复制支持。 使用镜像制作,可以跨多个数据中心或云区域复制邮件。 您可以在主动/被动方案中使用它进行备份和恢复; 或者在主动/主动方案中,将数据放置在离用户较近的位置,或支持数据位置要求。
生产者将数据发布到他们选择的主题。 生产者负责选择分配给主题中哪个分区的记录。 这可以以轮询方式完成,简单地达到平衡负载,或者可以根据一些语义分区功能(例如基于记录中的某些键)来完成。
消费者使用消费者组名称标记自己,并且发布到主题的每个记录被传递到每个订阅消费者组中的一个消费者实例。 消费者实例可以在单独的进程中或在不同的机器上
如果所有消费者实例具有相同的消费者群组,则记录将有效地在消费者实例上进行负载平衡。
如果所有消费者实例具有不同的消费者组,则每个记录将广播到所有消费者进程。
上图是一个有两个服务器Kafka群集,托管四个分区(P0-P3),包含两个消费者群组。 消费者组A有两个消费者实例,B组有四个消费者实例。
然而,更常见的是,我们发现主题具有少量的消费者群体,每个“逻辑订户”一个。 每个组由许多用于可伸缩性和容错的消费者实例组成。 这只不过是发布 - 订阅语义,其中订阅者是消费者群集而不是单个进程。
在Kafka中实现消费的方式是通过在消费者实例上划分日志中的分区,以便每个实例在任何时间点都是分配的“公平份额”的独占消费者。 维护组中成员资格的过程由Kafka协议动态处理。 如果新实例加入该组,他们将从该组的其他成员接管一些分区; 如果实例死亡,其分区将分发给其余实例。
Kafka仅提供分区内记录的全排序,而不是 topic
中不同分区之间的记录。 对于大多数应用程序而言,按分区排序与按键分区数据的能力相结合就足够了。 但是,如果你需要对所有记录进行全量排序,则可以使用仅包含一个分区的主题来实现,但这将意味着每个消费者组只有一个消费者进程。
你可以将Kafka部署为多租户解决方案。 通过配置哪些主题可以生成或消费数据来启用多租户。 配额也有运营支持。 管理员可以定义和强制执行配额,以控制客户端使用的代理资源。 有关更多信息,请参阅安全性文档.
对于高级别的 Kafka 集群,有如下保障:
Kafka 的流概念和传统的企业消息系统相比如何?
消息系统传统上有两种模型:队列和发布 - 订阅。 在队列中,消费者池可以从服务器读取并且每个记录转到其中一个消费者; 在发布 - 订阅中,记录被广播给所有消费者。 这两种模型中都有各自的优缺点。 队列的优势在于它允许您在多个消费者实例上划分数据处理,从而可以扩展您的处理。 不幸的是,一旦一个进程读取它已经消失的数据,队列就不是多用户。 发布 - 订阅允许您将数据广播到多个进程,但由于每条消息都发送给每个订阅者,因此无法进行扩展处理。
Kafka 里的消费者群组概念产生了这俩概念:与队列一样,消费者组允许你将处理划分为一组进程(消费者组的成员)。 与发布 - 订阅一样,Kafka允许您向多个消费者组广播消息
Kafka模型的优势在于每个主题都具有这些属性 - 它可以扩展进程并且也是多订阅者的 - 不需要选择其中一个或其它几个。
传统队列在服务器上按顺序保留记录,如果多个消费者从队列中消耗,则服务器按照存储顺序分发记录。 但是,虽然服务器按顺序分发记录,但是记录是异步传递给消费者的,因此它们可能会在不同的消费者处出现故障。 这实际上意味着会在存在并行消耗的情况下丢失记录的顺序。 消息传递系统通常通过具有“独占消费者”概念来解决这个问题,该概念只允许一个进程从队列中消耗,但当然这意味着处理中没有并行性。
Kafka 做得更好。 通过在主题中具有并行性概念 - 分区,Kafka 能够在消费者进程池中提供订阅保证和负载平衡。 这是通过将主题中的分区分配给消费者组中的消费者来实现的,以便每个分区仅由该组中的一个消费者使用。 通过这样做,我们确保消费者是该分区的唯一读者并按顺序使用数据。 由于有许多分区,这仍然可以平衡许多消费者实例的负载。 但请注意,消费者组中的消费者实例数不能超过分区数。
任何允许发布与消费消息解耦的消息队列实际上充当了实时的消息的存储系统。 Kafka的不同之处在于它是一个非常好的存储系统。
写入Kafka的数据将写入磁盘并进行复制以实现容错。 Kafka允许生产者等待确认,以便在完全复制之前写入不被认为是完整的,并且即使写入的服务器失败也保证写入仍然存在。
磁盘结构Kafka很好地使用了规模 - 无论服务器上有50 KB还是50 TB的持久数据,Kafka都会执行相同的操作。
由于认真对待存储并允许客户端控制其读取位置,您可以将Kafka视为一种专用于高性能,低延迟提交日志存储,复制和传播的专用分布式文件系统。
有关Kafka的提交日志存储和复制设计的详细信息,请阅读此页面。
仅仅读取,写入和存储数据流是不够的,目的是实现流的实时处理。
在Kafka中,流处理器是指从输入主题获取连续数据流,对此输入执行某些处理以及生成连续数据流以输出主题的任何内容。
例如,零售应用程序可能会接收销售和发货的输入流,并输出重新排序流和根据此数据计算的价格调整。
可以使用生产者和消费者API直接进行简单处理。但是,对于更复杂的转换,Kafka提供了完全集成的Streams API。这允许构建执行非平凡处理的应用程序,这些应用程序可以计算流的聚合或将流连接在一起。
此工具有助于解决此类应用程序面临的难题:处理无序数据,在代码更改时重新处理输入,执行有状态计算等。
流API构建在Kafka提供的核心原语上:它使用生产者和消费者API进行输入,使用Kafka进行有状态存储,并在流处理器实例之间使用相同的组机制来实现容错。
消息传递,存储和流处理的这种组合可能看起来很不寻常,但它对于Kafka作为流媒体平台的作用至关重要。
像HDFS这样的分布式文件系统允许存储静态文件以进行批处理。有效地,这样的系统允许存储和处理过去的历史数据。
传统的企业邮件系统允许处理您订阅后到达的未来邮件。以这种方式构建的应用程序在到达时处理未来数据。
Kafka结合了这两种功能,这种组合对于Kafka作为流媒体应用程序平台以及流数据管道的使用至关重要。
通过组合存储和低延迟订阅,流应用程序可以以相同的方式处理过去和未来的数据。也就是说,单个应用程序可以处理历史存储的数据,而不是在它到达最后一条记录时结束,它可以在未来数据到达时继续处理。这是包含批处理以及消息驱动应用程序的流处理的一般概念。
同样,对于流数据流水线,订阅实时事件的组合使得可以将Kafka用于极低延迟的流水线;但是,能够可靠地存储数据使得可以将其用于必须保证数据传输的关键数据,或者与仅定期加载数据或可能长时间停机以进行维护的离线系统集成。流处理设施可以在数据到达时对其进行转换。
有关Kafka提供的保证,API和功能的更多信息,请参阅其余文档