深入浅出kafka原理-2-Kafka为何那么快(高效)

深入浅出kafka原理-2-Kafka为何那么快(高效)_第1张图片

目录

前言:Kafka为何那么快(高效)

1.文件系统

2.降低时间复杂度

3.零拷贝

4.下一节预告


前言:Kafka为何那么快(高效)

  • 利用磁盘顺序写的优势
  • 预读取后写入
  • 尽量避免使用 in-memory cache
  • 将消息打包降低大量小型IO操作的影响
  • 零拷贝(基于mmap的索引和日志读写用到的TransportLayer)

1.文件系统

        Kafka 对消息的存储和缓存严重依赖于文件系统。人们对于“磁盘速度慢”具有普遍印象,事实上,磁盘的速度比人们预期的要慢的多,也快得多,这取决于人们使用磁盘的方式。

使用6个7200rpm、SATA接口、RAID-5的磁盘阵列在JBOD配置下的顺序写入的性能约为600MB/秒,但随机写入的性能仅约为100k/秒,相差6000倍以上。

线性的读取和写入是磁盘使用模式中最有规律的,并且由操作系统进行了大量的优化。

  • read-ahead 是以大的 data block 为单位预先读取数据

  • write-behind 是将多个小型的逻辑写合并成一次大型的物理磁盘写入

        关于该问题的进一步讨论可以参考 ACM Queue article,他们发现实际上顺序磁盘访问在某些情况下比随机内存访问还要快!

        为了弥补这种性能差异,现代操作系统主动将所有空闲内存用作 disk caching(磁盘高速缓存),所有对磁盘的读写操作都会通过这个统一的 cache( in-process cache)。

        即使进程维护了 in-process cache,该数据也可能会被复制到操作系统的 pagecache 中,事实上所有内容都被存储了两份。

此外,Kafka 建立在 JVM 之上,任何了解 Java 内存使用的人都知道两点:

  1. 对象的内存开销非常高,通常是所存储的数据的两倍(甚至更多)。

  2. 随着堆中数据的增加,Java 的垃圾回收变得越来越复杂和缓慢。

        kafka选择了一个非常简单的设计:相比于维护尽可能多的 in-memory cache,并且在空间不足的时候匆忙将数据 flush 到文件系统,我们把这个过程倒过来。所有数据一开始就被写入到文件系统的持久化日志中,而不用在 cache 空间不足的时候 flush 到磁盘。实际上,这表明数据被转移到了内核的 pagecache 中。

Pagecache页面缓存

深入浅出kafka原理-2-Kafka为何那么快(高效)_第2张图片

  • Page cache(页面缓存)

    Page cache 也叫页缓冲或文件缓冲,是由好几个磁盘块构成,大小通常为4k,在64位系统上为8k,构成的几个磁盘块在物理磁盘上不一定连续,文件的组织单位为一页, 也就是一个page cache大小,文件读取是由外存上不连续的几个磁盘块,到buffer cache,然后组成page cache,然后供给应用程序。

  • Buffer cache(块缓存)

    Buffer cache 也叫块缓冲,是对物理磁盘上的一个磁盘块进行的缓冲,其大小为通常为1k,磁盘块也是磁盘的组织单位。设立buffer cache的目的是为在程序多次访问同一磁盘块时,减少访问时间。

  • Page cache(页面缓存)与Buffer cache(块缓存)的区别

    磁盘的操作有逻辑级(文件系统)和物理级(磁盘块),这两种Cache就是分别缓存逻辑和物理级数据的。

    我们通过文件系统操作文件,那么文件将被缓存到Page Cache,如果需要刷新文件的时候,Page Cache将交给Buffer Cache去完成,因为Buffer Cache就是缓存磁盘块的。

    简单说来,page cache用来缓存文件数据,buffer cache用来缓存磁盘数据。在有文件系统的情况下,对文件操作,那么数据会缓存到page cache,如果直接采用dd等工具对磁盘进行读写,那么数据会缓存到buffer cache。

    Buffer(Buffer Cache)以块形式缓冲了块设备的操作,定时或手动的同步到硬盘,它是为了缓冲写操作然后一次性将很多改动写入硬盘,避免频繁写硬盘,提高写入效率。

    Cache(Page Cache)以页面形式缓存了文件系统的文件,给需要使用的程序读取,它是为了给读操作提供缓冲,避免频繁读硬盘,提高读取效率。

2.降低时间复杂度

        消息系统使用的持久化数据结构通常是和 BTree 相关联的消费者队列或者其他用于存储消息源数据的通用随机访问数据结构。BTree 的操作复杂度是 O(log N),通常我们认为 O(log N) 基本等同于常数时间,但这条在磁盘操作中不成立。

深入浅出kafka原理-2-Kafka为何那么快(高效)_第3张图片

        存储系统将非常快的cache操作和非常慢的物理磁盘操作混合在一起,当数据随着 fixed cache 增加时,可以看到树的性能通常是非线性的——比如数据翻倍时性能下降不只两倍。

        kafka选择把持久化队列建立在简单的读取和向文件后追加两种操作之上,这和日志解决方案相同。这种架构的优点在于所有的操作复杂度都是O(1),而且读操作不会阻塞写操作,读操作之间也不会互相影响。

        在不产生任何性能损失的情况下能够访问几乎无限的硬盘空间,Kafka 可以让消息保留相对较长的一段时间(比如一周),而不是试图在被消费后立即删除。

        降低大量小型IO操作的影响

        小型的 I/O 操作发生在客户端和服务端之间以及服务端自身的持久化操作中。

        为了避免这种情况,kafka的协议是建立在一个 “消息块” 的抽象基础上,合理将消息分组。将多个消息打包成一组,而不是每次发送一条消息,从而使整组消息分担网络中往返的开销。

        这个简单的优化对速度有着数量级的提升。批处理允许更大的网络数据包,更大的顺序读写磁盘操作,连续的内存块等等,所有这些都使 KafKa 将随机流消息顺序写入到磁盘, 再由 consumers 进行消费。

3.零拷贝

        字节拷贝是低效率的操作,在消息量少的时候没啥问题,但是在高负载的情况下,影响就不容忽视。为了避免这种情况,kafka使用 producer ,broker 和 consumer 都共享的标准化的二进制消息格式,这样数据块不用修改就能在他们之间传递。

保持这种通用格式可以对一些很重要的操作进行优化: 持久化日志块的网络传输。现代的unix 操作系统提供了一个高度优化的编码方式,用于将数据从 pagecache 转移到 socket 网络连接中;在 Linux 中系统调用 sendfile 做到这一点。

  • 传统IO (4次上下文切换4次拷贝)

    假如将磁盘上的文件读取出来,然后通过网络协议发送给客户端。

    一般需要两个系统调用,但是一共4次上下文切换,4次拷贝

    read(file, tmp_buf, len);
    write(socket, tmp_buf, len);
    

深入浅出kafka原理-2-Kafka为何那么快(高效)_第4张图片

  • 要想提高文件传输的性能,就需要减少「用户态与内核态的上下文切换」和「内存拷贝」的次数

  • mmap(4次上下文切换3次拷贝)

    mmap()系统调用函数会直接把内核缓冲区里的数据「映射」到用户空间,这样,操作系统内核与用户空间就不需要再进行任何的数据拷贝操作,它替换了read()系统调用函数。

    buf = mmap(file, len);
    write(sockfd, buf, len);
    

深入浅出kafka原理-2-Kafka为何那么快(高效)_第5张图片

  • sendfile(2次上下文切换3次拷贝

    Linux 内核版本 2.1 中,提供了一个专门发送文件的系统调用函数 sendfile()

    首先,它可以替代前面的 read()和 write()这两个系统调用,这样就可以减少一次系统调用,也就减少了 2 次上下文切换的开销。

    其次,该系统调用,可以直接把内核缓冲区里的数据拷贝到 socket 缓冲区里,不再拷贝到用户态,这样就只有 2 次上下文切换,和 3 次数据拷贝。

    #include 
    ssize_t sendfile(int out_fd, int in_fd, off_t *offset, size_t count);
    

    它的前两个参数分别是目的端和源端的文件描述符,后面两个参数是源端的偏移量和复制数据的长度,返回值是实际复制数据的长度。

深入浅出kafka原理-2-Kafka为何那么快(高效)_第6张图片

  • 零拷贝(2次上下文切换2次拷贝)

    Linux 内核 2.4 版本开始起,对于支持网卡支持 SG-DMA 技术的情况下, sendfile() 系统调用的过程发生了点变化,具体过程如下:

深入浅出kafka原理-2-Kafka为何那么快(高效)_第7张图片

    • 第一步,通过 DMA 将磁盘上的数据拷贝到内核缓冲区里;

    • 第二步,缓冲区描述符和数据长度传到 socket 缓冲区,这样网卡的 SG-DMA 控制器就可以直接将内核缓存中的数据拷贝到网卡的缓冲区里,此过程不需要将数据从操作系统内核缓冲区拷贝到 socket 缓冲区中,这样就减少了一次数据拷贝;

4.下一节预告

  • kafka高效文件存储设计特点

推荐阅读

  • 深入浅出kafka原理-1-初识只作乍见之欢
  • 深入浅出kafka原理-2-Kafka为何那么快(高效)
  • 深入浅出kafka原理-3-高效文件存储设计特点
  • 深入浅出kafka原理-4-kafka网络机制原理

你可能感兴趣的:(Kafka,kafka,架构,大数据,面试,java)