深入理解Kafka (七) 日志处理

下面我们来说一下Kafka是怎么处理日志的。Kafka中的日志就像数据库中的记录,或者是commit log一样的日志,是按照时间顺序写入的,但是Kafka并不是直接将message直接写到日志里的,而是把消息和timestamp,version等信息一起放到record里存储的。
当然这样查找大量的数据效率就会比较低。Kafka解决查询效率的手段之一是将数据文件分段,比如有100条Message,它们的offset是从0到99。假设将数据文件分成5段,第一段为0-19,第二段为20-39,以此类推,每段放在一个单独的数据文件里面,数据文件以该段中最小的offset命名。这样在查找指定offset的Message的时候,用二分查找就可以定位到该Message在哪个段中。
数据文件分段使得可以在一个较小的数据文件中查找对应offset的Message了,但是这依然需要顺序扫描才能找到对应offset的Message。为了进一步提高查找的效率,Kafka为每个分段后的数据文件建立了索引文件,文件名与数据文件的名字是一样的,只是文件扩展名为.index。
索引文件中包含若干个索引条目,每个条目表示数据文件中一条Message的索引。索引包含两个部分(均为4个字节的数字),分别为相对offset和position。
index文件中每隔一定字节的数据建立一条索引。这样避免了索引文件占用过多的空间,从而可以将索引文件保留在内存中。但缺点是没有建立索引的Message也不能一次定位到其在数据文件的位置,从而需要做一次顺序扫描,但是这次顺序扫描的范围就很小了。
Kafka的日志处理就介绍到这里了。

你可能感兴趣的:(深入理解Kafka (七) 日志处理)