说明:转载请保留全部信息
作者:Patrick O’Neil &Edward Cheng etc. 1996
原文:http://www.springerlink.com/content/rfkpd5yej9v5chrp/
译者:phylips@bmy 2011-12-25
译文:http://duanple.blog.163.com/blog/static/7097176720120391321283/
随着NoSql系统尤其是类BigTable系统的流行,LSM-Tree这个名词也开始变得不再陌生。相信大多数了解NoSql系统的人,基本上都会听到 过LSM-Tree这个名词,但是读过其原始论文的人估计就不是很多了。在我看来,LSM-Tree之于BigTable的重要性就像一致性hash之于 Dynamo。溯本求源一向是本人的追求,希望可以从最初的文字中找到蕴含在结构之下的更多思考。老实说,这篇论文也算是很长的了,原文共30页,涉及了 不少公式,因此翻起来也不会那么简单。
不管怎样,言必谈LSM-Tree,如果没有读过它的原始论文,就太虚了,因此还是坚持把它读懂,并译了下来。近来也在弄LevelDB相关的东西,就当理 论与实践相结合了。之后,会再放出一篇关于LevelDB的长文,虽然那篇文章九月份就写完了,但是还是在译完LSM-Tree之后再润色一番吧,相信看 过LSM-Tree之后,会有些新的理解和想法。
此处的Log-Structured这个词源于Ousterhout和Rosenblum在1991年发表的经典论文<
Log- Structureed文件系统实际上源自于日志(logging or journaling)文件系统,大概在1988年,Ousterhout等人觉得可以对现有日志型文件系统进行改进,不再是将数据和操作日志分成独立两 部分,也不再只将日志作为一种暂存方式,而是将整个磁盘就看做是一个log,在log中存放永久性数据,每次都写入到log的末尾,并且log中包含索 引,之后他们实现了一个称作Sprite LFS的系统原型,并与FFS进行了对比。Unix FFS使用inode数据结构来存储诸如类型,owner,权限,磁盘地址,indirect blocks之类的文件数据元信息,它本身是索引中的一个entry,并通过indirect blocks指向下一个inode,inode存储于磁盘的固定位置,而且是非连续的。这样在存取文件时,就会有大量的磁盘seek,同时需要同步更新文 件对应的元数据(inode,directories),在大量小文件存取中会有性能问题。而在Log-Structureed文件系统中,写入是以 log追加的方式进行的,因此只需一次seek,读取时,因为具有索引,因此也很快。磁盘空间以segment为单位进行管理,并通过segment cleaner查找空闲空间。传统Unix文件系统对磁盘带宽的使用率只有5%-10%,但是LFS通常可以达到65%-75%。在故障恢复时,传统 Unix系统需要扫描整个磁盘,而LFS只需要检查最近crash之后的log部分即可。
LFS 的主要优点就是:通过将很多小文件的存取转换为连续的大批量传输,使得对于文件系统的大多数存取都是顺序性的,从而提高磁盘带宽利用率;故障恢复速度快。 其背后也有诸如clean,copy and compact,checkpoint这样的机制。{!关于Log-Structureed的更详细信息可以参考这两篇文章:<
摘要
高性能事务系统通常会通过向一个历史表中插入记录以追踪各项活动行为;与此同时事务系统也会因系统恢复的需要而生成日志记录。这两种类型的生成信息都可以从 高效的索引方式中获益。众所周知的一个例子,TPC-A benchmark{!TPC是Transcation Processing Performance Council的简称,是一个专门针对数据库系统性能benchmark的非盈利性组织,TPC-A是其中的一个测试集合,主要关注于事务处理的吞吐量, 更具体来说是每秒的事务处理能力,通过TPS(transactions per second)测量}中的测试程序,修改下就可以在给定的History表上对给定account的活动记录进行高效的查询支持。但这需要在快速增长的 History表上建立一个针对account id的索引。不幸的是,标准的基于磁盘的索引结构,比如B-树,要实时性地维护这样的一个索引,会导致事务的IO开销加倍,从而会导致系统的整体开销增加 50%{!通过例1.1可知,磁盘成本大概占系统总成本的50%}。很明显,这就需要一种维护这种实时性索引的低成本的方式。The Log-Structured Merge-Tree (LSM-Tree)就是设计用于来为那些长期具有很高记录更新(插入或删除)频率的文件来提供低成本的索引机制。LSM-Tree通过使用某种算法,该 算法会对索引变更进行延迟及批量处理,并通过一种类似于归并排序的方式联合使用一个基于内存的组件和一个或多个磁盘组件。在处理过程中,所有的索引值对于 所有的查询来说都是可以通过内存组件或者某个磁盘组件来进行访问的(除了很短暂的加锁期外)。与传统访问方式比如B-树相比,该算法大大降低了磁盘磁臂的 移动,同时也会提高那些使用传统访问方式进行插入时,磁盘磁臂开销{!寻道+转动}远大于存储空间花费的情况的性价比。LSM-Tree方式也可以支持除 插入和删除外的其他操作。但是,对于那些需要立即响应的查找操作来说,某些情况下,它也会损失一些IO效率,因此LSM-Tree最适用于那些索引插入比 查询操作更常见的情况。比如,对于历史记录表和日志文件来说,就属于这种情况。
1. 导引
随 着activity flow(活动流)管理系统中的long-lived(长生命期)事务的商业化使用,针对事务日志记录提供索引化的访问需求也在逐步增长。传统的,事务日 志机制主要专注于失败和恢复,需要系统能够在偶然的事务回滚中可以回退到一个相对近期的正常历史状态,而恢复的执行则通过批量化的顺序读取完成。然而,随 着系统需要管理越来越多的复杂行为,组成单个长生命期活动的事件的持续时间和个数也会增长到某种情况,在该情况下,需要实时查看已经完成的事务步骤以通知 用户目前已经完成了哪些。与此同时,一个系统的处于活动状态的事件总数,也会增长到某种情况,在该情况下,用于记录活动日志的基于内存的数据结构开始无法 工作,尽管内存价格的不断下降是可以预计的。这种对于过去的行为日志的查询需求,意味着索引化的日志访问将会越来越重要。
即 使是对于当前的事务系统来说,如果对在具有高插入频率上的历史记录表上的查询提供了索引支持,其价值也是很明显的。网络应用,电子邮件,和其他的近事务系 统通常会产生不利于它们的主机系统的大量日志。为了便于理解,还是从一个具体的大家都熟知的例子开始,在下面的例1.1和1.2中我们使用了一个修改版的 TPC-A benchmark。需要注意的是,为了便于表述,本文中的例子都采用了一些特定的参数值,当然这些结果应该都很容易进行推广。还要指出的是,尽管历史记 录表和日志都是一些时间序列相关的数据,LSM-Tree中的索引节点并不一定具有与之相同的key值顺序。唯一的假设就是与查询频率相比的高更新率。
5分钟法则
下面的两个例子都依赖于5分钟法则。该法则是说当页面访问频率超过每60秒就会被访问一次的频率后,可以通过加大内存来将页面保存到内存,以避免磁盘访问来 降低系统总体开销。60秒在这里只是个近似值,实际上是磁盘提供每秒单次IO的平摊开销与每秒缓存4K bytes的磁盘页的内存开销的比值。用第3节的术语来说,就是COSTp/COSTm。在这里,我们会从经济学的角度上简单看下如何在磁盘访问和缓存在 内存之间进行权衡。需要注意的是,由于内存价格与磁盘相比下降地更快,60秒这个值实际应该会随着时间而变大。但是在1995年的今天它是60秒,与 1987年的5分钟相比,它却变小了,部分是因为技术性的(不同的缓存假设)原因,部分是因为介于二者之间的廉价量产磁盘的引入。
例1.1 考虑TPC-A benchmark中描述的每秒执行1000个事务(该频率可以被扩展,但是此处我们只考虑1000TPS)的多用户应用程序。每个事务会更新一个列值, 从一个Balance列中取出数目为Delta的款项,对应的记录(row)是随机选定的并且具有100字节大小,涉及到三个表:具有1000条记录的 Branch(分公司)表,具有10000条记录的Teller(出纳员)表,以及具有100,000,000条记录的Account表;更新完成之后, 该事务在提交之前会向一个历史记录表中插入一条50字节的记录,该记录具有如下列:Account-ID,Branch-ID,Teller- ID,Delta和时间戳。
根 据磁盘和内存成本计算下,可以看出Account表在未来的很多年内都不可能是内存驻留的,而Branch和Teller表目前是可以全部存入内存中的。 在给定的假设下,对于Account表的同一个磁盘页的两次访问大概要间隔2500秒{!磁盘页是4K bytes,Account表每行是100bytes,这样每次读会涉及到4k/100=40条记录,TPS是1000,这样2500秒内读到的行数就是 40*1000*2500=100,000,000。2500秒就是这么算出来的},很明显这个值还未达到5分钟法则中缓存驻留所需要的访问频率。现在每 次事务都需要大概两次磁盘IO,一次用于读取所需的Account记录(我们忽略那种页面已经被缓存的特殊情况),一次用于将之前的一个脏的 Account页写出来为读取腾出缓存空间(necessary for steady-status behavior)。因此1000TPS实际上对应着大概每秒2000个IO。如果磁盘的标称速率是25IO/s,那么这就需要80个磁盘驱动器,从 1987年到如今(1995)的8年间磁盘速率(IOPS)每年才提高不到10%,因此现在IOPS大概是40IO/s,这样对于每秒2000次IO来 说,就需要50个磁盘。对于TPC应用来说,磁盘的花费大概占了整个系统成本的一半,尽管在IBM的大型机系统中这个比例要低一些。然而,用于支持IO的 开销很明显在整个系统成本中正在不断增长,因为内存和CPU成本下降地比磁盘要快。
例1.2 现在来考虑一个在具有高插入量的历史记录表上的索引,可以证明这样的一个索引将会使TPC应用的磁盘开销加倍。一个在“Account-ID+Timestamp”上的联合索引,是历史记录表能够对最近的account活动进行高效查询的关键,比如:
Select * from History
Where History.Acct-ID = %custacctid
And History.Timestamp > %custdatetime;
如 果Acct-ID||Timestamp索引不存在,这样的一个查询将需要搜索历史记录表中的所有记录,因此基本上是不可行的。如果只是在Acct-ID 上建立索引,可以得到绝大部分的收益,但是即使将Timestamp排除,我们下面的那些开销考虑也不会发生变化{!即去掉Timestamp也不会省掉 什么开销},因此我们这里假设使用的是最有效的联合索引。那么实时地维护这样的一个B-树索引需要多少资源呢?可以知道,B树中的节点每秒会生成1000 个,考虑一个20天的周期,每天8小时,每个节点16字节,这意味着将会有576,000,000{!1000*20*8*3600}个节点,占据的磁盘 空间是9.2GBytes,即使是在没有浪费空间的情况下,整个索引的叶节点都大概需要2.3million个磁盘页。因为事务的Acct-ID值是随机 选择的,每个事务至少需要一次读取,此外基本上还需要一次页面写入。根据5分钟法则,这些索引页面也不应该是内存驻留的(磁盘页大概每隔2300秒被读一 次),这样所有的IO都是针对磁盘的。这样针对Account表的更新,除了现有的2000IO/s就还需要额外的2000IO/s,也就需要再购买50 个磁盘,这样磁盘的需求就加倍了。同时,这还是假设用于将日志文件索引维持在20天的长度上的删除操作,可以作为一个批处理任务在空闲时间执行。
现在我们已经分析了使用B-树来作为Acct-ID||Timestamp索引的情况,因为它是当前商业系统中使用的最通用的基于磁盘的访问方法。事实上,也没有什么其他经典的磁盘索引结构可以提供更好的IO性价比。在第5节中我们还会讨论下如何得出这样的结论的。
本 文提出的LSM-Tree访问方法使得我们可以使用更少的磁盘运动来执行在Acct-ID||Timestamp上的频繁插入操作。LSM-Tree通过 使用某种算法,该算法会对索引变更进行延迟及批量处理,并通过一种类似于归并排序的方式高效地将更新迁移到磁盘。正如我们将在第5节看到的,将索引节点放 置到磁盘上的这一过程进行延迟处理,是最根本的,LSM-Tree结构通常就是包含了一系列延迟放置机制。LSM-Tree结构也支持其他的操作,比如删 除,更新,甚至是那些具有long latency的查询操作。只有那些需要立即响应的查询会具有相对昂贵的开销。LSM-Tree的主要应用场景就是像例1.2那样的,查询频率远低于插入 频率的情况(大多数人不会像开支票或存款那样经常查看自己的账号活动信息)。在这种情况下,最重要的是降低索引插入开销;与此同时,也必须要维护一个某种 形式的索引,因为顺序搜索所有记录是不可能的。
在 第2节,我们会引入2-组件LSM-Tree算法。在第3节,我们会分析下LSM-Tree的性能,并提出多组件LSM-Tree。在第4节,我们会描述 下LSM-Tree的并发和恢复的概念。在第5节,我们会讨论下其他的一些访问方式,以及它们的性能。第6节是总结,我们会指出LSM-Tree的一些问 题,并提出一些扩展建议。
2. 两组件LSM-Tree算法
LSM-Tree由两个或多个类树的数据结构组件构成。本节,我们只考虑简单的两个组件的情况,同时假设LSM-Tree索引的是例1.2中的历史记录表中的记录。如下图2.1
在 每条历史记录表中的记录生成时,会首先向一个日志文件中写入一个用于恢复该插入操作的日志记录。然后针对该历史记录表的实际索引节点会被插入到驻留在内存 中的C0树,之后它将会在某个时间被移到磁盘上的C1树中。对于某条记录的检索,将会首先在C0中查找,然后是C1。在记录从C0移到C1中间肯定存在一 定时间的延迟,这就要求能够恢复那些crash之前还未被移出到磁盘的记录。恢复机制将会在第4节讨论,现在我们只是简单地认为那些用于恢复插入的历史记 录数据的日志记录可以被看做逻辑上的日志;在恢复期间我们可以重构出那些已经被插入的历史记录,同时可以重建出需要的那些记录并将这些记录进行索引以恢复 C0丢失的内容。
向 驻留在内存中的C0树插入一个索引条目不会花费任何IO开销。但是,用于保存C0的内存的成本要远高于磁盘,这就限制了它的大小。这就需要一种有效的方式 来将记录迁移到驻留在更低成本的存储设备上的C1树中。为了实现这个目的,在当C0树因插入操作而达到接近某个上限的阈值大小时,就会启动一个 rolling merge过程,来将某些连续的记录段从C0树中删除,并merge到磁盘上的C1树中。图2.2描述了这样的一个过程。
C1 树具有一个类似于B-树的目录结构,但是它是为顺序性的磁盘访问优化过的,所有的节点都是100%满的,同时为了有效利用磁盘,在根节点之下的所有的单页 面节点都会被打包(pack)放到连续的多页面磁盘块(multi-page block)上;类似的优化也被用在SB-树中。对于rolling merge和长的区间检索的情况将会使用multi-page block io,而在匹配性的查找中会使用单页面节点以最小化缓存需求。对于root之外的节点使用256Kbytes的multi-page block大小,对于root节点根据定义通常都只是单个的页面。
Rolling merge实际上由一系列的merge步骤组成。首先会读取一个包含了C1树中叶节点的multi-page block,这将会使C1中的一系列记录进入缓存。之后,每次merge将会直接从缓存中以磁盘页的大小读取C1的叶节点,将那些来自于叶节点的记录与从 C0树中拿到的叶节点级的记录进行merge,这样就减少了C0的大小,同时在C1树中创建了一个新的merge好的叶节点。
merge 之前的老的C1树节点被保存在缓存中的称为emptying block{!掏空ing,即该block中的那些节点正在被掏空}的multi-page block中,而新的叶节点会被写入到另一个称为filling block{!填充ing,即该block正在被不断地用新节点填充}的缓存中的multi-page block。当C1中新merge的节点填满filling block后,该block会被写入到磁盘上的新空闲区域中。如果从图2.2中看的话,包含了merge结果的新的multi-page block位于图中老节点的右侧。后续的merge步骤会随着C0和C1的索引值的增加而发生,当达到阈值时,就又会从最小值开始启动rolling merge过程。
新 的merge后的blocks会被写入到新的磁盘位置上,这样老的blocks就不会被覆盖,这样在crash发生后的恢复中就是可用的。C1中的父目录 节点也会被缓存在内存中,此时也会被更新以反映出叶节点的变动,同时父节点还会在内存中停留一段时间以最小化IO;当merge步骤完成后,C1中的老的 叶节点就会变为无效状态,之后会被从C1目录结构中删除。通常,每次都是C1中的最左边的叶节点记录参与merge,因为如果老的叶节点都是空的那么 merge步骤也就不会产生新的节点,这样也就没有必要进行。除了更新后的目录节点信息外,这些最左边的记录在被写入到磁盘之前也会在内存中缓存一段时 间。用于提供在merge阶段的并发访问和从crash后的内存丢失中进行恢复的技术将会在第4节详细介绍。为了减少恢复时的重构时间,merge过程需 要进行周期性的checkpoints,强制将缓存信息写入磁盘。
2.1 How a Two Component LSM-Tree Grows
为 了追踪LSM-tree从诞生那一刻开始的整个变化过程,我们从针对C0的第一次插入开始。与C1树不同,C0树不一定要具有一个类B-树的结构。首先, 它的节点可以具有任意大小:没有必要让它与磁盘页面大小保持一致,因为C0树永不会位于磁盘上,因此我们就没有必要为了最小化树的深度而牺牲CPU的效率 {!如果看下B-树,就可以知道实际上它为了降低树的高度,牺牲了CPU效率。在当整个数据结构都是在内存中时,与二分查找相比,B-树在查找时,在节点 内部的比较,实际上退化成了顺序查找,这样它查找一个节点所需的比较次数实际上要大于AVL的比较次数}。这样,一个2-3树或者是AVL树就可以作为 C0树使用的一个数据结构。当C0首次增长到它的阈值大小时,最左边的一系列记录将会从C0中删除(这应是以批量处理的模式完成,而不是一次一条记录), 然后被重新组织成C1中的一个100%满的叶子节点。后续的叶节点会按照从左到右的顺序放到缓存中的一个multi-page block的初始页面中,直到该block填满为止;之后,该block会被写到磁盘中,成为C1树的磁盘上的叶级存储的第一部分。随着后续的叶节点的加 入,C1树会创建出一个目录节点结构,具体细节如下。
C1 树的叶节点级的后续multi-page block会按照键值递增的顺序被写入到磁盘中,以防止C0树大小超过阈值。C1树的上级目录节点被存放在独立的multi-page block buffers或者是单页面缓存中,无论存在哪里,都是为了更好地利用内存和磁盘;目录节点中的记录包含一些分隔点,通过这些分隔点可以将用户访问导引到 单个的singe-page节点中,像B-树那样。通过这种指向叶级节点的single-page索引节点可以提供高效的精确匹配访问,避免了 multi-page block的读取,这样就最小化了缓存需求。这样在进行rolling merge或者按range检索时才会读写multi-page block,对于索引化的查询(精确匹配)访问则读写singe-page节点。[22]中提出了一种与之类似但又稍有不同的结构。在一系列叶级节点 blocks被写出时,那些由C1的目录节点组成的还未满的multi-page block可以保留在缓存中。在如下情况下,C1的目录节点会被强制写入磁盘:
l 由目录节点组成的某个multi-page block被填满了
l 根节点发生了分裂,增加了C1树的深度(成了一个大于2的深度)
l 执行Checkpoint
对于第一种情况,只有被填满的那个block会被写出到磁盘。对于后两个情况,所有的multi-page block buffers和目录节点buffers都会被flush到磁盘。
当 C0树的最右边的叶节点记录首次被写出到C1树后,整个过程就又会从两个树的最左端开始,只是从现在开始,需要先把C1中的叶子级别的multi- page block读入到buffer,然后与C0树中的记录进行merge,产生出需要写入到磁盘的新的C1的multi-page leaf block。
一 旦merge过程开始,情况就变地更复杂了。我们可以把整个两组件LSM-tree的rolling merge过程想象成一个具有一定步长的游标循环往复地穿越在C0和C1的键值对上,不断地从C0中取出数据放入到磁盘上才C1中。该rolling merge游标在C1树的叶节点和更上层的目录级都会有一个逻辑上的位置。在每个层级上,所有当前正在参与merge的multi-page blocks将会被分成两个blocks:”emptying block”-它内部的记录正在搬出,但是还有一些信息是merge游标所未到达的,”filling block”-反映了此刻的merge结果。类似地,该游标也会定义出”emptying node”和”filling node”,这两个节点此刻肯定是已在缓存中。为了可以进行并发访问,每个层级上的”emptying block”和”filling block”包含整数个的page-sized C1树节点。(在对执行节点进行重组的merge步骤中,针对这些节点的内部记录的其他类型的并行访问将会被阻塞)。当所有被缓存的节点需要被flush 到磁盘时,每个层级的所有被缓存的信息必须被写入到磁盘上的新的位置上(同时这些位置信息需要反映在上层目录信息中,同时为了进行恢复还需要产生一条日志 记录)。此后,当C1树某一层级的缓存中的filling block被填满及需要再次flush时,它会被放到新的磁盘位置上。那些可能在恢复过程中需要的老的信息永不会被覆盖,只有当后续的写入提供了足够信息 时它们才可以宣告失效。第4节来还会进行一些关于roling merge过程的更细节的解释,在那一节里还会考虑关于并发访问和恢复机制的设计。
在 C1的某个层级上的rolling merge过程,需要很高的节点传输速率时,所有的读写都是以multi-page blocks为单位进行的,对于LSM-tree来说,这是一个很重要的效率上的优化。通过减少寻道时间和旋转延迟,我们认为与普通的B-树节点插入所产 生的随机IO相比,这样做可以得到更大的优势(我们将会在3.2节讨论其中的优势)。总是以multi-page blocks为单位进行写入的想法源自于由Rosenblum和Ousterhout发明的Log-Structured File System,Log-Structured Merge-tree的叫法也源于此。需要注意的是,对于新的multi-page blocks的写入使用连续的新的磁盘空间,这就意味着必须对磁盘区域进行包装管理,旧的被丢弃的blocks必须能被重用。使用记录可以通过一个内存表 来管理;旧的multi-page blocks作为单个单元被置为无效和重用,通过checkpoint来进行恢复。在Log-Structured File System中,旧的block的重用会引入显著的IO开销,因为blocks通常是半空的,这样重用就需要针对该block的一次读取和写入。在 LSM-tree中,blocks是完全空的,因此不需要额外的IO。
2.2 Finds in the LSM-tree index
当 在LSM-tree index上执行一个需要理解响应的精确匹配查询或者range查询时,首先会到C0中查找所需的那个或那些值,然后是C1中。这意味着与B-树相比,会 有一些额外的CPU开销,因为现在需要去两个目录中搜索。对于那些具有超过两个组件的LSM-tree来说,还会有IO上的开销。先稍微讲一下第3章的内 容,我们将一个具有组件C0,C1,C2…Ck-1和Ck的多组件LSM-tree,索引树的大小伴随着下标的增加而增大,其中C0是驻留在内存中的,其 他则是在磁盘上。在所有的组件对(Ci-1,Ci)之间都有一个异步的rolling merge过程负责在较小的组件Ci-1超过阈值大小时,将它的记录移到Ci中。一般来说,为了保证LSM-tree中的所有记录都会被检查到,对于一个 精确匹配查询和range查询来说,需要访问所有的Ci组件。当然,也存在很多优化方法,可以使搜索限制在这些组件的一个子集上。
首 先,如果生成逻辑可以保证索引值是唯一的,比如使用时间戳来进行标识时,如果一个匹配查找已经在一个早期的Ci组件中找到时那么它就可以宣告完成了。再比 如,如果查询条件里使用了最近时间戳,那么我们可以让那些查找到的值不要向最大的组件中移动。当merge游标扫描(Ci,Ci+1)对时,我们可以让那 些最近某个时间段(比如τi秒)内的值依然保留在Ci中,只把那些老记录移入到Ci+1。在那些最常访问的值都是最近插入的值的情况下,很多查询只需要访 问C0就可以完成,这样C0实际上就承担了一个内存缓冲区的功能。[23]中也使用了这一点,同时这也是一种重要的性能优化。比如,用于短期事务UNDO 日志的索引访问模式,在中断事件发生时,通常都是针对相对近期的数据的访问,这样大部分的索引就都会是仍处在内存中。通过记录每个事务的启动时间,就可以 保证所有最近的τ0秒内发生的事务的所有日志都可以在C0中找到,而不需要访问磁盘组件。
2.3 Deletes,Updates and Long-Latency Finds in the LSM-tree
需 要指出的是删除操作可以像插入操作那样享受到延迟和批量处理带来的好处。当某个被索引的行被删除时,如果该记录在C0树中对应的位置上不存在,那么可以将 一个删除标记记录(delete node entry)放到该位置,该标记记录也是通过相同的key值进行索引,同时指出将要被删除的记录的Row ID(RID)。实际的删除可以在后面的rolling merge过程中碰到实际的那个索引entry时执行:也就是说delete node entry会在merge过程中移到更大的组件中,同时当碰到相关联的那个entry,就将其清除。与此同时,查询请求也必须在通过该删除标记时进行过 滤,以避免返回一个已经被删除的记录。该过滤很容易进行,因为删除标记就是位于它所标识的那个entry所应在的位置上,同时在很多情况下,这种过滤还起 到了减少判定记录是否被删除所需的开销{!比如对于一个实际不存在的记录的查找,如果没有该删除标记,需要搜索到最大的那个Ci组件为止,但是如果存在一 个删除标记,那么在碰到该标记后就可以停止了}。对于任何应用来说,那些会导致索引值发生变化{!比如一条记录包含了ID和name,同时是以ID进行索 引的,那么如果是name更新了,很容易,只需要对该记录进行一个原地改动即可,但是如果是ID该了,那么该记录在索引中的位置就要调整了,因此是很棘手 的}的更新都是不平凡的,但是这样的更新却可以被LSM-tree一招化解,通过将该更新操作看做是一个删除操作+一个插入操作。
还 可以提供另一种类型的操作,可以用于高效地更新索引。一个称为断言式删除(predicate deletion)的过程,提供了一种通过简单地声明一个断言,就可以执行批量删除的操作方式。比如这样的一个断言,删除那些时间戳超过20天的所有的索 引值。当位于最大组件里的受断言影响的记录,通过日常的rolling merge过程进入到内存时,就可以简单地将他们丢弃来实现删除。另一种类型的操作,long-latency find,对于那些可以等待很长时间(所需等待的时间实际上是由最慢的那个merge游标的速度决定的)的查询来说,它提供了一种高效地响应方式。通过向 C0中插入一个find note entry,它被移入到更大的组件的过程实际上也就是该查询执行的过程,一旦该find note entry到达了LSM-tree中最大的那个组件的对应位置,该long-latency find所对应的那些匹配的RID列表也就生成完毕了。
3 Cost-Performance and the Multi-Component LSM-Tree
本 节我们会从一个两组件LSM-tree开始分析下LSM-tree的性价比。同时会将LSM-tree与具有与之类似的索引规模的B-树进行对比,比较下 它们在大量插入操作下的IO资源利用情况。正如我们将在第5节所述的那样,其他的基于磁盘的访问方式在插入新索引节点所需的IO开销上都基本上与B-树类似。我们在此处对LSM-tree和B-树进行比较的最重要的原因是这两个结构很容易比较,它们都在叶子节点上为每个以特定顺序索引的记录行保存了一个 entry,同时上层目录信息可以沿着一系列页面大小的节点将各种访问操作进行指引。通过与低效但是很好理解的B-树的对比分析,对于LSM-tree在 新节点插入上的所具有的IO优势的分析,可以更好地进行表达。
在 3.2节中,我们会比较IO开销,并将证明两组件LSM-tree的开销与B-树的开销的比值实际上两个因子的乘积{!即3.2节中的公式3.4}。第一 个因子, ,代表了LSM-tree通过将所有的IO以multi-page blocks进行得到的优势,这样通过节省大量的寻道和旋转延迟可以更有效地利用磁盘磁臂。COSTπ代表了磁盘以multi-page blocks为单位读写一个page时的开销,COSTp则代表了随机读写一个page时的开销。第二个因子是1/M,代表了在merge过程中的批量处 理模式带来的效率提升。M是从C0中merge到C1中的一个page-sized的叶节点中的记录的平均数目。对于B树来说,每条记录的插入通常需要对 该记录所属的节点进行两次IO(一次读出一次写入),与此相比,可以向每个叶子中一次插入多条记录就是一个优势。根据5分钟法则,例1.2中的叶子节点在 从B树中读入后之后短暂地在内存中停留,在它被再一次使用时它已不在内存了。因此对于B树索引来说就没有一种批量处理的优势:每个叶节点被读入内存,然后 插入一条记录,然后写出去。但是在一个LSM-tree中,只要与C1组件相比C0组件足够大,总是会有一个批量处理效果。比如,对于16字节的索引记录 大小来说,在一个4Kbytes的节点中将会有250条记录。如果C0组件的大小是C1的1/25,那么在每个具有250条记录的C1节点的Node IO中,将会有10条是新记录{!也就是说在此次merge产生个node中有10条是在C0中的,而C0中的记录则是用户之前插入的,这相当于将用户的 插入先暂存到C0中,然后延迟到merge时写入磁盘,这样这一次的Node IO实际上消化了用户之前的10次插入,的确是将插入批量化了}。很明显,由于这两个因素,与B-树相比LSM-tree效率更高,而rolling merge过程则是其中的关键。
用 来代表multi-page block比single-page的优势之处的 实际上是个常量,为了使它生效我们无需对LSM-tree的结构进行任何处理。但是merge中的1/M的批量模式效率是跟C0和C1的大小之比成比例 的;与C1相比,C0越大,效果越好;某种程度上说,这意味着我们可以通过使用更大的C0来节省额外的磁盘磁臂开销,但是这也需要更大的内存开销来容纳下 C0组件。这也是在使用LSM-tree时需要考虑的,会在3.3节中对此进行研究。一个三组件LSM-tree具有一个内存组件C0和两个基于磁盘的组 件C1和C2,并且随着组件大小随下标增加而增大。这样,除了C0和C1之间会有一个rolling merge过程,在C1和C2之间也会存在一个rolling merge过程,来负责在小的组件达到阈值大小时,将记录从小的组件中移到大的组件中。三组件LSM-tree的优势在于,它可以通过选择C1的大小来实 现C0和C1以及C1和C2之间的比率大小来提高批处理效率。这样C0的大小就可以变得更小,可以大大地降低开销。{!因为在只有C0和C1的情况 下,C1的大小有一个硬性要求,它必须能够容得下所有的记录,这样C0的大小选择就没有多少自由,而引人C2后,我们可以利用C2来保证可以存储下所有的 记录,而C1就可以用来调整与C0的比例,而它就可以小点,这样由于目标是为了让C0/(C1+C0)尽量小,那么C0也可以变得小点就可以达到两组件下 的效果}。
3.1 The Disk Model
与B-树相比 LSM-tree的优势主要在于降低IO开销方面(尽管与其他的已知的磁盘结构相比,它的磁盘组件都是100%慢,这也降低了容量方面的开销)。LSM- tree在IO开销上的优势,部分是因为一个page IO可以平摊到一个multi-page block中的多个page上。
定 义3.1.1 IO开销和数据热度 当我们将某种特定数据存储在磁盘上时,比如表中的行或者是索引中的记录,会发现随着数据量的增加,在给定的应用环境下,磁盘磁臂的利用率会越来越高。当我 们购买了一块磁盘时,我们实际上为两样东西付了款:首先是磁盘容量,其次是磁盘IO能力。对于任意类型应用来说,通常其中的一个会成为限制因素。如果容量 是瓶颈,我们会发现磁盘填满时,应用程序只使用了磁盘磁臂所提供的IO能力的一部分;反过来,如果我们发现在添加数据时,磁盘磁臂已经被充分使用,但是磁 盘还有剩余空间,这就意味着IO能力是瓶颈。
设 峰值期间的一次随机的page IO使用所具有的开销为:COSTp,它是基于对磁盘臂的使用算出的,同时作为multi-page block的一部分的一次磁盘page IO的开销我们用COSTπ表示,该值要小很多,因为它将寻道时间和旋转延时平摊到了多个page上。我们使用下面的这些名词来表示各项存储开销:
COSTd= 1Mbytes磁盘存储的开销
COSTm= 1Mbytes内存存储的开销
COSTp=disk arm cost to provide 1 page/second IO rate, for random pages
COSTπ=disk arm cost to provide 1 page/second IO rate,as part of multi-page block IO
假 设一个应用程序需要S Mbytes的数据存储以及每秒H个random page访问的IO传输需求(假设数据不会被缓存),那么磁盘臂的费用就是H·COSTp,磁盘存储的费用就是S·COSTd。取决于哪个是瓶颈,剩下的 那个就是免费可得的,这样磁盘数据的访问开销COST-D就是:
COST-D=max(H·COSTp, S·COSTd)
在 数据不会被缓存的假设下,COST-D也就是该应用程序用于支持数据访问的总开销,COST-TOT。在这种情况下,如果总的磁盘存储需求S是个常量,那 么总开销就是随随机IO率H线性增长的。在磁盘IO上升到与磁盘存储S相同的开销时{!如果磁盘IO还未上升到与存储S相同开销时,它就是免费的,也就不 需要考虑用内存支持它},就可以考虑使用内存缓存来取代磁盘IO。假设在这些情况下,可以用内存缓存来支持随机IO请求,那么磁盘的开销就又只取决于所需 的磁盘存储空间,那么访问缓存数据的开销COST-B,就可以简单地表示为内存的开销加上磁盘存储的开销:
COST-B= S·COSTm+ S·COSTd
那么现在用于支持该应用程序的数据访问的总开销就是由min(COST-D, COST-B)决定的:
COST-TOT=min(max(H·COSTp, S·COSTd), S·COSTm+ S·COSTd)
这 样随着针对给定大小的数据S的页面访问频率H的增长,COST-TOT就由三部分组成。如图3.1,我们画出了COST-TOT/MByte与H/S的变 化关系。在S比较小的情况下,COST-TOT由磁盘存储开销S·COSTd决定,对于固定的S它是个常量。随着H/S的值的增长,开销逐渐由磁盘磁臂的 使用开销H·COSTp所控制,同时对于固定的S来说,它与H/S成正比。最后,在五分钟法则所指出的内存驻留点上,主要因素变成了S·COSTm+ S·COSTd,这就主要由内存开销来决定,因为COSTm >> COSTd。师从论文[6],我们将数据的热度定义为H/S,同时我们命名出三个区域:cold,warm和hot。Hot数据足够高的访问频率H,因此 它的热度H/S,表明它应该被放入内存。另一个区域,cold数据受限于磁盘空间:它所占据的磁盘空间所能提供的IO能力已足够使用。居于两者之间的是 warm数据,对于它来说磁盘磁臂是限制因素。它们之间的边界划分如下:
Tf= COSTd/ COSTp=cold和warm数据之间的分界点(freezing-冰点)
Tb= COSTm/ COSTp=warm和hot数据之间的分界点(boiling-沸点)
{! 首先数据热度是用H/S来定义的,而Tf和Tb不过是一种特殊的热度,因此它们不过是代表了H/S= COSTd/ COSTp 和H/S= COSTm/ COSTp 的情况。简单分析下H/S= COSTm/ COSTp的情况,此时H·COSTp=S·COSTm ,意味着该份数据所承受的随机访问开销已经等于将其完全放入内存所需的内存开销,可见其着实是很hot了}
通过使用COSTπ替代COSTp我们可以得出multi-page block访问模式下的类似边界。Warm和hot区域间的分界实际上就是五分钟法则[13]的通用化。
[注:注意图中横坐标的单位的理解,accesses/sec/Mbyte->( accesses/sec)/( Mbyte),其中accesses/sec即是H的单位,Mbyte则对应着S的单位]
正 如[6]所说,在访问很均匀的情况下,可以很容易地计算出一个数据库表的热度来。然而,热度还依赖于具体的访问方式:热度实际上是与实际的磁盘访问频率相 关,而不是逻辑上的插入频率。可以这样说,LSM-tree的成功之处就在于它减少了实际的磁盘访问次数,因此就减低了索引的数据的热度。该第6节中我们 会重新讨论下该观点。
Multi-page block IO Advantage
通 过采用multi-page block IO获取的优势对于几个早期的访问方式来说是至关重要的,比如Bounded Disorder files,SB-tree,和Log Structured files。一个1989年的IBM出版物针对DB2在IBM 3380磁盘上的性能进行了分析,给出了下面的结果:“…用于完成一次单个page读取的时间大约是20ms(10ms用于寻道,8.3毫秒的旋转延 迟,1.7ms用于读取)…用于执行一次顺序式预读[以64个连续页面大小为单位]大约是125ms(10ms用于寻道,8.3毫秒的旋转延 迟,106.9ms用于读取64条记录[page]),这样每个page只需2ms”。因此multi-page block IO情况下的2ms比上随机IO下的20ms,也就是COSTπ/COSTp,大概等于1/10。最近的一个关于SCSI-2磁盘的分析,提到读取 4Kbyte页面大小大概需要9ms的寻道时间,5.5ms的旋转延迟,1.2ms的读取时间,总共是16ms。而读取64个连续的4Kbyte页面,需 要9ms的寻道时间,5.5ms的旋转延迟,80ms的读取时间,总共是95ms,算下来单个页面需要95/64=1.5ms。COSTπ/COSTp仍 还是大概等于1/10。
我们来分析一个具有1GByte(它的开销大概是1000$)的SCSI-2磁盘的工作站,IO峰值大概是每秒60-70个IO请求。通常情况下的IO频率要更低一些,大概是每秒40个IO请求。multi-page block IO的优势是很明显的。
1995年的一个典型工作站的成本
COSTm=$100/Mbytes
COSTd=$1/Mbytes
COSTp=$25/(IOs/sec)
COSTπ=$2.5/(IOs/sec)
Tf= COSTd/ COSTp=0.04IOs/(sec·MBytes) (freezing point)
Tb= COSTm/ COSTp=4IOs/(sec·MBytes) (boiling point)
我们通过Tb可以推导出五分钟法则所对应的时间间隔值τ,该值表明数据所维持的每秒的单个page的IO访问开销已经达到了用来保存它所需的内存开销,即:
(1/τ)·COSTp=pagesize·COSTm。
对τ进行求解,可得τ=(1/ pagesize)·(COSTp/ COSTm)=1/( pagesize·Tb),根据上面所给出的值,及pagesize=0.004Mbytes,可得τ=1/(0.004*4)=62.5seconds/IO。
例3.1 为了达到例1.1中TPC-A应用的1000TPS,首先这意味着针对Account表的H=2000 IOs/sec,它本身由100,000,000个100字节的行组成,总大小S=10GBytes。此处的磁盘存储开销就是 S·COSTd=$10,000,而磁盘IO开销将是H·COSTp=$50,000。数据热度T=H/S=2000/10,000=0.2,在冰点之上 (是它的5倍,冰点是0.04,0.2/0.04=5),同时也还在浮点之下。该warm数据只用到了磁盘存储能力的1/5,这样瓶颈就是磁盘磁臂。例 1.2中历史记录表的20天的Acct-ID||Timestamp索引也是类似的情况。正如我们在例1.2中的计算结果,这样的一个B-树索引大概需要 9.2GBytes的叶级节点。如果树只有70%的full,整个树大概需要13.8GBytes的存储,但是它具有与account表相同的IO请求 率,这也意味着它们具有类似的数据热度{!H值相同,S值一个是9.2,一个是13.8,因此H/S值相差不大,都属于warm数据}。
3.2 LSM-tree与B-树的IO开销对比分析
我们将会分析下如下那些mergeable的索引操作的IO开销:插入,删除,更新,和long-latency find。下面的讨论将会提供LSM-tree与B-树的对比分析结果。
B-树的插入开销公式
考 虑执行一次B-树插入操作的磁盘磁臂开销。首先需要对该记录所需要放置到的树中的位置进行访问,这将会产生沿着树节点的自上而下的搜索过程。假设针对树的 后续插入是针对叶子上的某个随机的位置,这样就不能保证访问路径上的节点所在的页面会因为之前的插入操作而进入内存。如果后续的插入是在一系列递增的 key-values,即insert-on-the-right的情况,这种情况就是一种不满足上述假设的常见情况。需要指出的是,这种insert- on-the-right的情况是可以高效地被B-树数据结构所处理的,因为如果B-树一直是往右增长的话,只需要很少地IO开销;事实上这也是B-树所 擅长处理的情况。现在已有很多其他类似的结构可以用来作为这种值不断增长的日志记录的索引机制。
[21]提出了B-树的实际深度(effective depth)概念,用De表示。它代表了在B树的一次随机查找中,不在缓存中的page的平均个数。对于例1.2中的用来索引Account-ID||timestamp的B-树大小来说,De的值大约是2。
为 了执行B-树的一次插入,首先我们需要对叶级page执行一次key-value搜索(需要De个IO操作),进行更新,然后写出一个对应的脏页(1次 IO)。我们忽略相对不那么频繁的节点分裂带来的影响。在这个过程中的page的读写都是开销为COSTp的随机访问,这样一次B-树插入的总的IO开销 COST(B-ins)就是:
(3.1) COST(B-ins)= COSTp·(De+1)
LSM-tree的插入开销公式
为 了计算出LSM-tree的一次插入的开销,我们需要对多次插入进行平摊分析,因为针对内存组件C0的单个插入只是不定期的对IO产生影响。正如我们在本 节开始所解释的,LSM-tree比B-树相比,它的性能上的优势基于两种批处理模式的影响。第一个就是前面提到将单页面IO的开销降低为COSTπ。第 二个就是,将新插入的记录merge到C1中的延迟效果,这就允许被插入的记录可以积累在C0中,这样在C1的叶级page从磁盘读入到内存在写回到磁盘 的过程中,可以一次将几条记录同时merge进来。与此相比,我们已经假设对于B-树来说,很少会一次向一个叶级page中插入多于一条的记录。
定 义3.2.1 Batch-Merge参数M. 为了对这种multiple-entries-per-leaf的批量模式的影响进行量化,对于给定的一个LSM-tree,我们定义M为在 rolling merge过程中,C1树的每个单页面叶子节点中来自于C0树的记录的平均个数。对于特定的LSM-tree来说,M基本上是一个很稳定的值,M的值实际 上是由索引entry的大小和C1与C0的叶级数据大小比例来决定的。我们定义如下几个大小参数:
Se=entry(index entry)size in bytes
Sp=page size in bytes
S0=size in Mbytes of C0 component leaf level
S1=size in Mbytes of C1 component leaf level
那么,一个page里的entries个数就是Sp/Se,LSM-tree中位于C0中的entries比例是S0/(S0+S1),那么参数M可以表示为:
(3.2) M=(Sp/Se)·(S0/(S0+S1))
可 以看出,C0比C1大的越多,M也越大。典型情况下,S1=40·S0,同时每个磁盘页的记录数,Sp/Se=200,此时M=5。给定M的情况下,我们 就能够给出LSM-tree的一次插入所具有的开销的严格的公式化表示。我们简单地将C1树的叶级节点读入和写出的开销,2·COSTπ,平摊到被 merge到C1树的叶级节点中的M次插入中。
(3.3) COST(LSM-ins)=2·COSTπ/M
需要注意的是,我们忽略了LSM-tree和B-树中那些与索引更新产生的IO相关的但又无关紧要的开销。
{! 理解上面这些内容的关键在于理解平摊分析的思想,在LSM-tree中,插入操作实际上不是来了就真正执行地,而是会被保存在C0中,这样C0中的每条记 录实际上就对应着用户的一次插入操作,然后这些插入操作实际上回被延迟到后面的rolling merge过程中,之后才会被反映到磁盘上,我们具体到rolling merge过程中的一个节点来看,该节点会首先从C1中读入到内存,然后会与C0做merge,就看它能从C0中带出几条记录,带出多少条记录也就意味着 它将之前的多少个插入操作写入到了磁盘,因此这一个节点的读写实际上就包含了之前的多个插入操作,也就是插入操作达到了批量化处理的目的。而C0中有多少 条记录会落在该节点内,则是与C0与C1的记录总条数相关的,基本上C1中应该有占S0/(S0+S1)是在C0中的。}
LSM-tree与B-树插入开销的比较
如果我们将这两种数据结构所对应的开销公式(3.1)和(3.3)进行比较,我们可以得到如下比率:
(3.4) COST(LSM-ins)/ COST(B-ins)=K1·(COSTπ/COSTp)·(1/M)
此 处,K1是一个(near)常数,2/(De+1),对于我们所考虑的索引大小来说大概是0.67。上述公式表明,LSM-tree和B-树的一次插入的 IO开销的比值与我们之前讨论过的两个批量处理模式是直接相关的:COSTπ/COSTp,一个很小的分数,代表了以multi-page block为单位的page IO和随机的page IO之间的开销之比,而1/M,M是rolling merge期间每个page所批量导出的C0中的记录数。通常,这两个因素的乘积可以带来接近两个数量级的成本降低。当然,这种改进只有在数据热度相对比 较高的情况下才能体现出来,这样将数据从B-树迁移到LSM-tree将会大大减少所需的磁盘数。
例3.2 如果我们假设例1.2中的索引需要1GBytes的磁盘空间,但是需要存放到10GB的磁盘空间上以获取必需的磁盘IO能力来支撑所需的磁盘访问频率。那 么其中对于磁盘磁臂开销来说肯定存在提升空间。如果公式(3.4)给出的插入开销比率是0.02=1/50,那么这就意味着我们可以减少索引和磁盘开 销:LSM-tree只需要0.7GBytes的磁盘空间,因为它采用了被packed的记录保存方式,同时降低了磁盘所需的IO能力。但是,需要注意的 是无论多么有效的LSM-tree最多也只能将它降低到磁盘容量所需的那个开销水平上。如果我们是针对从一个需要存放到35GB磁盘上所提供的IO能力的 具有1GBytes大小的B-树的话,那么就完全达到上面所提到的那个1/50的成本提升。{!也就是说在10GB的情况下,如果按照上面1/50的比率 来算,如果使用LSM-tree按理来说只需要10/50GB=0.2GB,但是另一方面为了满足硬性的存储需求,LSM-tree所需的磁盘空间不能小 于0.7GBytes,因此实际上没有完全发挥出LSM-tree所带来的IO上的降低,也就是说这种情况下对于0.7 GBytes 的磁盘来说,它的IO能力还有空闲。但是对于35GB的情况来说,按照上面1/50的比率来算就刚好是0.7GB,这样因使用LSM-tree所带来的 IO开销上的降低就被全部利用了。}