欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/
本文来自OceanBase社区分享,仅限交流探讨。原作者马伟,长期从事互联网广告检索系统的研发,对数据库,编译器等领域也有浓厚兴趣。
与RocksDB中实现一样,OceanBase的增量层(C0)多个SSTable之间Key会存在区间重叠的关系,读取的时候需要遍历查找每个增量SSTable才能确定Key是否存在,本文将以OceanBase 3.x版本为例,讲解其如何针对这一问题进行优化。OceanBase 的基线层数据是全局有序的,所有SSTable之间的Key不会存在区间重叠的问题。
OceanBase 数据库的内存存储引擎 MemTable 由 BTree 和 Hashtable 组成。在插入/更新/删除数据时,首先记录Redo日志,并通过RPC进行Paxos协议复制到其他多数副本,然后再将数据写入内存块,在 HashTable 和 BTree 中存储的均为指向对应数据的指针。副本通过接收Master节点发送过来的Redo日志进行重做回放将数据到自身的MemTable。
MemTable在内存中维护了历史版本的事务,每⼀⾏将历史事务针对该⾏的操作按照时间顺序组织成⾏操作链,新事务提交时会往⾏操作链尾部追加新的⾏操作。如果⾏操作链保存的历史事务过多,将影响读取性能,此时需要触发内存compaction操作,融合这些历史事务以⽣成新的⾏操作链。
两种索引结构各自有优缺点,单独无法很好的完成数据库的点查和范围查找的需求,所以OB将两者结合起来使用,唯一的代价就是在多线程并发环境下数据写入需要对两种数据结构都进行操作,实现相对复杂。
数据结构 | 优点 | 缺点 |
---|---|---|
HashTable | · 插入一行数据的时候,需要先检查此行数据是否已经存在,当且仅当数据不存在时才能插入,检查冲突时,Hashtable 要比 BTree 快。 · 事务在插入或更新一行数据的时候,需要找到此行并对其进行上锁,防止其它事务修改此行,OceanBase 数据库的行锁放在 ObMvccRow 中,需要先找到它,才能上锁。 | 不适合对范围查询使用HashTable。 |
BTree | 范围查找时,由于 BTree node 中的数据都是有序的,因此只需要搜索局部的数据就可以了。 | 单行的查找,也需要进行大量的 rowkey 比较,从根结点找到叶子结点,而 rowkey 比较性能是较差的,因此理论上性能比 HashTable 慢很多。 |
当 MemTable 的大小达到某个阈值后,OceanBase 数据库会将 MemTable 中的数据转存于磁盘上,转储后的结构称之为 SSTable。OceanBase的SSTable是不定长的,其内部会被切分为2MB一个的定长数据块,OB称之为宏块(Macro Block)。宏块是OB写数据到磁盘的基本IO单位。
宏块内部会被划分为多个16KB左右的变长数据块,OB称之为微块(Micro Block)。微块中会存储若干数据行(Row),微块是OB数据文件读取的基本单位。微块在构造时会写入连续的数据行,到16KB左右,然后再通过通用压缩算法(LZ4, ZSTD等),然后再加入到宏块当中。
宏块是定长的,大小为固定的 2MB,长度不可以被调整;微块默认大小为16KB,经通用压缩后是变长的。OB在进行 IO 读取时,会按照 4KB 来做 IO 对齐,因此一次 IO 读的长度并不一定与微块长度完全一致。微块长度可以被修改,通过以下的语句可以对于不同的表设置不同的微块长度:
ALTER TABLE mytest SET block_size = 131072;
一般来说微块长度越大,数据的压缩比会越高,但相应的一次 IO 读的代价也会越大;微块长度越小,数据的压缩比会越低,但相应的一次 IO 读的代价会更小。
传统关系型数据库理论和架构在20世纪70,80年代被确定下来,直到2010年的移动互联网时代之前,其架构都没有大的改变。早期数据库系统,CPU算力较弱,而数据压缩是非常耗费CPU的操作,因此传统基于页面行存的关系数据库中一开始都没有为数据压缩进行顶层设计。到互联网时代面对海量数据,传统的关系型数据库也开始考虑增加压缩特性,降低用户的存储成本。
传统的关系型数据库的压缩,主要有两个方向,一个是针对OLTP,即事务处理的workload提供的方案。另外一种是针对OLAP,即数据分析型的workload提供的方案。
针对OLTP的workload提供的方案主要是基于页面的通用压缩。OLTP型的workload,通常需要对行内的数据进行更改,一般来说,采用行存储性能较好。这种负载下,一个页面内的行可能会被上层应用反复修改,因此行与行之间的数据压缩基本难以进行,主流厂商一般都是才用了基于页面的整体通用压缩。以MySQL的InnoDB引擎为例,一个页面未压缩前,在磁盘上占用16KB的空间,压缩后只有11KB,那么按照4KB进行IO对齐的话,压缩后的数据占用12KB的磁盘空间。InnoDB的这个页面在文件中仍然占用16KB的空间,但是利用操作系统的稀疏文件(Sparse File)特性,操作系统实际只为这个页面申请了12KB的磁盘空间,因此可以节约4KB的空间。
这种压缩方式也会带来很多问题:
总结起来就是,传统数据库的基于行存页面的压缩,通常情况下,只能帮助用户节约一部分存储空间,并不会带来性能的提升。如果运用不当,性能有可能还会下降。
OLAP型负载的数据压缩,通常数据都是只读的,没有了数据更新的限制,数据压缩做的非常激进。在页面内的数据可以不按行存,而是按照列存。相同列的数据放在一起,可以做非常多的压缩,如常量编码,字典编码,Delta编码,RLE编码等等。这些数据编码可以有效减少页面的存储空间,同时不会对数据查询有任何的影响。由于OB也采用了类似的压缩方案,因此这里的列存压缩方案,会放到OB的压缩实现中去讲。
传统的基于页面存储的关系数据库还有一个问题就是,OLAP和OLTP两种负载的不可调和性。要想OLAP处理能力强,数据一般都是行存的;要想OLTP处理能力强,数据需要是列存的。如果要想两者都要(小孩才做选择,成年人全都要),那么必须要部署两套异构的存储(尽管数据库服务程序可能是一个/一套),一套专门用于OLTP,一套用于OLAP,二者之间还需要通过数据链路进行同步。这无疑显著增加了硬件和运维管理的成本。
基于LSM的存储引擎,其在磁盘上的数据,在下一次合并之前,都是只读而不会被修改的。通过BigTable和LevelDB引入的SSTable,SSTable内部再分Block存储的概念目前已经是LSM树实现的标配。这些只读的Block,类比传统数据库的页的话,是非常好的压缩目标。相比OLTP数据库的页面,SSTable的Block压缩有以下几个优势:
业内基于LSM的存储其实也看到了这些压缩优势并有了相当的实现,如Facebook提出的RCFile。但是这类应用通常也都是Hadoop等批处理场景,实际在OLTP数据库场景运用这种压缩方案的,据了解就Spanner和OceanBase。
我们前面提到,OB的SSTable的格式,是分为SSTable,Macro Block, Micro Block三级。OB的开源3.x版本只实现了Micro Block内的行存储,内部版本中实现了Micro Block内的列存储。OB在Micro Block内基于列存储进行高效的编码压缩,然后在整体以Micro Block为单位进行通用算法压缩。按照OB早期的文章的宣称,客户在进行MySQL数据迁移的时候,经验公式是按照6:1进行容量规划的,即OB按照列式编码压缩+通用压缩之后的数据,只有同等MySQL的1/6(该结论未做深入考证,不确定是否包含OB三副本,以及MySQL数据是否启用压缩,仅供参考)。
我们现在能见到的,压缩解压代价相对可控的通用压缩算法,基本都是基于Abraham Lempel与Jacob Ziv在1977/1978论文中发表的LZ77/LZ78算法变种得来,如LZW,LZ4,Snappy,ZSTD等。LZ系的通用压缩算法本质是一种在字节流上的基于滑动窗口的字典压缩算法。算法会动态的在最近一段数据流中寻找重复出现的字节片段,然后进行压缩。
OB在Micro Block粒度是支持选择通用压缩算法来对整个Micro Block进行通用压缩的,用户可以通过表的属性来进行设置。通用压缩虽然也能带来一定的数据压缩比,但是这是有性能损失的。OB的Micro Block在压缩前是16KB,是一次读IO读取的数据的大小。当OB的Micro Block被通用压缩之后,OB一次IO的大小仍然是16KB。压缩后的数据还需要解压之后才能使用。即是是当前最快的通用压缩算法LZ4,其解压速度也只有约5GB/S,只有内存数据拷贝(memcpy)的35%左右。
Compressor | Ratio | Compression | Decompression |
---|---|---|---|
memcpy | 1.000 | 13700 MB/s | 13700 MB/s |
LZ4 default (v1.9.0) | 2.101 | 780 MB/s | 4970 MB/s |
LZO 2.09 | 2.108 | 670 MB/s | 860 MB/s |
Snappy 1.1.4 | 2.091 | 565 MB/s | 1950 MB/s |
Zstandard 1.4.0 -1 | 2.883 | 515 MB/s | 1380 MB/s |
LZ4 HC -9 (v1.9.0) | 2.721 | 41 MB/s | 4900 MB/s |
况且,通用的数据压缩算法并不是为数据库专门设计的,这些压缩算法将输入看成是一个连续的字节流,并不对数据的pattern做任何先验假设。但实际上数据库中存放的是结构化数据,是有明确的schema的,每行数据每个字段都有明确的类型和大小。利用这些信息,采用一定的数据编码技术,就可以实现比直接使用通用压缩算法好得多的压缩效果。这些数据编码技术,不但能提高数据的压缩比,还能基本不降低数据的查询效率。某些查询情况下,甚至还能加速查询。
OB中的Micro Block正是在列存的基础上,结合了数据schema,进行了一系列的高效的数据编码压缩。其主要的数据编码压缩算法有以下几类。
OB所采用的这些编码压缩算法,解码过程非常简单,解码特定一行的数据,并不需要依赖其它行,这种近似O(1)复杂度的设计提高了数据投影的性能,使得其能够被用于在线系统。
虽然这些编码压缩算法解码简单,但是编码过程却并不那么trivial。尽管OB知道每张表每一列数据的属性,但是数据的分布OB却并没那么的了解,如某一列虽然是64位整数,但是OB事前并不一定知道它所有值都是一个有限的枚举类型,只有等到需要Compact压缩一个Micro Block的时候才能知道。为了减轻DBA的心智负担,OB并不希望把每一列的编码压缩算法都由DBA来指定,而希望是OB自己根据当前数据的分布来智能选择。这就涉及到一个比较大的问题,如何智能的为每一列来选择最优的编码压缩算法。
OB的做法是如果上一个Micro Block某一列通过计算选择了某种编码算法,那么如果数据分布稳定的话,下一个Micro Block的相同列大概率最优的编码算法跟上一个Block一样。OB会优先尝试通过这个编码算法对列进行压缩,如果压缩后的结果(压缩比)证明这个选择正确,那么就会采用这个编码算法来压缩当前列;否则会退回重新选择合适的编码算法。
OB的公开资料表示,这块还有较大的优化空间。而且业内目前也有一些新颖的想法,如通过机器学习来预测数据的最优编码压缩算法。相信后续OB的新版本中会有持续改进和提升。
TiDB的存储层TiKV是基础RocksDB的,前文我们也提到,RocksDB是在LevelDB的基础上改进来的,而原始的LevelDB只实现了基于Block的整体通用压缩,并未在Block内采用列存及数据编码压缩。因此采用RocksDB作为底层存储的TiDB,也未使用Block内的列存及数据编码压缩。
TiDB为了应对OLAP类需求,专门另外涉及并实现了一套存储格式,采用了列存的方式,此处不展开讨论,有兴趣的同学可以参考文档(PS: TiDB不愧是开源标杆,文档非常完善,随便翻翻也能学习到不少东西)。部署时,需要部署专门的从库来接收主库的数据同步,然后改为列存存储以应对OLAP查询需求。
由于很多数据存储于 SSTable,为了加速查询,OB需要对数据进行缓存。OceanBase 数据库并不需要对缓存的大小进行设置,类似于 Linux 对于 page cache 的控制策略,OceanBase 数据库会尽量使用租户的内存,直到租户的内存达到一定阈值后,才会触发对 Cache 的淘汰。同时 OceanBase 数据库也是一个多租户系统,对于每一个租户都会有各自的 Cache,但 OceanBase 数据库会对所有租户的缓存进行统一管理。
传统关系型数据库并不对单独的某行进行缓存,OB基于LSM的存储引擎却实现了行级缓存。OB的Row Cache 缓存具体的数据行,在进行 Get/MultiGet 查询时,可能会将对应查到的数据行放入 Row Cache,这样在进行热点行的查询时,就可以极大地提升查询性能。
传统的关系数据库中,缓存是以IO页面为单位进行缓存的。在LSM为存储引擎的数据库中,IO页面为单位的缓存策略也需要随着LSM结构来进行适配。我们之前提到过,OB的IO读的最小单位是微块,OB的Block Cache是以微块(Micro Block)为单位的,其缓存的数据是解压缩后的微块数据,大小是变长的。
另外,数据查询的时候,如果没有在Row Cache或者MemTable中查询到数据话,我们需要去Block Cache或者磁盘中查询数据。查询数据的第一步是需要先确定数据在哪个微块,这也需要我们将一部分微块的索引缓存在内存中。
OB的Block Index Cache即缓存微块的索引,类似于 BTree 的中间层,在数据结构上和 Block Cache 有一些区别,由于中间层通常不大,Block Index Cache 的命中率通常都比较高。
LSM树是基于排序的的存储结构,这类结构通常在进行点查询的时候,对不存在的数据的查询和确认是不高效的。不存在的数据,通常我们在内存中也无法缓存,内存查询也就无法命中,只有通过IO去读取数据所在范围的SSTable(微块)来确认数据是否存在。这样对于数据的存在性查询将变得非常低效。因此各种LSM树的实现中都引入了Blook Filter来进行存在性过滤,OB也在宏块(Macro Block)层引入了Bloom Filter用于数据存在性过滤。
Bloom Filter是一种只能插入元素,无法删除元素的数据结构。在传统的关系数据库中,IO页面(Page)随时可能会被应用修改,一行数据随时都可能被删除,因此无法高效的使用Bloom Filter来作为空数据过滤器。而基于LSM树存储引擎则不同,其磁盘上的数据,在下一次合并(Compaction)之前,都是不可变的。Compaction间隔时间通常都是以小时为单位,这种场景非常适合Bloom Filter的使用。Bloom Filter也是一种可以非常容易通过空间来调整查询错误率的数据结构,应用可以轻易的通过调整每个元素所占用的空间(Row per bits),来调整查询的错误率(即数据不在SSTable中,但是通过Bloom Filter查询被确认存在的概率)。
OB中的Bloom Filter的构建策略是按需构建,当一个宏块上的空查次数超过某个阈值时,就会自动构建 Bloom Filter,并将 Bloom Filter 放入 Cache。
前面我们已经讲过合并是LSM树类存储系统中最复杂,也是对系统性能/稳定性影响最大的一个过程。因此,OB实现的LSM树在数据合并上也是进行了非常细致的涉及,提供了多种合并策略,力求合并过程平滑可控。OceanBase的合并策略,根据表上是否有DDL操作,如加列,减列,修改压缩算法等,会才去不同的策略。当表上无DDL操作时,OceanBase主要采取增量合并策略;反之则会采用渐进合并或者全量合并策略。
增量合并的情况下,我们知道表的Schema没有修改,因此可以在合并的时候,在不同粒度上看数据是否可以重用。OB的Macro Block划分为2M一个,这个是一个相对较小的尺寸。当表相对较大的时候,如一张100G的表,系统里会有102400个Macro Block。数据更新的时候,这些Macro Block中很多有可能都没有被修改过,因此可以直接重用,这种方式称之为增量合并。
相对于全量合并的把所有的宏块的重写一边而言,增量合并只重写发生了修改的宏块。增量合并极大地减少了合并的工作量,也是 OceanBase 数据库目前默认的合并算法。
更进一步地,对于宏块内部的微块,很多情况下也并不是所有的微块都会被修改。当发现宏块有行被修改过时,在处理每一个微块时,会先判断这个微块是否有行被修改过,如果没有,只需要把这个微块的数据直接拷贝到新的宏块上,这样没被修改过的微块就省去了解析行、选择编码规则、对行进行编码以及计算列 Checksum 等操作。微块级增量合并进一步减少了合并的时间。
在执行某些 DDL 操作时,例如执行表的加列、减列、修改压缩算法等操作后,数据需要完全重写一遍才能在磁盘上生效。OceanBase 数据库并不会立即对数据执行重写操作,而是将重写动作延迟到合并时进行。基于增量合并的方式,无法完成对未修改数据的重写,为此 OceanBase 数据库引入了“渐进合并”,即把数据的重写分散到多次合并中去做,在一次合并中只进行部分数据的重写。
用户可以通过参数指定渐进合并的轮次,如:
ALTER TABLE mytest SET progressive_merge_num=60;
表示将mytest表的渐进轮次设置为60,在DDL操作完成之后的60次渐进合并过程中,每一次合并会重写60分之一的数据,在60轮合并过后,数据就被整体重写了一遍。
当未对表的progressive_merge_num进行设置时,其默认值为0,目前语义为在执行需要重写数据的DDL操作之后,做渐进轮次为100的渐进合并。当表的progressive_merge_num被设置为1时,表示强制走全量合并。
OB的全量合并和 HBase 与 Rocksdb 的 Major Compaction 过程是类似的。顾名思义,在全量合并过程中,会把当前的基线数据都读取出来,和增量数据合并后,再写到磁盘上去作为新的基线数据。在这个过程中,会把所有数据都重写一遍。全量合并会极大的耗费磁盘 IO 和空间,如非必要或者 DBA 强制指定,OceanBase 数据库一般不会主动做全量合并。
OceanBase 数据库发起的全量合并一般发生在列类型修改等 DDL 操作之后。DDL 变更是实时生效的,不阻塞读写,也不会影响到多副本间的 Paxos 同步,将对存储数据的变更延后到合并的时候来做,这时就需要将所有数据重写一遍。
一般来说合并会在业务低峰期进行,但并不是所有业务都有业务低峰期。在合并期间,会消耗比较多的 CPU 和 IO,此时如果有大量业务请求,势必会对业务造成影响。为了规避合并对业务的影响。借助 OceanBase 数据库的多副本分布式架构,引入了轮转合并的机制。
一般配置下,OceanBase 数据库会同时有 3 个数据副本,当一个数据副本在进行合并时,可以将这个副本上的查询流量切到其他没在合并的集群上面,这样业务的查询就不受每日合并的影响。等这个副本合并完成后,再将查询流量切回来,继续做其他副本的合并,这一机制称之为轮转合并。
为了避免流量切过去后,Cache 较冷造成的 RT 波动,在流量切换之前,OceanBase 数据库还会做 Cache 的预热,通过参数可以控制预热的时间。
到此,《数据库存储与索引技术》系列的内容就完结了。存储和索引技术作为数据库底层的重要基础,掌握其相关知识有助于我们进一步提高对数据库底层原理的认识。希望通过本系列三篇文章的介绍,能够让大家对数据库底层技术以及目前国内主流的分布式数据库底层实现有所了解,在大家以后的工作中能够有所帮助!
\1. Oceanbase文档系列
• OB数据库存储架构:https://www.oceanbase.com/docs/oceanbase-database/oceanbase-database/V3.2.1/overview-4
• OB数据存储管理:https://www.oceanbase.com/docs/oceanbase-database/oceanbase-database/V3.2.1/consolidation-management-overview
• OB数据库压缩特性:https://zhuanlan.zhihu.com/p/49161275
• OB存储引擎详解:https://www.modb.pro/db/137286
• OB博客文章全系列:https://open.oceanbase.com/articles
\2. 其他
• LZ4 Benchmark : https://github.com/lz4/lz4
欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/