论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统

TRIO(SOSP'23)

    • 1. 背景(Background)
      • 1.1 NVM Technologis
      • 1.2 File System Customization
      • 1.3 Userspace NVM File Systems
    • 2. 观察与动机(Observation & Motivation)
    • 3. 设计与实现(Design & Implementation)
      • 3.1 TRIO Arhitecture
      • 3.2 ArckFS
        • 3.2.1 Core State
        • 3.2.2 Auxiliary State
        • 3.2.3 Verifier
        • 3.2.4 Crash Consistency
        • 3.2.5 Implmentation
      • 3.3 KVFS & FPFS
    • 4. 评估(Evaluation)
      • 4.1 Single-Thread Performance
      • 4.2 Data Operation Performance
      • 4.3 Scalability
      • 4.4 Sharing Cost
      • 4.5 Macrobenchmark and Real-world Applications
    • 5. 总结

导读:

  • TRIO是一个新型用户态PM文件系统框架,其核心是将文件系统状态分离:Core State用于保存文件系统固有状态,由KernFS控制;Auxiliary State从Core State构建用户态LibFS。TRIO将LibFS可信域缩小至单个APP从而避免对其他LibFS产生影响:每个APP对应一个LibFS,LibFS不可被应用共享。不同LibFS对同一个文件的操作需要先通过Core State验证,才能移交给请求的LibFS。
  • TRIO的观察比较简单,现有的用户态PM文件系统最大挑战在于对元数据的安全性保证。然而现有的方法要么性能不足(通过一个可信对象进行请求中转,需要进程间通信),要么不够安全(允许直接操作元数据,但缺乏元数据完整性验证机制)。TRIO采用缩小可信域范围+运行前验证的方式来解决这一问题:每个LibFS需要先通过Core State的验证,然后才能获得该文件的数据+元数据访问权。如果出现Corruption,那么后续的LibFS就无法通过验证,此时通过回滚操作恢复元数据完整的Core State,从而保证元数据安全。
  • TRIO这篇文章的核心insight可以从很多角度考虑,个人认为比较有意思(虽然作者只从文件系统状态分离角度阐述,让人不明觉厉)。个人的理解该架构的本质是:缩小可信域范围(对比ZoFS的LibFS可信域范围为Coffer,TRIO为APP,避免LibFS共享)及运行前验证(已有的方法采用元数据运行时验证,即请求中转,或不验证直接访问)。

1. 背景(Background)

1.1 NVM Technologis

TRIO很鸡贼,因为Optane DCPMM退出市场了,所以他们首先介绍了通用NVM技术的关键特性:

  • NVM可以被CPU直接Load/Store
  • 可以通过MMU等强制对NVM区域的访问权限 (理解为映射为r/w/rw等)
  • NVM访问延迟低
  • NVM是可字节级寻址的

为了避免与傲腾产生强关联性,TRIO列了一大堆现在的和未来的NVM,包括:battery-backed DRAM,CXL,battery-backed DRAM and flash memory。

1.2 File System Customization

Customization可以设计针对特殊负载的最优文件系统。主要优势来自于两个方面:

  • Customization不需要特权 (个人理解是不需要和可信任实体耦合,简单来说,编写APP不用修改OS)。
  • Customization之间不会相互影响 (通用系统在某负载表现优异,但另外的负载可能就不行,Customization可以解决这种问题)

1.3 Userspace NVM File Systems

**Thread Model:**硬件、内核、可信任用户态进程是可信的,LibFS与应用是不可信的

Goal:用户态NVM文件系统需要避免LibFS与应用对元数据的攻击

已有方法:

  • 请求中转 (Mediation): 通过一个可信任进程来处理LibFS的请求,这一方面带来高额进程间通信 (IPC) 开销,一方面阻碍了Customization,因为元数据修改需要植入到可信进程内部,LibFS的设计需要可信权限。
  • 直接修改 (DAX): 一些已有工作默认运行在可信环境中,于是不对元数据做检查;另一些工作通过缩小可信域来缓解元数据损坏的影响,如ZoFS,多个APP通过共享LibFS对Coffer进行访问,错误不会跨Coffer传递。由于ZoFS不做元数据检查并且APP能够共享LibFS,所以仍然会受到多种攻击,包括: Memory-based exploitation (如,通过修改LibFS的指针,在Copy时泄露敏感数据);语义攻击(移除目录项等)。

2. 观察与动机(Observation & Motivation)

现有的方法要么开销大,要么无法保证元数据安全,如何设计一个既高效又安全的用户态文件系统呢?

  • 避免请求中转: 这会带来严重的IPC开销,并且阻碍Customization
  • 强制可信第三方进行元数据验证: 不进行元数据验证会带来安全问题,虽然LibFS可以自行验证,不过这带来更高复杂度,且LibFS没有特权,无法进行错误恢复,因此需要一个可信第三方进行验证
  • 避免LibFS状态共享 (最小化可信域): 在应用间共享LibFS会带来安全问题,因此,每个LibFS只能由一个应用使用。此外,APP间必须互斥写文件,但可以并发读文件。

3. 设计与实现(Design & Implementation)

3.1 TRIO Arhitecture

TRIO将文件系统状态分为两种:

  • Core State:文件系统的本质状态,丢失后不可生成(如:文件数据、文件名、访问权限、目录结构等)
  • Auxiliary State:辅助状态,可以根据Core State再生成(如:文件描述符、锁、Cache等)

TRIO由三部分组成:Per-APP LibFSKernel Controller以及可信Integrity Verifier。其中,Kernel Controller用于共享资源访问控制(例如:Inode、NVM页面等),Integrity Verifier用于在文件共享时验证Core State的有效性。

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第1张图片

共享流程:① LibFS-A请求访问文件/foo,② Kernel Controller允许LibFS-A访问/foo的Core State,将对应页面映射到LibFS空间,③ LibFS根据/foo的Core State,构建Auxiliary State,④ 直接I/O,⑤ 在文件共享过程中,LibFS-A unmap文件,⑥ Kernel Controller向Integrity Verifier发送验证请求,⑧ 如果验证失败,Kernel Controller恢复/foo的Core State状态,⑨ 验证通过,Kernel Controller允许LibFS-B访问/foo的Core State,⑩ LibFS-B构建Auxiliary State并直接I/O

如何应对无意的BUG或者错误?

可以通过设计相应的Core State来避免这一问题,True。

3.2 ArckFS

为了显示TRIO架构的优越性,本文构建了ArckFS。整体架构如下图所示。这里值得说明的是,KVFS和FPFS是两个基于TRIO的Customization文件系统。这里可以看出,整个TRIO架构仍然类似SplitFS是一个堆叠式文件系统,LibFS通过mmap向上层提供POSIX-like I/O接口。

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第2张图片

3.2.1 Core State

Core State提供了最基本的文件系统语义,提供数据索引,但不提供数据组织

  • Layout:如上图所示,包括Super Block,Shadow Inode Table (用于提供元数据完整性),以及各种文件数据页。LibFS对SB有读权限,对Shadow Inode Table无权限,LibFS对文件数据页的访问权限受制于文件的权限。
  • Core State of Regular File:如下图所示,文件的Core State包括Index Page + Data Page
  • Core State of Directory:如下图所示,目录的Core State同样包括Index Page + Data Page,但Data Page里面装的是目录项

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第3张图片

3.2.2 Auxiliary State
  • Regular File:如上图所示,ArckFS (LibFS) 构建Radix Tree索引数据;通过读写锁及Range Lock来保证文件的多线程操作的Scalability。ArckFS (LibFS) 通过扫描Index Pages插入构建Radix Tree
  • Directory:如上图所示,ArckFS (LibFS) 构建Hash Table索引目录,通过为Non-full Data Page维护Tail来保证高并发。ArckFS (LibFS) 扫描Index Pages + Data Pages中的目录项来构建Hash Table索引

当进行文件共享时,ArckFS LibFS的Auxiliary State会被释放。

3.2.3 Verifier

Integrity Verifier参考e2fsck进行元数据完整性检测,主要进行如下四点验证:

  • Inode和目录项的字段都是有效的:① 文件类型是有效的;② 目录下没有重名文件;③ 文件名中没有/
  • 文件的Inode号、索引页和数据页都是有效的:Kernel Controller会维护这些资源的分配信息,并在map/unmap文件时更新这些信息,Integrity Verifier根据这些信息进行检测。
  • 目录树是完整的:Integrity Verifier会将当前的目录树Checkpoint的目录树做对比来判断已经被删除的目录,接着Integrity Verifier需要检查该目录没有被任何LibFS引用
  • 访问权限:应用可以直接修改Inode的权限从而进行攻击,Kernel Controller在Shadow Inode Table中记录文件的固有权限,并以Shadow Inode Table为参照进行文件的权限检查。对于必须修改文件权限的操作,例如,chmod和chown,LibFS请求Kernel Controller在Shadow Inode Table中进行修改。

错误修复:通过回滚到上一个Checkpoint来进行修复。

  • Checkpoint:Checkpoint发生在LibFS以写权限拿到文件映射之前,ArckFS会将文件的元数据(文件和目录的Index Pages、目录的Data Pages)都存下来。在文件共享过程中,如果检测失败,ArckFS会Notify LibFS来解决错误,如果无法解决,那么被映射的文件会变成只读。

  • Fix:出错的文件会被拷贝一份,然后回滚到上一个Checkpoint状态。

3.2.4 Crash Consistency
  • Overview:ArckFS的Core State不做Crash Consistency保证,LibFS必须自行进行Recover。由于ArckFS不信任其他LibFS,因此会在完成Recovery后进行Verify。
  • Consistency mode:ArckFS的LibFS保证Metadata的一致性不保证Data一致性。
3.2.5 Implmentation
  • Multicore Scalability:ArckFS除了使用细粒度锁机制,还大量使用per-CPU设计
  • 适配Optane DCPMM:使用和OdinFS一样的方法把I/O卸载均摊到其他NUMA节点上

3.3 KVFS & FPFS

为了说明Customization的好处,本文设计了除ArckFS外两个文件系统,分别适应不同的负载。

  • KVFS:适于小文件存储,包括Email客户端等。KVFS提供了get和set两个特殊的接口,分别读取/写入特定的文件,从而避免了open/close开销,此外,将索引换成线性表,避免了树遍历开销。
  • FPFS:设计full-path indexing来加速路径查询。

TRIO中Customization同样具有局限性:Core State的Customization需要特权,例如,目前ArckFS的Core State并不支持Log-structured文件系统。

4. 评估(Evaluation)

这里比较有意思的是TRIO架构带来的性能提升主要来源于直接数据/元数据访问以及OdinFS的多核拓展能力,因此,在大多数情况下ArckFS的性能应该都是最优的。TRIO的劣势在于File Sharing会带来较大的开销,包括map/unmap,verify以及rebuild auxiliary state。

4.1 Single-Thread Performance

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第4张图片

ArckFS-nd代表无delegation。

  • 图(a)与(b),4K块时,ArckFS-nd更快是因为delegation需要进程间通信;2MB时,ArckFS更快是因为直接数据/元数据访问以及delegation带来的并行写入
  • 图©与(d),ArckFS更快,得益于直接用户态元数据修改。

4.2 Data Operation Performance

| 论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第5张图片
| 论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第6张图片
|
| ------------------------------------------------------------ | ------------------------------------------------------------ |

  • 单个NUMA Node下,ArckFS提升比较小,主要性能提升来自于DAX。
  • 多NUMA Node下,ArckFS和OdinFS远超其他的,是因为用了delegation,但是ArckFS比OdinFS更快,是因为DAX

4.3 Scalability

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第7张图片

FxMark测试结果表明ArckFS的可拓展性很好,这得益于其用户态元数据直接访问和细粒度锁结构。

4.4 Sharing Cost

两个应用Sharing同一个File,下面是测试结果,可以发现ArckFS性能下降极为严重。为了解决这个问题,ArckFS使用Trust-group来避免两个应用Sharing时的元数据检查。

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第8张图片

下图是性能开销分析,可以看到主要开销来源于map/unmap以及verification

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第9张图片

4.5 Macrobenchmark and Real-world Applications

  • Filebench

    Webproxy与Varmail本身就有scalability问题,因此这里只放到16线程。ArckFS性能很好。

    论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第10张图片

  • LevelDB

    论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第11张图片

  • Customization

    这里要研究KVFS(针对小文件优化)以及FPFS(针对目录深度查询优化)的性能优势。分别在Webproxy和Varmail负载下进行测试。这里Webproxy每个文件有512MB,严重与KVFS预设场景不符,怀疑可能是笔误。Varmail负载创建了深度为20的目录。

    测试结果表明这两种Customization的LibFS都能够进一步超过ArckFS性能。

论文悦读(7)——NVM文件系统之Trio(SOSP‘23)文件系统_第12张图片

5. 总结

本文通过TRIO架构:缩小LibFS可信域至APP + 运行前验证,解决了用户态PM文件系统元数据性能与安全问题,但与之换来的是更高昂的APP间文件共享开销。

Anyway,TRIO工作看起来不是特别复杂,且其贡献仍然聚焦于NVM,不过其中蕴含的思想与哲理:对文件系统状态划分对Customization的探讨是值得借鉴与推广的。

你可能感兴趣的:(论文悦读,文件系统,NVM,非易失内存)