linux中的页缓存和文件IO

        虽然仔细看过《linux内核设计与实现》,也参考了很多的博客,并且做了linux进程空间、address_space和文件的关系图(设为图1,参考博客),但是对于页缓存和文件IO之间关系的细节一直不是特别明朗。趁着元旦假期看的博客中思路还算清晰,写下当前对于页缓存的理解及其和文件IO之间的关系。

        首先明确的一点是,本文所述的是针对linux引入了虚拟内存管理机制以后所涉及的知识点。linux中页缓存的本质就是对于磁盘中的部分数据在内存中保留一定的副本,使得应用程序能够快速的读取到磁盘中相应的数据,并实现不同进程之间的数据共享。因此,linux中页缓存的引入主要是为了解决两类重要的问题:

        1.磁盘读写速度较慢(ms 级别);

        2.实现不同进程之间或者同一进程的前后不同部分之间对于数据的共享;

        如果没有进程之间的共享机制,那么对于系统中所启动的所有进程在打开文件的时候都要将需要的数据从磁盘加载进物理内存空间,这样不仅造成了加载速度变慢(每次都从磁盘中读取数据),而且造成了物理内存的浪费。为了解决以上问题,linux操作系统使用了缓存机制。在虚拟内存机制出现以前,操作系统使用块缓存机制,但是在虚拟内存出现以后操作系统管理IO的粒度更大,因此采用了页缓存机制。此后,和后备存储的数据交互普遍以页为单位。页缓存是基于页的、面向文件的一种缓存机制。

        说到这里,我们只是对于页缓存的重要性做了介绍。但是,还有三个问题(当然也是本文的重点)还没有解释,分别如下。

        1.页缓存究竟是如何实现,其和文件系统是如何关联的?

        2.页缓存、内存以及文件IO之间的关系是怎样的?

        3.页缓存中的数据如何实现和后备存储之间的同步?

        接下来我们将对这三个问题进行详细的解释。

页缓存的实现:

        既然页缓存是以页为单位进行数据管理的,那么必须在内核中标识该物理页。其实每个真正存放数据的物理页帧都对应一个管理结构体,称之为struct page,其结构体如下。

struct page  {
    unsigned long    flags;
    atomic_t    _count;
    atomic_t    _mapcount;
    unsigned long    private;
    struct address_space    *mapping;
    pgoff_t    index;
    struct list_head    lru;
    void*    virtual;
};

        下面详细介绍一下物理页结构体中各个成员的含义:

        flags:  描述page当前的状态和其他信息,如当前的page是否是脏页PG_dirty;是否是最新的已经同步到后备存储的页PG_uptodate; 是否处于lru链表上等;

        _count:引用计数,标识内核中引用该page的次数,如果要操作该page,引用计数会+1,操作完成之后-1。当该值为0时,表示没有引用该page的位置,所以该page可以被解除映射,这在内存回收的时候是有用的;

        _mapcount:  页表被映射的次数,也就是说page同时被多少个进程所共享,初始值为-1,如果只被一个进程的页表映射了,该值为0。

        _mapping有三种含义:

        a.如果mapping  =  0,说明该page属于交换缓存(swap cache); 当需要地址空间时会指定交换分区的地址空间swapper_space;

        b.如果mapping !=  0,  bit[0]  =  0,  说明该page属于页缓存或者文件映射,mapping指向文件的地址空间address_space;

        c.如果mapping !=  0,  bit[0]  !=0 说明该page为匿名映射,mapping指向struct  anon_vma对象;

      (注意区分_count和_mapcount,_mapcount表示的是被映射的次数,而_count表示的是被使用的次数;被映射了不一定被使用,但是被使用之前肯定要先被映射)。

        index: 在映射的虚拟空间(vma_area)内的偏移;一个文件可能只是映射了一部分,假设映射了1M的空间,那么index指的是1M空间内的偏移,而不是在整个文件内的偏移;

        private :  私有数据指针;

        lru:当page被用户态使用或者是当做页缓存使用的时候,将该page连入zone中的lru链表,供内存回收使用;

        页缓存就是将一个文件在内存中的所有物理页所组成的一种树形结构,我们称之为基数树,用于管理属于同一个文件在内存中的缓存内容。

        如上所述,一个文件在内存中对应的所有物理页组成了一棵基数树。而一个文件在内存中具有唯一的inode结构标识,inode结构中有该文件所属的设备及其标识符,因而,根据一个inode能够确定其对应的后备设备。为了将文件在物理内存中的页缓存和文件及其后备设备关联起来,linux内核引入了address_space结构体。可以说address_space结构体是将页缓存和文件系统关联起来的桥梁,其组成如下:

struct address_space {
    struct inode*    host;/*指向与该address_space相关联的inode节点*/
    struct radix_tree_root    page_tree;/*所有页形成的基数树根节点*/
    spinlock_t    tree_lock;/*保护page_tree的自旋锁*/
    unsigned int    i_map_writable;/*VM_SHARED的计数*/
    struct prio_tree_root    i_map;         
    struct list_head    i_map_nonlinear;
    spinlock_t    i_map_lock;/*保护i_map的自旋锁*/
    atomic_t    truncate_count;/*截断计数*/
    unsigned long    nrpages;/*页总数*/
    pgoff_t    writeback_index;/*回写的起始位置*/
    struct address_space_operation*    a_ops;/*操作表*/
    unsigned long    flags;/*gfp_mask掩码与错误标识*/
    struct backing_dev_info*    backing_dev_info;/*预读信息*/
    spinlock_t    private_lock;/*私有address_space锁*/
    struct list_head    private_list;/*私有address_space链表*/
    struct address_space*    assoc_mapping;/*相关的缓冲*/
}

        下面对address_space成员中的变量做相关的解释。

        host:  指向与该address_space相关联的inode节点,inode节点与address_space之间是一一对应关系;

        struct radix_tree_root:指向的host文件在该内存中映射的所有物理页形成的基数树的根节点,参考博客。

        struct prio_tree_root:与该地址空间相关联的所有进程的虚拟地址区间vm_area_struct所对应的整个进程地址空间mm_struct形成的优先查找树的根节点;vm_area_struct中如果有后备存储,则存在prio_tree_node结构体,通过该prio_tree_node和prio_tree_root结构体,构成了所有与该address_space相关联的进程的一棵优先查找树,便于查找所有与该address_space相关联的进程;

        下面列出struct prio_tree_root和struct  prio_tree_node的结构体。

struct  prio_tree_root {
    struct prio_tree_node*  prio_tree_root;
    unsigned short              index_bits;
};
struct prio_tree_node {
    struct prio_tree_node*  left;
    struct prio_tree_node*  right; 
    struct prio_tree_node*  parent;
    unsigned long                start;
    unsigned long                last;
};
         为了便于形成页缓存、文件和进程之间关系的清晰思路,文章画出一幅图,如图2所示。

linux中的页缓存和文件IO_第1张图片

图 2 页缓存及其相关结构

        从以上可以解释可以看出,address_space成为构建页缓存和文件、页缓存和共享该文件的所有进程之间的桥梁。

        每个进程的地址空间使用mm_struct结构体标识,该结构体中包含一系列的由vm_area_struct结构体组成的连续地址空间链表。每个vm_area_struct中存在struct  file* vm_file用于指向该连续地址空间中所打开的文件,而vm_file通过struct file中的struct  path与struct  dentry相关联。  struct dentry中通过inode指针指向inode,inode与address_space一一对应,至此形成了页缓存与文件系统之间的关联;为了便于查找与某个文件相关联的所有进程,address_space中的prio_tree_root指向了所有与该页缓存相关联的进程所形成的优先查找树的根节点。关于这种关系的详细思路请参考图1,这里画出其简化图,如图3。

linux中的页缓存和文件IO_第2张图片
图 3 页缓存、文件系统、进程地址空间简化关系图

        这里需要说明的linux中文件系统的一点是,内核为每个进程在其地址空间中都维护了结构体struct* fd_array[]用于维护该进程地址空间中打开的文件的指针;同时内核为所有被打开的文件还维护了系统级的一个文件描述符表用以记录该系统打开的所有文件,供所有进程之间共享;每个被打开的文件都由一个对应的inode结构体表示,由系统级的文件描述符表指向。所以,进程通过自己地址空间中的打开文件描述符表可以找到系统级的文件描述符表,进而找到文件。

页缓存、内存、文件IO之间的关系

       关于文件IO我们常说的两句话“普通文件IO需要复制两次,内存映射文件mmap只需要复制一次”。下面,我们对普通文件IO做详细的解释。文章对页缓存和文件IO做了详细的介绍,不过都是英文的,本文在基于对上文理解、翻译的基础上,加入自己对于页缓存的理解。读者可以选择直接去看对应的英文原版说明。

        为了能够深入理解页缓存和文件IO操作之间的关系,假设系统中现在存在一个名为render的进程,该进程打开了文件scene.dat,并且每次读取其中的512B(一个扇区的大小),将读取的文件数据放入到堆分配的块中(每个进程自己的地址空间对应的物理内存)。先以普通IO为例介绍一下读取数据的过程,第一次读取的过程大致如图4(图4-8来源于该文章)。

linux中的页缓存和文件IO_第3张图片

图 4 进程render第一次读取数据

        进程发起读请求的过程如下:

        1.进程调用库函数read()向内核发起读文件的请求;

        2.内核通过检查进程的文件描述符定位到虚拟文件系统已经打开的文件列表项,调用该文件系统对VFS的read()调用提供的接口;

        3.通过文件表项链接到目录项模块,根据传入的文件路径在目录项中检索,找到该文件的inode;

        4.inode中,通过文件内容偏移量计算出要读取的页;

        5.通过该inode的i_mapping指针找到对应的address_space页缓存树---基数树,查找对应的页缓存节点;

        (1)如果页缓存节点命中,那么直接返回文件内容;

        (2)如果页缓存缺失,那么产生一个缺页异常,首先创建一个新的空的物理页框,通过该inode找到文件中该页的磁盘地址,读取相应的页填充该页缓存(DMA的方式将数据读取到页缓存),更新页表项;重新进行第5步的查找页缓存的过程;

        6.文件内容读取成功;

        也就是说,所有的文件内容的读取(无论一开始是命中页缓存还是没有命中页缓存)最终都是直接来源于页缓存。当将数据从磁盘复制到页缓存之后,还要将页缓存的数据通过CPU复制到read调用提供的缓冲区中,这就是普通文件IO需要的两次复制数据复制过程。其中第一次是通过DMA的方式将数据从磁盘复制到页缓存中,本次过程只需要CPU在一开始的时候让出总线、结束之后处理DMA中断即可,中间不需要CPU的直接干预,CPU可以去做别的事情;第二次是将数据从页缓存复制到进程自己的的地址空间对应的物理内存中,这个过程中需要CPU的全程干预,浪费CPU的时间和额外的物理内存空间。

        假如读取了12KB的数据之后,那么render进程的堆地址空间和相关的地址空间如图5所示。

linux中的页缓存和文件IO_第4张图片

图 5 读取12KB数据之后,进程render的地址空间和页缓存示意图

         看起来该过程很简单,但是这其中存在着很多的知识点。首先,render使用了常规的read()系统调用读取了12KB的数据,现在scene.dat中三个大小为4KB的页也存在于页缓存中,就像先前所说的所有的文件IO都是通过页缓存进行的。在X86架构的linux体系中,内核以4KB大小的页为单位组织文件中的数据,所以即使你从一个文件中仅仅读取几个字节的数据,那么包含这些字节的整个页的数据都会从硬盘读入页缓存中。这对于提高硬盘的吞吐量很有帮助,并且用户通常每次读取的数据不仅仅是只有几个字节而已。页缓存记录了每个4KB中的页在文件中的位置,如图中的#0, #1等。

        然而,在一次文件读取的过程中,必须将文件的内容从页缓存拷贝到用户的空间。这个过程和缺页异常(通过DMA调入需要的页)不一样,这个拷贝过程需要通过CPU进行,因此浪费了CPU的时间。另一个弊端就是浪费了物理内存,因为需要为同样的数据在内存中维护两个副本,如图6 render进程的heap所对应的堆中的数据和页缓存中的数据存在重复,并且如果系统中有多个这样的进程的话,那么需要为每个进程维护同样的一份数据副本,严重浪费了CPU的时间和物理内存空间。

        好在,通过内存映射IO---mmap,进程不但可以直接操作文件对应的物理内存,减少从内核空间到用户空间的数据复制过程,同时可以和别的进程共享页缓存中的数据,达到节约内存的作用。关于mmap的实现请参考博客

        当映射一个文件到内存中的时候,内核将虚拟地址直接映射到页缓存中。正如博客4中介绍的,当映射一个文件的时候,如果文件的内容不在物理内存中,操作系统不会将所映射的文件部分的全部内容直接拷贝到物理内存中,而是在使用虚拟地址访问物理内存的时候通过缺页异常将所需要的数据调入内存中。如果文件本身已经存在于页缓存中,则不再通过磁盘IO调入内存。如果采用共享映射的方式,那么数据在内存中的布局如图6所示。

linux中的页缓存和文件IO_第5张图片
图 6 文件共享映射示意图

        由于页缓存的架构,当一个进程调用write系统调用的时候,对于文件的更新仅仅是被写到了文件的页缓存中,相应的页被标记为dirty。具体过程如下:

        前面5步和读文件是一致的,在address_space中查询对应页的页缓存是否存在:

        6.如果页缓存命中,直接把文件内容修改写在页缓存的页中。写文件就结束了。这时候文件修改位于页缓存,并没有写回到磁盘文件中去。

        7.如果页缓存缺失,那么产生一个页缺失异常,创建一个页缓存页,同时通过inode找到该文件页的磁盘地址,读取相应的页填充页缓存。此时缓存页命中,进行第6步。

        普通的IO操作需要将写的数据从自己的进程地址空间复制到页缓存中,完成对页缓存的写入;但是mmap通过虚拟地址(指针)可以直接完成对页缓存的写入,减少了从用户空间到页缓存的复制。        

        由于写操作只是写到了页缓存中,因此进程并没有被阻塞到磁盘IO发生,因此当计算机崩溃的时候,写操作所引起的改变可能并没有发生在磁盘上。所以,对于一些要求严格的写操作,比如数据库系统,就需要调用fsync等操作及时将数据同步到磁盘上(虽然这中间也可能存在磁盘的驱动程序崩溃的情况)。读操作与写不同,一般会阻塞到进程读取到数据(除非调用非阻塞IO,即使使用IO多路复用技术也是将进程阻塞在多个监听描述符上,本质上还是阻塞的)。为了减轻读操作的这种延迟,linux操作系统的内核使用了"预读"技术,也就是当从磁盘中读取你所需要的数据的时候,内核将会多读取一些页到页缓存中。

        普通文件IO中所有的文件内容的读取(无论一开始是命中页缓存还是没有命中页缓存)最终都是直接来源于页缓存。当将数据通过缺页中断从磁盘复制到页缓存之后,还要将页缓冲的数据通过CPU复制到read调用提供的缓冲区中。这样,必须通过两次数据拷贝过程,才能完成用户进程对文件内容的获取任务。写操作也是一样的,待写入的buffer在用户空间,必须将其先拷贝到内核空间对应的主存中,再写回到磁盘中,也是需要两次数据拷贝。mmap的使用减少了数据从用户空间到页缓存的复制过程,提高了IO的效率,尤其是对于大文件而言;对于比较小的文件而言,由于mmap执行了更多的内核操作,因此其效率可能比普通的文件IO更差。

        在专门介绍mmap的博客中,我们说文件映射分为私有映射(private)和共享映射(shared)两种,二者之间的区别就是一个进程对文件所做的改变能否被其他的进程所看到,且能否同步到后备的存储介质中。那么,如果一个进程仅仅是读取文件中的内容的话,那么共享映射和私有映射对应的物理内存布局如图5所示。但是,如果采用私有映射的方式,且一个进程对文件内容作出了改变,那么会发生怎样的情况呢?内核采用了写时复制技术完成私有映射下对文件内容的改动,下面举例说明。

        假设系统中存在两个进程分别为render和render3d,它们都私有映射同一个文件scene.dat到内存中,然后render进程对映射的文件做出了写操作,如图7所示。

linux中的页缓存和文件IO_第6张图片

图 7 私有映射写文件示意图

        图6中的“只读”标志不是说映射的内容是只读的,这仅仅是内核为了节省物理内存而采用的对于物理内存的一种“欺骗手段”而已。如果两个进程只是读取文件中的内容,不做任何的改动,那么文件只在物理内存中保留一份;但是如果有一个进程,如render,要对文件中的内容做出改动,那么会触发缺页中断,内核采用写时复制技术,为要改动的内容对应的页重新分配一个物理页框,将并将被改动的内容对应的物理页框中的数据复制到新分配的物理页框中,再进行改动。此时新分配的物理页框对于render而言是它自己“私有的”,别的进程是看不到的,也不会被同步到后备的存储中。但是如果是共享映射,所有的进程都是共享同一块页缓存的,此时被映射的文件的数据在内存中只保留一份。任何一个进程对映射区进行读或者写,都不会导致对页缓冲数据的复制。

        mmap的系统调用函数原型为void* mmap(void* addr, size_t len, int prot, int flag, int fd, off_t off)。其中,flag指定了是私有映射还是共享映射,私有映射的写会引发缺页中断,然后复制对应的物理页框到新分配的页框中。prot指定了被映射的文件是可读、可写、可执行还是不可访问。如果prot指定的是可读,但是却对映射文件执行写操作,则此时却缺页中断会引起段错误,而不是进行写时复制。

        那么此时存在另一个问题就是当最后一个render进程退出之后,存储scene.dat的页缓存是不是会被马上释放掉?当然不是!在一个进程中打开一个文件使用完之后该进程退出,然后在另一个进程中使用该文件这种情况通常是很常见的,页缓存的管理中必须考虑到这种情况。况且从页缓存中读取数据的时间是ns级别,但是从硬盘中读取数据的时间是ms级别,因此如果能够在使用数据的时候命中页缓存,那么对于系统的性能将非常有帮助。那么,问题来了,什么时候该文件对应的页缓存要被换出内存呢?就是系统中的内存紧张,必须要换出一部分物理页到硬盘中或者交换区中,以腾出更多的空间给即将要使用的数据的时候。所以只要系统中存在空闲的内存,那么页缓存就不会被换出,直到到达页缓存的上限为止。是否换出某一页缓存不是由某一个进程决定的,而是由操作系统在整个系统空间中的资源分配决定的。毕竟,从页缓存中读取数据要比从硬盘上读取数据要快的多了。

        内存映射的一个典型应用就是动态共享库的加载。图8展示了两个同一份程序的两个实例使用动态共享库时,进程的虚拟地址空间及对应的物理内存空间的布局。

linux中的页缓存和文件IO_第7张图片
图 8 进程动态共享库的加载

页缓存中数据如何实现和后备存储之间的同步?

       普通文件IO,都是将数据直接写在页缓存上,那么页缓存中的数据何时写回后备存储?怎么写回?

何时写回

        1.空闲内存的值低于一个指定的阈值的时候,内核必须将脏页写回到后备存储以释放内存。因为只有干净的内存页才可以回收。当脏页被写回之后就变为PG_uptodate标志,变为干净的页,内核就可以将其所占的内存回收;

        2.当脏页在内存中驻留的时间超过一个指定的阈值之后,内核必须将该脏页写回到后备存储,以确定脏页不会在内存中无限期的停留;

        3.当用户进程显式的调用fsync、fdatasync或者sync的时候,内核按照要求执行回写操作。

由谁写回

        为了能够不阻塞写操作,并且将脏页及时的写回后备存储。linux在当前的内核版本中使用了flusher线程负责将脏页回写。

        为了满足第一个何时回写的条件,内核在可用内存低于一个阈值的时候唤醒一个或者多个flusher线程,将脏页回写;

        为了满足第二个条件,内核将通过定时器定时唤醒flusher线程,将所有驻留时间超时的脏页回写。


        以上是个人关于页缓存和文件IO的理解,欢迎吐槽。

你可能感兴趣的:(操作系统)