再谈binder_mmap

以下是基于Android 7.0,在关键的地方写了备注。看着备注就可以知道在讲什么了。


关于用户空间,内核空间,用户空间地址,内核地址,虚存,物理内存,页等操作系统的基础知识就不展开了,需要自己事先去学习掌握。

首先要了解比较多的linux的知识了。

  • struct vm_area_struct:该结构体表示用户空间的内存地址
  • struct vm_struct:该结构体表示内核空间的内存地址
  • struct page:表示一个物理页的映射
  • struct vm_struct * get_vm_area(unsigned long size, unsigned long flags):寻找一块空间内存区域,创建一个vm_struct结构
  • void *kmalloc(size_t size, gfp_t flags):申请内存,内核调用
  • struct page * alloc_pages(gfp_t gfp_mask, unsigned int order):分配页并且返回struct page实例
  • int map_vm_area(struct vm_struct *area, pgprot_t prot, struct page ***pages):完成物理页到虚拟内存的映射
  • int vm_insert_page(struct vm_area_struct *, unsigned long addr, struct page *):把分配的物理页插到用户vm,可以理解为产生物理页的映射

//在ProcessState中会调用mmap(),其中的fd是binder_open()后返回的,因此后面会根据binder注册的file_operation调用到binder_mmap, 这里的vm_area_struct也是因为mmap()中的参数设置为NULL后由操作系统自动完成。
static int binder_mmap(struct file *filp, struct vm_area_struct *vm){
  struct vm_struct *area;
  //在binder_open的时候,binder_proc就会保存在private_data中
  struct binder_proc *proc = filp->private_data;
  struct binder_buffer *buffer;
  //映射的内存不超过4MB
  if((vma->vm_end - vma->vm_start) > SZ_4M)
    vma->vm_end = vma->vm_start + SZ_4M;
  //根据用户空间的vm_area_struct大小在内核空间也寻找对应大小的内存vm_struct
  area = get_vma_area(vm->vm_end - vma->vm_start, VM_IOREMAP);
  //用binder_proc->buffer保存内核空间映射的首地址
  proc->buffer = area->addr;
  //用binder_proc->user_buffer_offset保存用户空间地址和内核空间地址的差,这样方便相互之间的转换运算
  proc->user_buffer_offset = vma->vm_start - (uintptr_t)proc->buffer;
  //页内存对齐,为pages分配内存大小对应的页数量的结构体page
  proc->pages = kzalloc(sizeof(proc->pages[0]) * ((vma->vm_end - vma->vm_start) / PAGE_SIZE), GFP_KERNEL);
  //分配并且映射物理内存
  binder_update_page_range(proc, 1, proc->buffer, proc->buffer + PAGE_SIZE, vma);
  ...
}

//在本例中,proc表示当前进程binder_proc数据结构,allocate为1,start为对应的内核空间的首地址,end为首地址后一个page页的地址,vma对应用户空间的地址。
static int binder_update_page_range(struct binder_proc *proc, int allocate, void *start, void *end, struct vm_area_struct *vma){
  void *page_addr;
  unsigned long user_page_addr;
  struct page **page;
  struct mm_struct *mm;
  //本例只分配一个PAGE
  for(page_addr = start; page_addr < end; page_addr += PAGE_SIZE){
  struct page **page_array_ptr;
  //本次循环操作的是第N页, 本例中是0
  page = &proc->pages[([page_addr - proc->buffer) / PAGE_SIZE];
  //分配实际的物理内存
  *page = alloc_page(GFP_KERNEL | __GFP_HIGHMEN | __GFP_ZERO);
  tmp_area.addr = page_addr;
  //这里我也不清楚,为什么是2个PAGE_SIZE
  tmp_area.size = PAGE_SIZE + PAGE_SIZE;/*  guard page */
  page_array_ptr = page;
  //映射物理页到内核虚存
  map_vm_area(&tmp_area, PAGE_KERNEL, &page_array_ptr);
  //开始映射物理页到用户内存
  user_page_addr = (uintptr_t)page_addr + proc->user_buffer_offset;
  vm_insert_page(vma, user_page_addr, page[0]);
  }
}

从上面可以看到,Binder利用mmap将用户空间内存和内核空间内存映射到同一块物理内存,这样就避免了数据在空间空间和内核空间的拷贝过程,使得用户空间/内核空间在物理页的数据修改在另一方直接可见。
同时物理页也不是直接要多少分配多少,而是使用多少分配多少。
当然这里也涉及到了内存不足时的交换空间,缺页错误等操作系统的知识,因此要提高计算机能力,基础知识不可谓不重要。

你可能感兴趣的:(再谈binder_mmap)