参考源码
binder.h
binder.c
page.h
kernel.h
vmalloc.c
binder_proc->buffer
指向【内核虚拟空间】管理结构体vm_struct vm
的开始地址
binder_proc->buffer_size
vm
的大小,等于进程调用mmap("dev/binder")
时请求分配的虚拟空间大小。
binder_proc->pages
物理页数组,用于存放物理页管理结构体page
,通过数组下标与虚拟空间形成相对位置关系
linxu将物理内存划分成大小为PAGE_SIZE
的块进行管理,称为物理页,page
则是物理页的管理结构体。
-
pages的下标
通过数组下标与虚拟空间形成相对位置关系:
PAGE_SIZE=4k时 vm[0k ~ 4k] = page[0] vm[4k ~ 8k] = page[1] vm[8k ~ 12k] = page[2]
虚拟地址可以通过计算,查找所在的
page
在数组中的下标。index = (虚拟地址 - binder_proc->buffer(vm起始地址)) / PAGE_SIZE page = pages[index]
-
数组大小
请求分配的虚拟空间大小所需要的物理页数量,对应
page
结构体数量所需要请求的物理内存大小。所需内存大小 = page结构体大小 * (虚拟空间大小 / PAGE_SIZE)
-
PAGE_SIZE
PAGE_SIZE
一般=4k。
从ARMv8架构开始,可以启用CONFIG_ARM64_64K_PAGES
使PAGE_SIZE
=64k。#ifdef CONFIG_ARM64_64K_PAGES #define PAGE_SHIFT 16 #else #define PAGE_SHIFT 12 #endif #define PAGE_SIZE (_AC(1,UL) << PAGE_SHIFT) #define PAGE_MASK (~(PAGE_SIZE-1))
-
PAGE_MASK
虚拟地址通过
&PAGE_MASK
,可以获取所在物理页的起始虚拟地址。PAGE_SIZE=4k时 PAGE_SIZE = 0000-0000 0000-0000 0001-0000 0000-0000 PAGE_MASK = 1111-1111 1111-1111 1111-0000 0000-0000
binder_mmap()
进程在打开binder驱动后,通过mmap("dev/binder")
指定内存映射区域的大小。mmap系统调用过程中,会调用binder驱动的binder_mmap()
函数。
-
申请vm
通过
get_vm_area()
申请与【用户虚拟空间】vm_area_struct vma
大小相同的vm
,并记录vm
的起始地址到proc->buffer
。get_vm_area()
是__get_vm_area_node()
函数的调用包装:- 通过
kmalloc_node()
申请vm_struct
结构体的所需内存; - 通过
alloc_vmap_area()
在vmalloc区域中寻找合适的区域,获取返回的vmap_area
结构体; - 通过
setup_vmalloc_vm()
将vmap_area
的数据同步到vm_struct
中; - 最后返回
vm_struct
。
get_vm_area()
与vmalloc()
的区别:
vmalloc()
在调用__get_vm_area_node()
获取vm_struct
之后,还通过__vmalloc_area_node()
进行了物理页映射。 - 通过
-
初始化pages数组
通过
kzalloc()
申请pages数组所需的内存。 -
构建首个binder_buffer
在
proc->buffer
(即vm
的起始地址)创建首个binder_buffer
,并添加到空闲队列binder->free_buffers
中。
这使得当前进程binder通信的可用负载容量等于这个binder_buffer
的负载容量。在创建
binder_buffer
之前,因为proc->buffer
并没有映射到物理页,需要先进行映射。映射过程封装在binder_update_page_range()
函数,此处通过该函数申请了大小为PAGE_SIZE
的物理页映射。
static int binder_mmap(
struct file *filp, // 进程打开binder驱动时分配的file结构体
struct vm_area_struct *vma // mmap过程中分配的用户虚拟空间
) {
struct vm_struct *area;
struct binder_proc *proc = filp->private_data;
struct binder_buffer *buffer;
/*
* 限制vma大小,最大4M
*/
if ((vma->vm_end - vma->vm_start) > SZ_4M)
vma->vm_end = vma->vm_start + SZ_4M;
/*
* 通过get_vm_area()获取vm
*/
area = get_vm_area(vma->vm_end - vma->vm_start, VM_IOREMAP);
/*
* proc->buffer 指向vm的开始地址
*/
proc->buffer = area->addr;
/*
* proc->user_buffer_offset 记录 vma/vm 起始地址的差值
* 通过差值,可以快速计算 vma/vm 中对应的虚拟内存
*/
proc->user_buffer_offset = vma->vm_start - (uintptr_t)proc->buffer;
/*
* 通过kzalloc()申请pages数组所需内存
*/
proc->pages = kzalloc(sizeof(proc->pages[0]) * ((vma->vm_end - vma->vm_start) / PAGE_SIZE), GFP_KERNEL);
/*
* proc->buffer_size 记录vm的大小
*/
proc->buffer_size = vma->vm_end - vma->vm_start;
/*
* 覆盖vma的钩子函数,其中:
* .fault:不执行缺页处理,直接返回VM_FAULT_SIGBUS,进程在收到SIGBUS信号时会终止
* 这是因为binder驱动在发生虚拟内存的读写前,会先处理好相关的物理页映射,正常情况下不会产生缺页异常
*/
vma->vm_ops = &binder_vm_ops;
/*
* 为首个binder_buffer 所在的虚拟空间映射物理页
* page = pages[0]
*/
if (binder_update_page_range(proc, 1, proc->buffer, proc->buffer + PAGE_SIZE, vma)) {
goto err_alloc_small_buf_failed;
}
/*
* 初始化binder_buffer
*/
buffer = proc->buffer;
/*
* 初始化proc->buffers链表
* 将binder_buffer添加到proc->buffers链表
*/
INIT_LIST_HEAD(&proc->buffers);
list_add(&buffer->entry, &proc->buffers);
/*
* 将binder_buffer标记为空闲
* 将binder_buffer添加到free_buffers红黑树
*/
buffer->free = 1;
binder_insert_free_buffer(proc, buffer);
/*
* 更新异步消息的空闲负载容量,大小等于同步消息空闲负载容量的一半
*/
proc->free_async_space = proc->buffer_size / 2;
}
binder_update_page_range()
为指定的虚拟空间建立物理内存映射,或释放物理内存映射。
-
vma区间
传入参数是
vm
中的区间,函数中通过proc->user_buffer_offset
找到对应的vma
区间。 -
建立与释放映射
在指定虚拟空间区间执行步进为
PAGE_SIZE
的for循环,在循环中:- 如果是建立映射,则创建对应区间所在的
page
,并建立与vma/vm
的映射; - 如果是释放映射,则释放对应区间所在的
page
与vma/vm
的映射,并释销毁page
。
- 如果是建立映射,则创建对应区间所在的
static int binder_update_page_range(
struct binder_proc *proc, // binder_proc
int allocate, // 0: 释放映射 1: 建立映射
void *start, // vm区间起始地址
void *end, // vm区间结尾地址
struct vm_area_struct *vma // vma
) {
void *page_addr; // 临时变量,当前操作的vm起始地址
unsigned long user_page_addr; // 临时变量,当前操作的vma起始地址
struct vm_struct tmp_area;
struct page **page;
/*
* 省略源码:
* - 校验逻辑
* - vma获取和校验逻辑
*/
/*
* 执行释放逻辑,跳到free_range
*/
if (allocate == 0)
goto free_range;
/*
* for循环,创建对应区间所在的page,并建立映射
*/
for (page_addr = start; page_addr < end; page_addr += PAGE_SIZE) {
int ret;
/*
* 获取pages数组中对应位置的page结构体
*/
page = &proc->pages[(page_addr - proc->buffer) / PAGE_SIZE];
/*
* 通过alloc_page()申请物理页
*/
*page = alloc_page(GFP_KERNEL | __GFP_HIGHMEM | __GFP_ZERO);
/*
* 通过map_vm_area()建立内核虚拟空间和物理内存的映射
*
* 在映射区间的最后添加大小为PAGE_SIZE的保护页
*
* 当进程读写操作超出映射区域时,由于保护页没有绑定实际物理内存,
* 会抛出缺页异常 page fault,而binder驱动对缺页异常的处理是直接返回VM_FAULT_SIGBUS,
* 进程就会收到SIGBUS信号,默认处理是终止当前进程。
*/
tmp_area.addr = page_addr;
tmp_area.size = PAGE_SIZE + PAGE_SIZE /* guard page? */;
ret = map_vm_area(&tmp_area, PAGE_KERNEL, page);
/*
* 计算vma对应区间的起始地址
*/
user_page_addr = (uintptr_t)page_addr + proc->user_buffer_offset;
/*
* 通过vm_insert_page()建立用户虚拟空间和物理内存的映射
*/
ret = vm_insert_page(vma, user_page_addr, page[0]);
}
return 0;
free_range:
/*
* 释放逻辑
*/
for (page_addr = end - PAGE_SIZE; page_addr >= start; page_addr -= PAGE_SIZE) {
/*
* 获取pages数组中对应位置的page结构体
*/
page = &proc->pages[(page_addr - proc->buffer) / PAGE_SIZE];
/*
* 通过zap_page_range()解除vma区间的物理内存映射
*/
if (vma)
zap_page_range(vma, (uintptr_t)page_addr + proc->user_buffer_offset, PAGE_SIZE, NULL);
err_vm_insert_page_failed:
/*
* 通过unmap_kernel_range()解除vm区间的物理内存映射
*/
unmap_kernel_range((unsigned long)page_addr, PAGE_SIZE);
err_map_kernel_failed:
/*
* 销毁page
*/
__free_page(*page);
*page = NULL;
err_alloc_page_failed:
;
}
return -ENOMEM;
}
binder_insert_free_buffer()
将指定的binder_buffer
插入到binder_proc->free_buffers
红黑树,索引为buffer的负载容量,通过binder_buffer_size()
计算。
static void binder_insert_free_buffer(
struct binder_proc *proc, // binder_proc
struct binder_buffer *new_buffer // buffer
) {
/*
* 计算binder_buffer的负载大小
*/
size_t new_buffer_size;
new_buffer_size = binder_buffer_size(proc, new_buffer);
/*
* 省略源码:
* - 插入到红黑树合适的位置
*/
}
binder_buffer_size()
计算binder_buffer
的负载容量。
-
binder_buffer负载空间
binder_buffer
的负载空间指的是在proc->buffer
中,当前binder_buffer
到下一个binder_buffer
之间的空间。binder_buffer
本身没有记录负载空间的信息,通过结构体尾端的柔性数组uint8_t data[0]
充当负载空间的起始地址。 -
柔性数组
在一个结构体的最后,申明一个长度为0的数组,就可以使得这个结构体是可变长的。 对于编译器来说,此时长度为0的数组并不占用空间。 因为数组名本身不占空间,它只是一个偏移量, 数组名这个符号本身代表了一个不可修改的地址常量。 优点: 比起在结构体中声明一个指针变量、再进行动态分 配的办法,这种方法效率要高。 因为在访问数组内容时,不需要间接访问,避免了两次访存。 缺点: 在结构体中,数组为0的数组必须在最后声明,使用上有一定限制。
负载容量的大小不能通过binder_buffer
直接获取,需要通过计算获得。
static size_t binder_buffer_size(
struct binder_proc *proc, // binder_proc
struct binder_buffer *buffer // buffer
) {
/*
* binder->buffers的末尾项时:
* binder->buffer末尾地址 - binder_buffer->data
*/
if (list_is_last(&buffer->entry, &proc->buffers))
return proc->buffer + proc->buffer_size - (void *)buffer->data;
/*
* binder->buffers的非末尾项时:
* binder_buffer(next) - binder_buffer->data
*/
return (size_t)list_entry(buffer->entry.next, struct binder_buffer, entry) - (size_t)buffer->data;
}
其实可以将虚拟空间看成一个容器,binder_buffer
看成容器内分割空间的隔板,隔板与隔板之间就用于存放数据的负载空间了。
binder_alloc_buf()
binder_transaction()
跨进程传输数据的过程中,为传输的数据分配一个负载空间大小合适的binder_buffer
。
-
逻辑流程
函数的逻辑分为2个部分,查找合适的空闲
binder_buffer
和分割binder_buffer
。 -
查找负载空间合适大小的空闲binder_buffer
proc->free_buffers
红黑树中,查找负载空间满足存放传输数据、且最接近传输数据大小的空闲binder_buffer
。proc->free_buffers
红黑树在mmap("def/binder")
过程中添加了首个binder_buffer
。首次查找时,则会命中这个binder_buffer
。
static struct binder_buffer *binder_alloc_buf(
struct binder_proc *proc, // binder_proc
size_t data_size, // 传输的普通数据的大小
size_t offsets_size, // 传输的binder数据的大小
int is_async // 是否异步通信
) {
/*
* 定义临时变量
*/
struct rb_node *n = proc->free_buffers.rb_node;
struct binder_buffer *buffer;
size_t buffer_size;
struct rb_node *best_fit = NULL;
void *has_page_addr;
void *end_page_addr;
size_t size;
/*
* 计算传输数据的总大小
*
* 对数据进行字节对齐
* ALIGN:字节对齐(void指针:32-4bit,64-8bit)
*/
size = ALIGN(data_size, sizeof(void *)) + ALIGN(offsets_size, sizeof(void *));
/*
* 检查异步任务的空闲负载容量是否满足所需传输需求
* 传输数据所需容量 = binder_buffer结构体大小 + 传输数据大小
*
* binder驱动定义:
* 进程异步任务的空闲负载容量 = 当前总空闲负载容量 / 2
* 所以要做额外检测。
*
* 空闲容量满足要求,也不一定可以成功获取binder_buffer,
* 如果碎片化严重,可能会不存在大容量的binder_buffer。
*/
if (is_async && proc->free_async_space < size + sizeof(struct binder_buffer)) {
return NULL;
}
/*
* 遍历binder->free_buffers,获取合适的binder_buffer
*/
while (n) {
buffer = rb_entry(n, struct binder_buffer, rb_node);
buffer_size = binder_buffer_size(proc, buffer);
/*
* [负载容量 > 传输数据]:记录下来,继续遍历容量更小的子树
*/
if (size < buffer_size) {
best_fit = n;
n = n->rb_left;
}
/*
* [负载容量 < 传输数据]:继续遍历容量更大的子树
*/
else if (size > buffer_size) {
n = n->rb_right;
}
/*
* [负载容量 == 传输数据]:完全贴合可以直接使用,退出循环
*/
else {
best_fit = n;
break;
}
}
/*
* 没有合适的binder_buffer
* 正常情况可能是因为数据过大,也可能是因为碎片化
*/
if (best_fit == NULL) {
return NULL;
}
/*
* binder_buffer、binder_size 重新定位best_fit对应的项
*
* n == null,表示循环不是通过break结束的,而是遍历至n == null结束的,
* 此时 binder_buffer、binder_size 都是循环中的临时项,所以需要重新定位到best_fit对应的项
*/
if (n == NULL) {
buffer = rb_entry(best_fit, struct binder_buffer, rb_node);
buffer_size = binder_buffer_size(proc, buffer);
}
/*
* -----------------------
* 已找到合适的binder_buffer
* -----------------------
*/
...
-
分割binder_buffer
尝试对查找到的
binder_buffer
进行分割,减少内存消耗。查找算法找出的
binder_buffer
负载空间一般情况下会比传输数据的体积要大。例如首次查找时,找到的首个binder_buffer
负载空间几乎等于mmap的内存大小(需要减去binder_buffer
的体积)。分割过程如上诉的比喻一样,往容器中插入隔板。
在原来的binder_buffer
的负载空间中满足传输要求大小的位置后面,插入一个新的binder_buffer
。最后,还需要为分割出来的
binder_buffer
负载空间与新加入的binder_buffer
分配物理内存。
...
/*
* -----------------------
* 已找到合适的binder_buffer
* -----------------------
*/
/*
* 负载空间 需要建立映射的最后一个物理页的下边界
*
* 通过负载空间的末尾地址,计算出负载空间末尾所在物理页的起始虚拟地址
* 在此地址前的虚拟空间,需要在本次处理中进行物理页映射
*
* 负载空间的末尾地址有2种情况:
* 1. 下一个binder_buffer的起点
* 意味虚拟空间的末尾地址已映射物理页,
* 所以通过[&PAGE_MASK],将内存地址在物理页中的页内偏移部分设置位0,消除页内偏移,
* 以定位到所在物理页的上边界
*
* 2. vma末尾地址:
* vma末尾地址应该是物理页对齐的,此时内存地址等于最后的物理页下边界
* 假如不是对齐,由于binder->pages申请内存的逻辑,放不下最后的没对齐page结构体,
* 运行到物理页映射的阶段会导致pages数组越界
*
* 此时 buffer_size = [binder_buffer负载容量]
*/
has_page_addr = (void *)(((uintptr_t)buffer->data + buffer_size) & PAGE_MASK);
...
...
/*
* 计算所需映射物理内存的大小,保存到buffer_size
*
* n == null 的情况,表示binder_buffer [负载容量 > 传输数据],尝试分割
*
* 负载空间需要满足填充传输数据后,还可以存放新的binder_buffer结构体,
* 如果分割后剩余空间不满足存放新的binder_buffer结构体,那么放弃分割
*/
if (n == NULL) {
/*
* 是否能放得下新的binder_buffer结构体
*
* +4用于新的binder_buffer负载检测,
* 如果新的binder_buffer结构体负载空间比4还小,那么也没有分割的必要
*
* 不太清楚4bit的空间能干什么...
*/
if (size + sizeof(struct binder_buffer) + 4 >= buffer_size)
/*
* 放不下
* 需要分配的物理内存大小 = 数据大小
*/
buffer_size = size; /* no room for other buffers */
else
/*
* 放得下
* 需要分配的物理内存大小 = 数据大小 + buffer结构体大小
*/
buffer_size = size + sizeof(struct binder_buffer);
}
/*
* 实际所需内存 需要建立映射的最后一个物理页的下边界
*/
end_page_addr = (void *)PAGE_ALIGN((uintptr_t)buffer->data + buffer_size);
...
...
/*
* 防止越界,具体看图
*/
if (end_page_addr > has_page_addr)
end_page_addr = has_page_addr;
...
...
/*
* 通过binder_update_page_range()进行物理页映射
*
* 起始地址也进行PAGE对齐,得到binder_buffer所在物理页的下边界,
* 逻辑一样,binder_buffer所在的内存空间必然是已映射物理页的
*/
if (binder_update_page_range(proc, 1, (void *)PAGE_ALIGN((uintptr_t)buffer->data), end_page_addr, NULL))
return NULL;
/*
* -------------
* 已完成物理页映射
* -------------
*/
...
...
/*
* -------------
* 已完成物理页映射
* -------------
*/
/*
* 设置binder_buffer使用状态
*
* 移出binder_proc->free_buffers
* binder_buffer->free设置0(使用中)
* 加入binder_proc->allocated_buffers
*
* binder_insert_allocated_buffer()
* 只是简单的红黑树操作,排序也没有逻辑上的意义,此处忽略解析
*/
rb_erase(best_fit, &proc->free_buffers);
buffer->free = 0;
binder_insert_allocated_buffer(proc, buffer);
/*
* 如果buffer_size不等于size,说明需要分割,
* 需要创建新的binder_buffer
*
* 注意在binder->buffer中,
* 新的binder_buffer添加到被分割的binder_buffer之后,
* 保持链表的binder_buffer元素在逻辑内存上的顺序
*/
if (buffer_size != size) {
struct binder_buffer *new_buffer = (void *)buffer->data + size;
list_add(&new_buffer->entry, &buffer->entry);
new_buffer->free = 1;
binder_insert_free_buffer(proc, new_buffer);
}
/*
* 设置binder_buffer数据
*
* buffer->data_size 设置为传输普通数据的大小
* buffer->offsets_size 设置为传输binder数据的大小
* buffer->async_transaction 设置是否为异步消息
*/
buffer->data_size = data_size;
buffer->offsets_size = offsets_size;
buffer->async_transaction = is_async;
/*
* 如果是异步任务,还需要更新异步任务的空闲负载容量
*
* 减少大小 = binder_buffer结构体 + 传输数据的大小
*/
if (is_async) {
proc->free_async_space -= size + sizeof(struct binder_buffer);
}
return buffer;
}
binder_free_buf()
回收目标binder_buffer。
-
逻辑流程
函数的逻辑分为2个部分,解除负载空间内存映射和合并空闲的
binder_buffer
。 -
解除负载空间内存映射
释放
binder_buffer
负载空间已映射的物理页。 -
合并空闲的binder_buffer
分割的逆向过程,尝试合并两端的
binder_buffer
,以还原为负载空间较大的binder_buffer
。binder_buffer
是在逻辑内存上有序的,顺序就是binder_proc->buffers
链表的顺序,binder_buffer
的合并即是尝试合并链表中的前后项。
static void binder_free_buf(
struct binder_proc *proc, // binder_proc
struct binder_buffer *buffer // 需要释放的binder_buffer
) {
size_t size, buffer_size;
/*
* 获取负载容量
*/
buffer_size = binder_buffer_size(proc, buffer);
/*
* 获取传输数据大小
*
* 对数据进行字节对齐
*/
size = ALIGN(buffer->data_size, sizeof(void *)) + ALIGN(buffer->offsets_size, sizeof(void *));
/*
* 如果是异步任务,还需要更新异步任务的空闲负载容量
*
* 增加大小 = binder_buffer结构体 + 传输数据的大小
* binder_alloc_buf()的逆向过程
*/
if (buffer->async_transaction) {
proc->free_async_space += size + sizeof(struct binder_buffer);
}
/*
* 通过binder_update_page_range()释放物理页映射
*
* 释放负载空间的除 边界物理页 外的物理页映射
* - 起始地址: 负载空间映射的起始物理页的下边界
* - 结尾地址: 负载空间映射的末尾物理页的上边界
*
* 因为边界物理页必然被binder_buffer使用中,所以先处理确定可以释放的区间
* - 负载空间起始地址:不是物理页边界的情况下,所在物理页被当前binder_buffer占用
* - 负载空间结尾地址:不是物理页边界的情况下,所在物理页被下一个binder_buffer占用
*/
binder_update_page_range(proc, 0,
(void *)PAGE_ALIGN((uintptr_t)buffer->data),
(void *)(((uintptr_t)buffer->data + buffer_size) & PAGE_MASK),
NULL);
/*
* 设置buffer使用状态
*
* 移出binder_proc->allocated_buffers
* binder_buffer->free设置1(空闲)
*
* 暂时不加入binder_proc->free_buffers,合并过程可能会销毁这个binder_buffer
*/
rb_erase(&buffer->rb_node, &proc->allocated_buffers);
buffer->free = 1;
/*
* 尝试合并下一个binder_buffer
* 如果buffer是逻辑内存的最后一项,则跳过这个流程
*/
if (!list_is_last(&buffer->entry, &proc->buffers)) {
/*
* 找到下一个binder_buffer next
*/
struct binder_buffer *next = list_entry(buffer->entry.next, truct binder_buffer, entry);
/*
* 如果next是空闲的,则通过移除next进行合并
*/
if (next->free) {
/*
* 先把next移出proc->free_buffers,
* 然后通过binder_delete_free_buffer()销毁next
*/
rb_erase(&next->rb_node, &proc->free_buffers);
binder_delete_free_buffer(proc, next);
}
}
/*
* 尝试合并上一个binder_buffer
* 如果是buffer是逻辑内存的第一项,则跳过这个流程
*/
if (proc->buffers.next != &buffer->entry) {
/*
* 找到上一个binder_buffer prev
*/
struct binder_buffer *prev = list_entry(buffer->entry.prev, struct binder_buffer, entry);
/*
* 如果prev是空闲的,则通过移除buffer进行合并
*/
if (prev->free) {
/*
* 通过binder_delete_free_buffer()销毁buffer
*/
binder_delete_free_buffer(proc, buffer);
/*
* 合并后,prev的负载容量发生了改变,
* 所以要移出proc->free_buffers,后面重新插入
*/
rb_erase(&prev->rb_node, &proc->free_buffers);
buffer = prev;
}
}
/*
* 把合并后的buffer添加到binder_proc->free_buffers
*/
binder_insert_free_buffer(proc, buffer);
}
binder_delete_free_buffer()
销毁空闲的binder_buffer
,并判断是否需要解除所在物理页的映射。
/*
* 专用函数,获取传入binder_buffer的起始地址,所在的物理页的起始地址
*/
static void *buffer_start_page(struct binder_buffer *buffer) {
return (void *)((uintptr_t)buffer & PAGE_MASK);
}
/*
* 专用函数,获取传入binder_buffer的结束地址,所在的物理页的起始地址
*/
static void *buffer_end_page(struct binder_buffer *buffer) {
return (void *)(((uintptr_t)(buffer + 1) - 1) & PAGE_MASK);
}
static void binder_delete_free_buffer(
struct binder_proc *proc, // binder_proc
struct binder_buffer *buffer // 需要销毁的binder_buffer
) {
struct binder_buffer *prev, *next = NULL;
int free_page_end = 1; // 是否释放起始地址所在的物理页
int free_page_start = 1; // 是否释放结尾地址所在的物理页
/*
* 前向对比
* 获取前一个binder_buffer prev
*
* 这里不需要做是否是首个binder_buffer的校验,不可能出现这样的情况
*/
prev = list_entry(buffer->entry.prev, struct binder_buffer, entry);
/*
* prev末尾地址是否与buffer的起始地址在同一个物理页,是则不要释放该物理页
*/
if (buffer_end_page(prev) == buffer_start_page(buffer)) {
free_page_start = 0;
/*
* prev末尾地址是否与buffer的末尾地址在同一个物理页,是则不要释放该物理页
*/
if (buffer_end_page(prev) == buffer_end_page(buffer))
free_page_end = 0;
}
/*
* 校验是否末尾项,是则不进行后向对比
* 原理与前向对比一致
*/
if (!list_is_last(&buffer->entry, &proc->buffers)) {
next = list_entry(buffer->entry.next, struct binder_buffer, entry);
if (buffer_start_page(next) == buffer_end_page(buffer)) {
free_page_end = 0;
if (buffer_start_page(next) == buffer_start_page(buffer))
free_page_start = 0;
}
}
/*
* 将buffer从proc->buffers中移除
*/
list_del(&buffer->entry);
/*
* 如果需要释放物理页,则通过binder_update_page_range()处理
* 根据 free_page_start / free_page_end 进行了物理页的边界处理
*/
if (free_page_start || free_page_end) {
binder_update_page_range(proc, 0,
free_page_start ? buffer_start_page(buffer) : buffer_end_page(buffer),
(free_page_end ? buffer_end_page(buffer) : buffer_start_page(buffer)) + PAGE_SIZE,
NULL);
}
}