Binder 驱动是整个Binder框架的核心,这部分就会详细介绍
消息协议
、内存共享机制
、对象传递
的具体细节了
Binder应用层
的IPCThreadState
和Binder驱动
之间通过ioctl
来传递数据,因此,定义了一些ioctl命令
:
命令 | 说明 | 数据格式 |
---|---|---|
BIDNER_WRITE_READ |
向驱动读取和写入数据,既可以单独读写,也可以同时读写。通过传入的数据中有无读写数据来控制 | struct binder_write_read |
BINDER_SET_IDLE_TIMEOUT |
有定义未使用 | int64_t |
BINDER_SET_MAX_THREADS |
设置线程池的最大线程数,达到上限后驱动将不会通知应用层启动新线程 | size_t |
BINDER_SET_IDLE_PRIORITY |
有定义未使用 | int |
BINDER_SET_CONTEXT_MGR |
将本进程设置为Binder系统 的管理进程 ,只有ServiceManager 进程才会使用这个命令 |
int |
BINDER_THREAD_EXIT |
通知驱动当前线程要退出了,以便驱动清理和该线程相关的数据 | int |
BINDER_VERSION |
获取Binder 的版本号 |
struct binder_verison |
表中的命令中。最常用的命令是BIDNER_WRITE_READ
,其余都是一些辅助性命令。BIDNER_WRITE_READ
使用的数据格式定义如下:
struct binder_write_read {
binder_size_t write_size; //计划向驱动写入的字节长度
binder_size_t write_consumed; //实际写入驱动的长度,书中称驱动实际读取的字节长度
binder_uintptr_t write_buffer;//传递给驱动数据的buffer指针,也就是真正要写入的数据
binder_size_t read_size; //计划从驱动中读取的字节长度
binder_size_t read_consumed; //实际从驱动中读取到的字节长度
binder_uintptr_t read_buffer; //接收存放读取到的数据的指针
};
存放在read_buffer
和write_buffer
中的数据也是有格式的,格式是消息ID
加上binder_transaction_data
,binder_transaction_data
定义如下:
struct binder_transaction_data {
union {
__u32 handle;
binder_uintptr_t ptr;
} target; // BpBinder对象使用handle,BBinder使用ptr
binder_uintptr_t cookie; // 对于BBinder对象,这里是BBinder的指针
__u32 code; // Binder服务的函数号码
__u32 flags;
pid_t sender_pid; // 发送方的进程ID
uid_t sender_euid; // 发送方的euid
binder_size_t data_size; // 整个数据区的大小
binder_size_t offsets_size; // IPC对象区域的大小
union {
struct {
binder_uintptr_t buffer; // 指向数据区开头的指针
binder_uintptr_t offsets;// 指向数据区中IPC对对象区的指针
} ptr;
__u8 buf[8];
} data;
};
结构binder_transaction_data
中:
data.ptr
指向传递给驱动的数据区
的起始地址
传递给驱动的数据区
就是从应用层传递下来的Parcel对象
的数据区Parcel对象
中如果打包了IPC对象
(也就是Binder对象
),或者文件描述符
,数据区中会有一段空间专门用来保存这部分数据。
data.ptr.offsets
表示数据区IPC对象
的起始位置offsets_size
表示数据区IPC对象
的大小Binder消息
则根据发送
和接收
分为两套,从命名上也比较容易区分:
发送类型
的指的是消息从应用层
到驱动
的过程,通常以BC_
开头接收类型
的指的是消息从驱动
到应用层
的过程,通常以BR_
开头命令 | 说明 |
---|---|
BC_TRANSACTION |
发送Binder调用 的数据 |
BC_REPLY |
返回Binder调用 的返回值 |
BC_ACQUIRE_RESULT |
回应BR_ATTEMPT_ACQUIRE 命令 |
BC_FREE_BUFFER |
释放通过mmap 分配的内存块 |
BC_INCREFS |
增加Binder对象 的弱引用计数 |
BC_ACQUIRE |
增加Binder对象 的强引用计数 |
BC_DECREFS |
减少Binder对象 的弱引用计数 |
BC_RELEASE |
减少Binder对象 的强引用计数 |
BC_INCREFS_DONE |
回应BC_INCREFS 指令 |
BC_ACQUIRE_DONE |
回应BC_ACQUIRE 指令 |
BC_ATTEMPT_ACQUIRE |
将Binder对象的弱引用升级为强引用 |
BC_REGISTER_LOOPER |
把当前线程注册为线程池的主线程 |
BC_ENTER_LOOPER |
通知驱动,线程可以进入数据的发送和接收 |
BC_EXIT_LOOPER |
通知驱动,当前线程退出数据的发送和接收 |
BC_REQUEST_DEATH_NOTYFICATION |
通知驱动接收某个Binder服务 的死亡通知 |
BC_CLEAR_DEATH_NOTYFICATION |
通知驱动不再接收某个Binder服务 的死亡通知 |
BC_DEAD_BINDER_DONE |
回应BR_DEAD_BINDER 命令 |
命令 | 说明 |
---|---|
BR_ERROR |
驱动内部出错了 |
BR_OK |
命令成功 |
BR_TRANSACTION |
Binder调用命令 |
BR_REPLY |
返回Binder调用的结果 |
BR_ACQUIRE_RESULT |
未使用 |
BR_DEAD_REPLY |
向驱动发送Binder调用 时,如果对方已经死亡,则驱动回应此命令 |
BR_TRANSACTION_COMPLETE |
回应BR_TRANSACTION 命令 |
BR_INCREFS |
要求增加Binder对象 的弱引用计数 |
BR_ACQUIRE |
要求增加Binder对象 的强引用计数 |
BR_DECREFS |
要求减少Binder对象 的弱引用计数 |
BR_RELEASE |
要求减少Binder对象 的强引用计数 |
BR_ATTEMPT_ACQUIRE |
要求将Binder对象 的弱引用变成强引用 |
BR_NOOP |
命令成功 |
BR_SPAWN_LOOPER |
通知创建Binder线程 |
BR_FINISHED |
未使用 |
BR_DEAD_BINDER |
通知关注的Binder 已经死亡 |
BR_CLEAR_DEATH_NOTYFICATION_DONE |
回应BC_CLEAR_DEATH_NOTYFICATION |
BR_FAILED_REPLY |
如果Binder调用 的函数号 不正确,回复本消息 |
前面列出的两个命令列表看上去指令蛮多的,其实可以分为四类:
Binder线程
管理相关Binder方法调用
相关Binder对象引用计数管理
相关Binder对象死亡通知
相关看下面两个序列图:
Binder调用
的消息序列图:
Binder对象引用计数管理
的消息序列图:
Binder驱动
分析Binder驱动
中定义的操作函数如下:
static const struct file_operations binder_fops = {
.owner = THIS_MODULE,
.poll = binder_poll,
.unlocked_ioctl = binder_ioctl,
.compat_ioctl = binder_ioctl,
.mmap = binder_mmap,
.open = binder_open,
.flush = binder_flush,
.release = binder_release,
};
Binder驱动
中并没有实现常用的read
、write
操作。数据的传输都是通过ioctl
操作来完成的。
Binder驱动
中定义了很多的数据结构,一些主要的数据结构如下:
数据结构 | 说明 |
---|---|
binder_proc |
每个使用open 打开Binder设备文件 的进程都会在驱动中创建一个biner_proc的 结构,用来记录该进程的各种信息和状态。例如:Binder节点表 、节点引用表 等 |
binder_thread |
每个Binder线程 在Binder驱动 中都有一个binder_thread 结构,记录线程相关的信息,例如要完成的任务等 |
binder_node |
binder_proc 中有一张Binder节点对象表 ,表项是binder_node 结构。代表进程中的BBinder对象,记录BBinder对象的指针、引用计数等数据 |
binder_ref |
binder_proc 中还有一张节点引用表 ,表项是binder_ref 结构。代表进程中的BpBinder对象 ,保存所引用的对象binder_node 指针。BpBinder 中的mHandler 值,就是它在索引表中的位置 |
binder_buffer |
驱动通过mmap 的方式创建了一块大的缓存区,每次Binder 传输数据,会在缓存区分配一个binder_buffer 的结构来保存数据 |
在Binder驱动中,大量使用红黑树
来管理数据。Binder驱动
中是由内核提供的实现,具体表现是生命的一个全局变量binder_procs
:
static HLIST_HEAD(binder_procs);
所有进程的binder_proc结构体都将插入到这个变量代表的红黑树中。以binder_open的代码为例:
static int binder_open(struct inode *nodp, struct file *filp)
{
struct binder_proc *proc;
struct binder_device *binder_dev;
binder_debug(BINDER_DEBUG_OPEN_CLOSE, "%s: %d:%d\n", __func__,
current->group_leader->pid, current->pid);
proc = kzalloc(sizeof(*proc), GFP_KERNEL);//分配空间给binder_proc结构体
//......
get_task_struct(current->group_leader);// 获取当前进程的task结构
proc->tsk = current->group_leader;
//......
INIT_LIST_HEAD(&proc->todo);// 初始化binder_porc中的todo队列
//......
filp->private_data = proc;// 将proc保存到文件结构中,供下次调用使用
mutex_lock(&binder_procs_lock);
// 将proc插入到全局变量binder_procs中
hlist_add_head(&proc->proc_node, &binder_procs);
mutex_unlock(&binder_procs_lock);
//......
return 0;
}
binder_open
函数主要功能是:
Binder
驱动的设备文件binder_proc
结构体proc
binder_procs
中private_data
字段中file
结构中取出代表当前进程的binder_proc
前面介绍了,用户进程打开Binder
设备后,会调用mmap
在驱动中创建一块内存空间用于接收传递给本进程的Binder
数据。我们看下mmap
的代码(这部分是9.0的源码,和书中的结构有些不同):
static int binder_mmap(struct file *filp, struct vm_area_struct *vma)
{
int ret;
struct binder_proc *proc = filp->private_data;
const char *failure_string;
if (proc->tsk != current->group_leader)
return -EINVAL;
// 检查要求分配的空间是否大于SZ_4M的定义
if ((vma->vm_end - vma->vm_start) > SZ_4M)
vma->vm_end = vma->vm_start + SZ_4M;
// 检查mmap的标记,不能带有FORBIDDEN_MMAP_FLAGS
if (vma->vm_flags & FORBIDDEN_MMAP_FLAGS) {
ret = -EPERM;
failure_string = "bad vm_flags";
goto err_bad_arg;
}
//fork 的子进程无法复制映射空间,并且不允许修改属性
vma->vm_flags |= VM_DONTCOPY | VM_MIXEDMAP;
vma->vm_flags &= ~VM_MAYWRITE;
vma->vm_ops = &binder_vm_ops;
vma->vm_private_data = proc;
// 真正内存分配的逻辑在 binder_alloc_mmap_handler中
ret = binder_alloc_mmap_handler(&proc->alloc, vma);
//......
}
int binder_alloc_mmap_handler(struct binder_alloc *alloc,
struct vm_area_struct *vma)
{
int ret;
struct vm_struct *area;
const char *failure_string;
struct binder_buffer *buffer;
mutex_lock(&binder_alloc_mmap_lock);
//如果已分配缓存区,goto 错误
if (alloc->buffer) {
ret = -EBUSY;
failure_string = "already mapped";
goto err_already_mapped;
}
//在用户进程分配一块内存作为缓冲区
area = get_vm_area(vma->vm_end - vma->vm_start, VM_ALLOC);
//如果内存分配失败,goto 对应错误
if (area == NULL) {
ret = -ENOMEM;
failure_string = "get_vm_area";
goto err_get_vm_area_failed;
}
//把分配的缓冲区指针放在binder_proc的buffer字段
alloc->buffer = area->addr;
//重新配置下内存起始地址和偏移量
alloc->user_buffer_offset =
vma->vm_start - (uintptr_t)alloc->buffer;
mutex_unlock(&binder_alloc_mmap_lock);
//创建物理页结构体
alloc->pages = kzalloc(sizeof(alloc->pages[0]) *
((vma->vm_end - vma->vm_start) / PAGE_SIZE),
GFP_KERNEL);
alloc->buffer_size = vma->vm_end - vma->vm_start;
//在内核分配struct buffer的内存空间
buffer = kzalloc(sizeof(*buffer), GFP_KERNEL);
//这部分和书中着实不太一样,看的晕晕的
//目前只看出内存地址关联部分
buffer->data = alloc->buffer;
list_add(&buffer->entry, &alloc->buffers);
buffer->free = 1;
binder_insert_free_buffer(alloc, buffer);
// 异步传输将可用空间大小设置为映射大小的一半
alloc->free_async_space = alloc->buffer_size / 2;
barrier();
alloc->vma = vma;
alloc->vma_vm_mm = vma->vm_mm;
/* Same as mmgrab() in later kernel versions */
atomic_inc(&alloc->vma_vm_mm->mm_count);
return 0;
// ......对应的错误信息
}
内存分配时:
当发生Binder调用时:
ioctl
在驱动中的实现是binder_ioctl
函数,用来处理ioctl
操作的命令,这些命令最常见的就是BINDER_WRITE_READ
,用于Binder
调用,先看下这个命令的处理过程:
static long binder_ioctl(struct file *filp, unsigned int cmd, unsigned long arg)
{
int ret;
struct binder_proc *proc = filp->private_data;
struct binder_thread *thread;
unsigned int size = _IOC_SIZE(cmd);
void __user *ubuf = (void __user *)arg;
// 检查binder_stop_on_user_error的值是否小于2,这个值表示Binder中的错误数
// 大于2则挂起当前进程到binder_user_error_wait的等待队列上
ret = wait_event_interruptible(binder_user_error_wait, binder_stop_on_user_error < 2);
if (ret)
goto err_unlocked;
// 获取当前线程的数据结构
thread = binder_get_thread(proc);
if (thread == NULL) {
ret = -ENOMEM;
goto err;
}
switch (cmd) {
case BINDER_WRITE_READ:
//调用 binder_ioctl_write_read 方法
ret = binder_ioctl_write_read(filp, cmd, arg, thread);
break;
}
static int binder_ioctl_write_read(struct file *filp,
unsigned int cmd, unsigned long arg,
struct binder_thread *thread)
{
int ret = 0;
struct binder_proc *proc = filp->private_data;
unsigned int size = _IOC_SIZE(cmd);
void __user *ubuf = (void __user *)arg;
struct binder_write_read bwr;
if (size != sizeof(struct binder_write_read)) {
ret = -EINVAL;
goto out;
}
// 这里应该就是就是一次拷贝,把数据复制到内核中
if (copy_from_user(&bwr, ubuf, sizeof(bwr))) {
ret = -EFAULT;
goto out;
}
if (bwr.write_size > 0) {
// 如果命令时传递给驱动的数据,调用 binder_thread_write 处理
ret = binder_thread_write(proc, thread,
bwr.write_buffer,
bwr.write_size,
&bwr.write_consumed);
//省略异常处理和log打印
}
if (bwr.read_size > 0) {
// 如果命令时读取驱动的数据,调用 binder_thread_read 处理
ret = binder_thread_read(proc, thread, bwr.read_buffer,
bwr.read_size,
&bwr.read_consumed,
filp->f_flags & O_NONBLOCK);
trace_binder_read_done(ret);
binder_inner_proc_lock(proc);
// 如果进程的todo队列不为空,唤醒用户进程处理
if (!binder_worklist_empty_ilocked(&proc->todo))
binder_wakeup_proc_ilocked(proc);
binder_inner_proc_unlock(proc);
//省略异常处理和log打印
}
// 异常处理
}
BINDER_WRITE_READ
命令有可能是向驱动写数据,也可能是从驱动读数据
binder_thread_write
方法binder_thread_read
方法除了BINDER_WRITE_READ
命令外,还有像BINDER_SET_MAX_THREADS、BINDER_SET_CONTEXT_MGR
等辅助通信的命令,大家可以阅读下源码。
学习的重点还是看调用过程
的数据读写部分
Binder
调用是Binder
驱动中最核心的活动,整个过程几乎涉及了Binder
驱动所有的数据结构。我们先从调用的整体流程上来看下:
Binder
调用从客户进程中发起
ioctl
操作来运行驱动的binder_ioctl
驱动接收到命令BC_TRANSACTION
后
---------到这里,本次ioctl调用结束---------
客户进程
收到回复消息后
服务进程
无法知道何时会有Binder调用
到达,因此它至少由一个线程在ioctl
上等待。
驱动
会在有调用到达时唤醒等待的线程,并将数据传给服务进程
Binder
调用到达
驱动
为每个调用创建一个binder_transaction
的结构体结构体
中的work
字段插入到服务进程的todo队列
中
todo队列
是一个binder_work
结构的列表todo队列
来接收需要完成的工作服务端
的用户进程
对ioctl
执行读操作时
todo队列
中需要完成的任务上面刚刚讲到,客户进程
发送的Binder
调用消息会执行到函数binder_thread_write
,这个函数的功能就是处理所有用户进程
发送的消息,我们看下和Binder
调用有关的部分:
static int binder_thread_write(struct binder_proc *proc,
struct binder_thread *thread,
binder_uintptr_t binder_buffer, size_t size,
binder_size_t *consumed)
{
//......
case BC_TRANSACTION:
case BC_REPLY: {
struct binder_transaction_data tr;
// 包结构体tr的数据复制到内核
if (copy_from_user(&tr, ptr, sizeof(tr)))
return -EFAULT;
ptr += sizeof(tr);
// 调用 binder_transaction 函数处理
binder_transaction(proc, thread, &tr,
cmd == BC_REPLY, 0);
break;
}
//......
}
对BC_TRANSACTION
命令的处理就是调用了binder_transaction
函数,binder_transaction
函数既要处理BC_TRANSACTION
也会处理BC_REPLY
消息,我们先看读取的情况,也就是reply=false
的情况:
if (tr->target.handle) {
struct binder_ref *ref;
//查找handle对应的引用项
ref = binder_get_ref_olocked(proc, tr->target.handle,
true);
if (ref) {
//引用项的node字段保存了Binder对象节点的指针
//复制给target_node
target_node = binder_get_node_refs_for_txn(
ref->node, &target_proc,
&return_error);
} else {
//......
}
//......
} else {
//把管理进程的节点名放到target_node中
target_node = context->binder_context_mgr_node;
//......
}
if (!(tr->flags & TF_ONE_WAY) && thread->transaction_stack) {
struct binder_transaction *tmp;
tmp = thread->transaction_stack;
//......
while (tmp) {
struct binder_thread *from;
spin_lock(&tmp->lock);
from = tmp->from;
if (from && from->proc == target_proc) {
atomic_inc(&from->tmp_ref);
target_thread = from;
spin_unlock(&tmp->lock);
break;
}
spin_unlock(&tmp->lock);
tmp = tmp->from_parent;
}
}
上面这段代码的逻辑是:
transaction_stack
不为NULL
,则在其中查找和本次调用具有相同目标进程的transaction_stack
,如果找到,则把它的目标线程设置为本次调用的目标线程。transaction_stack
是一个列表,保存了本线程所有正在执行的Binder调用的binder_transaction
结构体。Binder
驱动中用binder_transaction
来保存一次Binder调用
的所有数据,包括传递的数据、通信双发的进程、线程信息等。因为Binder调用涉及两个进程,还要向调用端传递返回值。binder_transaction
保存还没结束的Binder调用
。Binder调用
时不会存在相同进程的Binder调用
,因此target_thread
的值大多为NULL
todo队列
,否则使用目标进程的todo队列
if (target_thread)
e->to_thread = target_thread->pid;
e->to_proc = target_proc->pid;
4.为当前的Binder调用
创建binder_transaction
结构,并用调用的数据填充它。
t = kzalloc(sizeof(*t), GFP_KERNEL);
//......
tcomplete = kzalloc(sizeof(*tcomplete), GFP_KERNEL);
//......
if (!reply && !(tr->flags & TF_ONE_WAY))
t->from = thread;
else
t->from = NULL;
t->sender_euid = task_euid(proc->tsk);
t->to_proc = target_proc;
t->to_thread = target_thread;
t->code = tr->code;
t->flags = tr->flags;
if (!(t->flags & TF_ONE_WAY) &&
binder_supported_policy(current->policy)) {
/* Inherit supported policies for synchronous transactions */
t->priority.sched_policy = current->policy;
t->priority.prio = current->normal_prio;
} else {
/* Otherwise, fall back to the default priority */
t->priority = target_proc->default_priority;
}
5.在目标进程
(也就是服务端
)的缓冲区分配空间,复制用户进程
的数据到内核
t->buffer = binder_alloc_new_buf(&target_proc->alloc, tr->data_size,
tr->offsets_size, extra_buffers_size,
!reply && (t->flags & TF_ONE_WAY));
//......
if (copy_from_user(t->buffer->data, (const void __user *)(uintptr_t)
tr->data.ptr.buffer, tr->data_size)) {
//......
}
if (copy_from_user(offp, (const void __user *)(uintptr_t)
tr->data.ptr.offsets, tr->offsets_size)) {
//......
}
Binder调用
的参数数据,也是需要传递给服务进程
的数据,因此需要缓冲区。这个缓冲区是在目标进程
的大的缓冲区中分配的Binder对象
off_end = (void *)off_start + tr->offsets_size;
sg_bufp = (u8 *)(PTR_ALIGN(off_end, sizeof(void *)));
sg_buf_end = sg_bufp + extra_buffers_size;
off_min = 0;
for (; offp < off_end; offp++) {
//......
}
Binder对象
需要进行转换
,这里的for循环
就是进行转换操作,内容较多,会在下面处理传递的Binder对象
章节进行讲解binder_transaction
结构体链接到线程的binder_stack
列表中if (!(t->flags & TF_ONE_WAY)) {
//......
t->need_reply = 1;
t->from_parent = thread->transaction_stack;
thread->transaction_stack = t;
// 书中下面注释部分的代码已经整合到 binder_proc_transaction 函数中了
// 首先,将结构 binder_transaction中的binder_work放到目标目标进程或线程的todo队列
// 然后,创建一个新的binder_work的结构体,并将它放到发送线程的todo队列
if (!binder_proc_transaction(t, target_proc, target_thread)) {
//...... 失败处理
}
}
binder_transaction
结构中包含了一个binder_work
的结构体,因此它可以被放到todo队列
中binder_work
的type
被设置为BINDER_WORK_TRANSACTION
后,插入了目标进程
或目标线程
的todo队列
中binder_work
的结构体,并把它的type
设置成了BINDER_WORK_TRANSAXTION_COMPLETET
,并将它插入到当前线程的todo队列
中前面介绍过,在binder_thread_write
函数执行完后,还会去判断是否需要执行binder_thread_read
函数:
BC_TRANSACTION
后,会立刻执行ioctl的读指令binder_thread_read
函数算是紧接着binder_thread_write
函数后执行的刚才新建的binder_work
的结构体已经插入todo队列
了,我们看下binder_thread_read
函数会进行哪些和todo队列
相关的操作:
while (1) {
//......
// 获得todo队列,获取失败则goto retry
if (!binder_worklist_empty_ilocked(&thread->todo))
list = &thread->todo;
else if (!binder_worklist_empty_ilocked(&proc->todo) &&
wait_for_proc_work)
list = &proc->todo;
else {
binder_inner_proc_unlock(proc);
/* no data added */
if (ptr - buffer == 4 && !thread->looper_need_return)
goto retry;
break;
}
//取出todo队列中的元素
w = binder_dequeue_work_head_ilocked(list);
//......
switch (w->type) {
//......省略大量case语句
case BINDER_WORK_TRANSACTION_COMPLETE: {
binder_inner_proc_unlock(proc);
cmd = BR_TRANSACTION_COMPLETE;
//把返回消息通过put_user放到用户空间的指针中
if (put_user(cmd, (uint32_t __user *)ptr))
return -EFAULT;
ptr += sizeof(uint32_t);
binder_stat_br(proc, thread, cmd);
kfree(w);
binder_stats_deleted(BINDER_STAT_TRANSACTION_COMPLETE);
} break;
//......省略大量case语句
}
//......
}
binder_thread_read
函数所做的处理就是把回复消息BR_TRANSACTION_COMPLETE
复制到用户空间
这样客户进程就可以收到回复消息了
到这里,客户进程
的调用结束了。但是,Binder调用才完成一半,接下来,看看服务进程是如何调用数据的。
服务进程
的调用流程
服务进程
至少有一个线程会在ioctl上等待调用的到来。服务进
程调用ioctl时传递的是读数据的请求,所以最后调用的也是binder_thread_read
函数,我们看下binder_thread_read
函数完整的处理流程:
BR_NOOP
消息: if (*consumed == 0) {
if (put_user(BR_NOOP, (uint32_t __user *)ptr))
return -EFAULT;
ptr += sizeof(uint32_t);
}
todo队列
中的工作while (1) {
//......
}
todo队列
中需要完成的工作 struct binder_work *w = NULL;
//......
if (!binder_worklist_empty_ilocked(&thread->todo))
list = &thread->todo;
else if (!binder_worklist_empty_ilocked(&proc->todo) &&
wait_for_proc_work)
list = &proc->todo;
//......
w = binder_dequeue_work_head_ilocked(list);
switch
语句处理所有类型的工作 switch (w->type) {
case BINDER_WORK_TRANSACTION: {
binder_inner_proc_unlock(proc);
t = container_of(w, struct binder_transaction, work);
} break;
}
客户进程的调用流程
后,此时的服务进程
中已经存在一个类型为BINDER_WORK_TRANSACTION
的工作需要处理binder_work
关联的binder_transaction
结构体指针t
中 if (!t)
continue;
if (t->buffer->target_node) {
struct binder_node *target_node = t->buffer->target_node;
struct binder_priority node_prio;
tr.target.ptr = target_node->ptr;
tr.cookie = target_node->cookie;
node_prio.sched_policy = target_node->sched_policy;
node_prio.prio = target_node->min_priority;
binder_transaction_priority(current, t, node_prio,
target_node->inherit_rt);
cmd = BR_TRANSACTION;
}
Binder调用
的参数数据,也是需要传递给服务进程
的数据,因此需要缓冲区。这个缓冲区是在目标进程
的大的缓冲区中分配的Binder对象
off_end = (void *)off_start + tr->offsets_size;
sg_bufp = (u8 *)(PTR_ALIGN(off_end, sizeof(void *)));
sg_buf_end = sg_bufp + extra_buffers_size;
off_min = 0;
for (; offp < off_end; offp++) {
//......
}
Binder对象
需要进行转换
,这里的for循环
就是进行转换操作,内容较多,会在下面处理传递的Binder对象
章节进行讲解binder_transaction
结构体链接到线程的binder_stack
列表中if (!(t->flags & TF_ONE_WAY)) {
//......
t->need_reply = 1;
t->from_parent = thread->transaction_stack;
thread->transaction_stack = t;
// 书中下面注释部分的代码已经整合到 binder_proc_transaction 函数中了
// 首先,将结构 binder_transaction中的binder_work放到目标目标进程或线程的todo队列
// 然后,创建一个新的binder_work的结构体,并将它放到发送线程的todo队列
if (!binder_proc_transaction(t, target_proc, target_thread)) {
//...... 失败处理
}
}
binder_transaction
结构中包含了一个binder_work
的结构体,因此它可以被放到todo队列
中binder_work
的type
被设置为BINDER_WORK_TRANSACTION
后,插入了目标进程
或目标线程
的todo队列
中客户进程
能收到回复消息,这里也会创建一个新的binder_work
的结构体,并把它的type
设置成了BINDER_WORK_TRANSAXTION_COMPLETET
,并将它插入到当前线程的todo队列
中前面介绍过,在binder_thread_write
函数执行完后,还会去判断是否需要执行binder_thread_read
函数:
BC_TRANSACTION
后,会立刻执行ioctl
的读
指令binder_thread_read
函数算是紧接着binder_thread_write
函数后执行的刚才新建的binder_work
的结构体已经插入todo队列
了,我们看下binder_thread_read
函数会进行哪些和todo队列
相关的操作:
while (1) {
//......
// 获得todo队列,获取失败则goto retry
if (!binder_worklist_empty_ilocked(&thread->todo))
list = &thread->todo;
else if (!binder_worklist_empty_ilocked(&proc->todo) &&
wait_for_proc_work)
list = &proc->todo;
else {
binder_inner_proc_unlock(proc);
/* no data added */
if (ptr - buffer == 4 && !thread->looper_need_return)
goto retry;
break;
}
//取出todo队列中的元素
w = binder_dequeue_work_head_ilocked(list);
//......
switch (w->type) {
//......省略大量case语句
case BINDER_WORK_TRANSACTION_COMPLETE: {
binder_inner_proc_unlock(proc);
cmd = BR_TRANSACTION_COMPLETE;
//把返回消息通过put_user放到用户空间的指针中
if (put_user(cmd, (uint32_t __user *)ptr))
return -EFAULT;
ptr += sizeof(uint32_t);
binder_stat_br(proc, thread, cmd);
kfree(w);
binder_stats_deleted(BINDER_STAT_TRANSACTION_COMPLETE);
} break;
//......省略大量case语句
}
//......
}
binder_thread_read
函数所做的处理就是把回复消息BR_TRANSACTION_COMPLETE
复制到用户空间客户进程
就可以收到回复消息了到这里,客户进程
的调用结束了。但是,Binder调用
才完成一半,接下来,看看服务进程
是如何调用数据的。
服务进程
的调用流程服务进程
至少有一个线程会在ioctl上等待调用的到来。服务进程
调用ioctl时传递的是读数据的请求,所以最后调用的也是binder_thread_read
函数,我们看下binder_thread_read
函数完整的处理流程:
BR_NOOP
消息: if (*consumed == 0) {
if (put_user(BR_NOOP, (uint32_t __user *)ptr))
return -EFAULT;
ptr += sizeof(uint32_t);
}
todo队列
中的工作while (1) {
//......
}
todo队列
中需要完成的工作
struct binder_work *w = NULL;
//......
if (!binder_worklist_empty_ilocked(&thread->todo))
list = &thread->todo;
else if (!binder_worklist_empty_ilocked(&proc->todo) &&
wait_for_proc_work)
list = &proc->todo;
//......
w = binder_dequeue_work_head_ilocked(list);
switch语句
处理所有类型的工作
switch (w->type) {
case BINDER_WORK_TRANSACTION: {
binder_inner_proc_unlock(proc);
t = container_of(w, struct binder_transaction, work);
} break;
}
客户进程的调用流程
后,此时的服务进程
中已经存在一个类型为BINDER_WORK_TRANSACTION
的工作需要处理binder_work
关联的binder_transaction
结构体指针t
中 if (!t)
continue;
if (t->buffer->target_node) {
struct binder_node *target_node = t->buffer->target_node;
struct binder_priority node_prio;
tr.target.ptr = target_node->ptr;
tr.cookie = target_node->cookie;
node_prio.sched_policy = target_node->sched_policy;
node_prio.prio = target_node->min_priority;
binder_transaction_priority(current, t, node_prio,
target_node->inherit_rt);
cmd = BR_TRANSACTION;
}
BR_TRANSACTION
调用线程
的优先级低于当前线程
指定的最低优先级
,则把当前线程
的优先级设为调用线程
的优先级当前线程
设为指定的最低优先级
Binder线程
会以尽量低的优先级运行 tr.code = t->code;
tr.flags = t->flags;
tr.sender_euid = from_kuid(current_user_ns(), t->sender_euid);
//......
// 让tr中的data指针指向内核中保存的数据缓冲区
tr.data_size = t->buffer->data_size;
tr.offsets_size = t->buffer->offsets_size;
tr.data.ptr.buffer = (binder_uintptr_t)
((uintptr_t)t->buffer->data +
binder_alloc_get_user_buffer_offset(&proc->alloc));
tr.data.ptr.offsets = tr.data.ptr.buffer +
ALIGN(t->buffer->data_size,
sizeof(void *));
// 把 BR_TRANSACTION 消息复制到用户空间
if (put_user(cmd, (uint32_t __user *)ptr)) {
//......
return -EFAULT;
}
ptr += sizeof(uint32_t);
if (copy_to_user(ptr, &tr, sizeof(tr))) {
//把结构体tr数据复制到用户空间
//......
return -EFAULT;
}
ptr += sizeof(tr);
//......
break;//跳出while循环
这一段代码都是为消息BR_TRANSACTION
准备返回数据,要注意的是:
copy_to_user
复制到用户空间
的只是结构体tr
的数据服务进程
得到这个结构体之后,会直接读取它里面的data指针
的数据break语句
跳出while循环
if (proc->requested_threads == 0 &&
list_empty(&thread->proc->waiting_threads) &&
proc->requested_threads_started < proc->max_threads &&
(thread->looper & (BINDER_LOOPER_STATE_REGISTERED |
BINDER_LOOPER_STATE_ENTERED)) /* the user-space code fails to */
/*spawn a new thread if we leave this out */) {
proc->requested_threads++;
//......
if (put_user(BR_SPAWN_LOOPER, (uint32_t __user *)buffer))
return -EFAULT;
}
当前线程要执行Binder调用
,新来的调用也需要线程来处理,因此:
buffer数据
中增加BR_SPAWN_LOOPER
消息,服务进程
收到这个消息会启动新的线程完整的Binder调用过程还需要把回复消息传递给客户进程,这个过程使用的函数还是前面的这些,暂时不分析了。消化一下先
前面介绍了Binder对象
传递的原理和用户层的实现。(原理上整个人还是晕晕的),我们来看下Binder驱动
如何实现Binder对象
的传递的。
Binder驱动
中,代表每个进程的结构binde_proc
中有两个字段:nodes
和refs_by_node
nodes
:指向的是Binder节点对象表
,储存本进程中Binder实体对象
相关的数据refs_by_node
:指向的是Binder引用对象表
,存储本进程的Binder引用对象
的数据以及对应的实体对象的节点指针
来个抽象点的图:
Binder驱动
中处理对象转换的代码位于函数binder_transaction
中
case BINDER_TYPE_BINDER:
case BINDER_TYPE_WEAK_BINDER: {
struct flat_binder_object *fp;
fp = to_flat_binder_object(hdr);
ret = binder_translate_binder(fp, t, thread);
} break;
static int binder_translate_binder(struct flat_binder_object *fp,
struct binder_transaction *t,
struct binder_thread *thread)
{
struct binder_node *node;
struct binder_proc *proc = thread->proc;
struct binder_proc *target_proc = t->to_proc;
struct binder_ref_data rdata;
int ret = 0;
//根据binder值查找Binder对象表中的节点
node = binder_get_node(proc, fp->binder);
if (!node) { //没有则新建一个节点
node = binder_new_node(proc, fp);
if (!node)
return -ENOMEM;
}
//......
if (security_binder_transfer_binder(proc->tsk, target_proc->tsk)) {
ret = -EPERM;
goto done;
}
// 在接收端进程中寻找节点的引用,找不到会创建一个新的引用
ret = binder_inc_ref_for_node(target_proc, node,
fp->hdr.type == BINDER_TYPE_BINDER,
&thread->todo, &rdata);
if (ret)
goto done;
// 将传递的binder数据结构的type的值改为 BINDER_TYPE_HANDLE
if (fp->hdr.type == BINDER_TYPE_BINDER)
fp->hdr.type = BINDER_TYPE_HANDLE;
else
fp->hdr.type = BINDER_TYPE_WEAK_HANDLE;
fp->binder = 0;
// rdata.desc存放的是节点引用表中的序号,赋值给handle
fp->handle = rdata.desc;
fp->cookie = 0;
//......
}
上面的流程是
binder_get_node
函数在发送进程的Binder对象节点表
中查找节点
binder字段
和节点中对应的字段进行的binder字段
中存放的是Binder对象
的弱引用指针binder字段
、cookie字段
的值保存到新节点binder_inc_ref_for_node
函数在目标进程查找Binder节点
的引用
。
引用
指的是节点引用表
中的refs_by_node
节点,包含指向Binder节点
的指针type
字段的值改为BINDER_TYPE_HANDLE
或BINDER_TYPE_WEAK_HANDLE
handle
字段的值设为在节点引用表
的序号,这也是Binder引用对象
中handle值
的来历下面再看看如何处理类型BINDER_TYPE_HANDLE
或BINDER_TYPE_WEAK_HANDLE
的
case BINDER_TYPE_HANDLE:
case BINDER_TYPE_WEAK_HANDLE: {
struct flat_binder_object *fp;
fp = to_flat_binder_object(hdr);
ret = binder_translate_handle(fp, t, thread);
} break;
static int binder_translate_handle(struct flat_binder_object *fp,
struct binder_transaction *t,
struct binder_thread *thread)
{
//......
// 通过handle值查找节点引用
node = binder_get_node_from_ref(proc, fp->handle,
fp->hdr.type == BINDER_TYPE_HANDLE, &src_rdata);
if (!node) {
//.....
return -EINVAL;
}
//......
if (node->proc == target_proc) {
// 如果目标进程就是Binder对象的进程,开始转换
if (fp->hdr.type == BINDER_TYPE_HANDLE)
fp->hdr.type = BINDER_TYPE_BINDER;
else
fp->hdr.type = BINDER_TYPE_WEAK_BINDER;
fp->binder = node->ptr;
fp->cookie = node->cookie;
if (node->proc)
binder_inner_proc_lock(node->proc);
binder_inc_node_nilocked(node,
fp->hdr.type == BINDER_TYPE_BINDER,
0, NULL);
//......
} else {
//......
// 如果不是,则在目标进程新建一个Binder节点的引用
ret = binder_inc_ref_for_node(target_proc, node,
fp->hdr.type == BINDER_TYPE_HANDLE,
NULL, &dest_rdata);
//......
fp->handle = dest_rdata.desc;
fp->cookie = 0;
trace_binder_transaction_ref_to_ref(t, node, &src_rdata,
//......
}
}
这部分代码的流程是:
handle字段
在发送进程的节点引用表
中查找
type字段
转为BINDER_TYPE_BINDER
或BINDER_TYPE_WEAK_BINDER
BINDER_WORK_TRANSACTIONbinder
和cookie
字段设置为节点中保存的值到这里呢,Binder原理部分就差不多了,已经了解了包括:
调用
、接收
消息的过程监听
、回复
消息的过传输数据
、调度线程
的操作现在,我们再来看最后的一小部分:ServiceManager
的作用
ServiceManager
的作用关于ServiceManager
,先简单描述:
ServiceManager
是Binder架构
中用来解析Binder名称
的模块ServiceManager
本身就是一个Binder服务
ServiceManager
并没有使用libbinder
来构建Binder服务
libbinder
那一套了。。。。。binder
理解还是很有帮助的ServiceManager
自己实现了一个简单的binder框架
来直接和驱动通信。。。ServiceManager
源码路径在:frameworks/native/cmds/servicemanager
,主要包含两个文件:
binder.c
:用来实现简单的Binder通信功能
binder协议
实现ioctl
操作与binder驱动
通信service_manager.c
:用来实现ServiceManager
的业务逻辑
ServiceManager
如何响应Binder服务
的注册和查询的这么重要的服务要在什么时间启动呢?
这部分是在 system/core/rootdir/init.rc
中配置
on post-fs
......
# start essential services
start logd
start servicemanager
start hwservicemanager
start vndservicemanager
hwservicemanager
用来支持HIDL
vndservicemanager
第三方厂商使用,应该是从Treble架构
中出现的
ServiceManager
的架构从ServiceManager
的main
函数开始:
int main(int argc, char** argv)
{
struct binder_state *bs;
union selinux_callback cb;
char *driver;
if (argc > 1) {
driver = argv[1];
} else {
driver = "/dev/binder";
}
bs = binder_open(driver, 128*1024);
if (!bs) {
//......
// 省略一些宏判断
return -1;
}
if (binder_become_context_manager(bs)) {
ALOGE("cannot become context manager (%s)\n", strerror(errno));
return -1;
}
// 设置selinux callback
cb.func_audit = audit_callback;
selinux_set_callback(SELINUX_CB_AUDIT, cb);
cb.func_log = selinux_log_callback;
selinux_set_callback(SELINUX_CB_LOG, cb);
//......
// 省略一些宏判断,都是为了获取sehandle(检查SELinux权限)
sehandle = selinux_android_service_context_handle();
selinux_status_open(true);
if (sehandle == NULL) {
ALOGE("SELinux: Failed to acquire sehandle. Aborting.\n");
abort();
}
if (getcon(&service_manager_context) != 0) {
ALOGE("SELinux: Failed to acquire service_manager context. Aborting.\n");
abort();
}
binder_loop(bs, svcmgr_handler);
return 0;
}
main
函数的流程如下:
binder_open
来打开binder设备
和初始化系统
128x1024
大小的内存空间binder_become_context_manager
把本进程设置为Binder框架
的管理进程
binder_become_context_manager
函数代码如下:
int binder_become_context_manager(struct binder_state *bs)
{
return ioctl(bs->fd, BINDER_SET_CONTEXT_MGR, 0);
}
函数灰常简单,直接通过ioctl
把控制命令BINDER_SET_CONTEXT_MGR
发到了驱动
binder_loop(bs, svcmgr_handler)
,简单处理后,循环等待消息我们要说一说binder_loop(bs, svcmgr_handler)
,小弟C语言
不熟,感觉这个操作很SAO
:
binder_loop
的函数定义是:void binder_loop(struct binder_state *bs, binder_handler func)
binder_handler
类型binder_handler
类型的定义:typedef int (*binder_handler)(struct binder_state *bs,
struct binder_transaction_data *txn,
struct binder_io *msg,
struct binder_io *reply);
函数指针类型
int
binder_loop(bs, svcmgr_handler)
中的svcmgr_handler
函数的声明int svcmgr_handler(struct binder_state *bs,
struct binder_transaction_data *txn,
struct binder_io *msg,
struct binder_io *reply)
{
//......
// 省略一些switch语句,稍后详解
return 0;
}
svcmgr_handler
函数指针binder_handler
指针类型参数
、返回值
与typedef
定义的函数指针
不一致的话,强转编译会失败参数理解的差不多了,我们仔细看下binder_loop
的实现,这两个参数传进去干了啥。
PS:简化版就是更容易理解些。。。。。。
void binder_loop(struct binder_state *bs, binder_handler func)
{
int res;
struct binder_write_read bwr;
uint32_t readbuf[32];
// 老样子,用来记录写入到驱动的一些相关参数
bwr.write_size = 0;
bwr.write_consumed = 0;
bwr.write_buffer = 0;
// 该属性应该是通知驱动已经准备好接收数据了
readbuf[0] = BC_ENTER_LOOPER;
binder_write(bs, readbuf, sizeof(uint32_t));
for (;;) {
//无限循环
bwr.read_size = sizeof(readbuf);
bwr.read_consumed = 0;
bwr.read_buffer = (uintptr_t) readbuf;
// 开始读取数据
res = ioctl(bs->fd, BINDER_WRITE_READ, &bwr);
if (res < 0) {
// 异常通信,退出循环
ALOGE("binder_loop: ioctl failed (%s)\n", strerror(errno));
break;
}
// 读取到数据后
// 调用 binder_parse 进行数据解析
// 顺便把 binder_handler 函数指针也传递进去
res = binder_parse(bs, 0, (uintptr_t) readbuf, bwr.read_consumed, func);
// 异常情况,退出循环
if (res == 0 || res < 0) {
//......
break;
}
}
}
binder_parse
函数binder_parse
函数int binder_parse(struct binder_state *bs, struct binder_io *bio,
uintptr_t ptr, size_t size, binder_handler func)
{
int r = 1;
uintptr_t end = ptr + (uintptr_t) size;
while (ptr < end) {
//取指令
uint32_t cmd = *(uint32_t *) ptr;
switch(cmd) {
//......
// 由于binder_handler 在这里会被执行到
// 所以我们先重点看这个,当Binder调用过来时
case BR_TRANSACTION: {
struct binder_transaction_data *txn = (struct binder_transaction_data *) ptr;
// 数据检查
if ((end - ptr) < sizeof(*txn)) {
ALOGE("parse: txn too small!\n");
return -1;
}
binder_dump_txn(txn);
// 如果函数指针存在
if (func) {
unsigned rdata[256/4];
struct binder_io msg;
struct binder_io reply;
int res;
// 一些初始化操作
bio_init(&reply, rdata, sizeof(rdata), 4);
bio_init_from_txn(&msg, txn);
//执行 binder_handler 函数指针指向的函数
res = func(bs, txn, &msg, &reply);
if (txn->flags & TF_ONE_WAY) {
// 这种情况不会返回结果
binder_free_buffer(bs, txn->data.ptr.buffer);
} else {
// 返回结果数据
binder_send_reply(bs, &reply, txn->data.ptr.buffer, res);
}
}
ptr += sizeof(*txn);
break;
}
//......
}
return r;
}
调用服务
的是binder_handler
这个函数指针啊远程调用
的处理逻辑在svcmgr_handler
这个函数呀
svcmgr_handler
函数int svcmgr_handler(struct binder_state *bs,
struct binder_transaction_data *txn,
struct binder_io *msg,
struct binder_io *reply)
{
//......
// 如果请求的目标服务不是ServiceManager,直接返回
if (txn->target.ptr != BINDER_SERVICE_MANAGER)
return -1;
// 如果请求消息内容只是简单的测试通路,不需要继续执行,直接返回 0
if (txn->code == PING_TRANSACTION)
return 0;
// 检查收到的消息 id 串
strict_policy = bio_get_uint32(msg);
s = bio_get_string16(msg, &len);
if (s == NULL) {
return -1;
}
//......
// 检查SELinux 的权限
if (sehandle && selinux_status_updated() > 0) {
struct selabel_handle *tmp_sehandle = selinux_android_service_context_handle();
if (tmp_sehandle) {
selabel_close(sehandle);
sehandle = tmp_sehandle;
}
}
switch(txn->code) {
case SVC_MGR_GET_SERVICE:
case SVC_MGR_CHECK_SERVICE:
// 处理查询或者获取服务的指令
//......
break;
case SVC_MGR_ADD_SERVICE:
// 处理注册服务的的指令
//......
break;
case SVC_MGR_LIST_SERVICES: {
//......
// 处理获取服务列表的指令
}
default:
ALOGE("unknown code %d\n", txn->code);
return -1;
}
//发送返回消息
bio_put_uint32(reply, 0);
return 0;
}
ServiceManager
的架构非常简单高效,只有一个循环来和binder驱动
进行通信ServiceManager
提供的服务从svcmgr_handler
函数中可以看到,ServiceManager
提供了三种服务功能:
Binder服务
Binder服务
Binder服务列表
Binder服务
在case SVC_MGR_ADD_SERVICE
中实现的注册Binder服务
功能,具体的实现函数是do_add_service
,代码如下:
int do_add_service(struct binder_state *bs, const uint16_t *s, size_t len, uint32_t handle,
uid_t uid, int allow_isolated, uint32_t dumpsys_priority, pid_t spid) {
struct svcinfo *si;
// 一些基础的信息判断
if (!handle || (len == 0) || (len > 127))
return -1;
// 检查调用进程是否有权限注册服务
if (!svc_can_register(s, len, spid, uid)) {
//......省略log打印
return -1;
}
// 查看要注册的服务是否已经存在
si = find_svc(s, len);
if (si) {
// 如果存在,先把以前的Binder对象的引用计数减一
if (si->handle) {
svcinfo_death(bs, si);
}
// 把原先节点中的handle替换成新的handle
si->handle = handle;
} else {
// 服务不存在,则生成新的列表项,初始化后加入列表
si = malloc(sizeof(*si) + (len + 1) * sizeof(uint16_t));
if (!si) {
// 内存申请失败,直接退出
return -1;
}
// 一些初始化操作
si->handle = handle;
si->len = len;
memcpy(si->name, s, (len + 1) * sizeof(uint16_t));
si->name[len] = '\0';
si->death.func = (void*) svcinfo_death;
si->death.ptr = si;
si->allow_isolated = allow_isolated;
si->dumpsys_priority = dumpsys_priority;
si->next = svclist;
svclist = si;
}
// 增加Binder服务的引用计数
binder_acquire(bs, handle);
// 注册该Binder服务的死亡通知
binder_link_to_death(bs, handle, &si->death);
return 0;
}
do_add_service
函数的流程是:
首先检查调用的进程是否有注册服务的权限
接着检查需要注册的服务是否已经存在
通知内核把Binder服务的引用计数加一
注册该服务的死亡通知
有木有发现对于服务已经存在的情况:
可以思考下
Binder服务
在case SVC_MGR_CHECK_SERVICE
中处理查询服务的功能,具体的实现接口是do_find_service
函数,代码如下:
uint32_t do_find_service(const uint16_t *s, size_t len, uid_t uid, pid_t spid)
{
struct svcinfo *si = find_svc(s, len);
if (!si || !si->handle) {
return 0;
}
if (!si->allow_isolated) {
// If this service doesn't allow access from isolated processes,
// then check the uid to see if it is isolated.
uid_t appid = uid % AID_USER;
if (appid >= AID_ISOLATED_START && appid <= AID_ISOLATED_END) {
return 0;
}
}
if (!svc_can_find(s, len, spid, uid)) {
return 0;
}
return si->handle;
}
do_find_service
函数的主要工作是搜索列表、返回查找到的服务。请注意有一段判断uid的代码:
ServiceManager
的addBinder
服务时有个参数allowed_isolated
,用来指定服务是否允许从沙箱中访问隔离进程
appid
在AID_ISOLATED_START(99000)
和AID_ISOLATED_END(99999)
之间allowed_isolated
来控制是否允许一般的用户进程来使用其服务终于、终于看完了。
书中后面其实还有ashmem 匿名共享内存
的内容(Android自己实现的,在mmap
基础上开发的,基于binder
通信的内存共享)
想了想暂时不作为binder
的笔记内容了,binder
涉及的内容已经很复杂了,不过看完之后也是收获颇丰哈。
在码云上查看更多的架构资料:https://gitee.com/androidmaniu/android-notes/blob/master/README.md