1. kernel Init
binder kernel位于如下路径:
binder.c kernel\msm-4.19\drivers\android
其初始化调用开始于:
device_initcall(binder_init);
关于device_initcall可以参考:https://www.cnblogs.com/chaozhu/p/6410271.html。
2. binder_init
从device_initcall性质可知内核启动的时候就会调用binder_init:
static int __init binder_init(void)
{
int ret;
char *device_name, *device_names, *device_tmp;
struct binder_device *device;
struct hlist_node *tmp;
ret = binder_alloc_shrinker_init();
if (ret)
return ret;
atomic_set(&binder_transaction_log.cur, ~0U);
atomic_set(&binder_transaction_log_failed.cur, ~0U);
//省略debug相关部分
/*
* Copy the module_parameter string, because we don't want to
* tokenize it in-place.
*/
//这里device_names=“binder,hwbinder,vndbinder”
device_names = kzalloc(strlen(binder_devices_param) + 1, GFP_KERNEL);
strcpy(device_names, binder_devices_param);
device_tmp = device_names;
while ((device_name = strsep(&device_tmp, ","))) {
ret = init_binder_device(device_name);//依次初始化各个binder设备,查看第3节
if (ret)
goto err_init_binder_device_failed;
}
return ret;
}
3. init_binder_device
以device_name="binder"为例:
static int __init init_binder_device(const char *name)
{
int ret;
struct binder_device *binder_device;
binder_device = kzalloc(sizeof(*binder_device), GFP_KERNEL);
if (!binder_device)
return -ENOMEM;
binder_device->miscdev.fops = &binder_fops;
binder_device->miscdev.minor = MISC_DYNAMIC_MINOR;
binder_device->miscdev.name = name;
//这里uid置为invalid,后续servicemanager设置上下文的时候才配置,名字就是/dev/binder
binder_device->context.binder_context_mgr_uid = INVALID_UID;
binder_device->context.name = name;
mutex_init(&binder_device->context.context_mgr_node_lock);
ret = misc_register(&binder_device->miscdev);//注册misc 设备
if (ret < 0) {
kfree(binder_device);
return ret;
}
hlist_add_head(&binder_device->hlist, &binder_devices);//把binder设备添加到hlist中
return ret;
}
3.1. 先介绍几个结构体
- binder_device 实际上binder也是被抽象为一种设备
struct binder_device {
struct hlist_node hlist; //一种列表
struct miscdevice miscdev; //linux标准设备之一,也就是说binder实际上是一种miscdevice, 节点路径:/dev/binder
struct binder_context context; //binder上下文环境
};
- hlist_node 哈希列表,linux内核常用数据结构,参看:Linux 内核 hlist 详解
struct hlist_node {
struct hlist_node *next, **pprev;
};
-
miscdevice linux kernel中的一类设备
参考Linux misc设备驱动理解
struct miscdevice {
int minor;//次设备号 ,通常为MISC_DYNAMIC_MINOR,动态分配
const char *name;//设备名称
const struct file_operations *fops; //函数操作集
struct list_head list;
struct device *parent;
struct device *this_device;
const struct attribute_group **groups;
const char *nodename;
umode_t mode;
};
- binder_context binder上下文
struct binder_context {
struct binder_node *binder_context_mgr_node;//需要重点关注的,servicemanager初始化的时候会创建binder_node, 到时候在分析。
struct mutex context_mgr_node_lock;
kuid_t binder_context_mgr_uid;
const char *name;
};
3.2. 接着看初始化
struct binder_device *binder_device;
binder_device = kzalloc(sizeof(*binder_device), GFP_KERNEL);
if (!binder_device)
return -ENOMEM;
binder_device->miscdev.fops = &binder_fops;//第4节介绍函数操作集
binder_device->miscdev.minor = MISC_DYNAMIC_MINOR;
binder_device->miscdev.name = name;
binder_device->context.binder_context_mgr_uid = INVALID_UID;
binder_device->context.name = name;
mutex_init(&binder_device->context.context_mgr_node_lock);
ret = misc_register(&binder_device->miscdev);
首先给binder_device分配内存,初始化设备miscdevice和context,并注册设备miscdev。完成注册之后就会生成节点/dev/binder,当用户空间调用open等访问该节点的时候,就会直接调用到binder_fops定义的对应操作函数。
hlist_add_head(&binder_device->hlist, &binder_devices);
接着把hlist_node添加到hlist头节点,binder_devices初始化为hlist_head, 在这里可以看到会依次把前面提到的binder device添加到binder_devices列表中去。这里需要注意,每创建一个binder_device节点都会把它添加到hlist的头部,然后更新头节点,如下图红色框所示为新添加节点。
实际上,在这里创建的binder_devices总共有3个,也就是说会产生3个hlist_node,分别是binder,hwbinder,vndbinder,关于这三个binder的区别,可以拜读这篇文章:
binder,hwbinder,vndbinder之间的关系
4. 函数操作集 binder_fops
static const struct file_operations binder_fops = {
.owner = THIS_MODULE,
.poll = binder_poll,
.unlocked_ioctl = binder_ioctl, //实际binder操作
.compat_ioctl = binder_ioctl, //这个用来兼容32位用户程序访问64位的kernel
.mmap = binder_mmap, //内存映射
.open = binder_open, //打开binder设备
.flush = binder_flush,
.release = binder_release,
};
这里有三个函数指针比较重要,分别是binder_open,binder_mmap和binder_ioctl。用户空间操作binder的顺序一般是open->mmap->ioctl。
4.1 binder_open
4.1.1. 需要先了解下面的结构体
- binder_proc 维护调用者进程相关的一些信息,每一个进程打开binder文件都会构建一个该结构体
struct binder_proc {
struct hlist_node proc_node; //list,用来串起所有binder_proc
struct rb_root threads; //红黑树,用来维护当前proc中的所有binder_threads
struct rb_root nodes; //维护当前proc中的binder node,按照node->ptr的顺序来维护
struct rb_root refs_by_desc;//refs,以refs->desc顺序维护
struct rb_root refs_by_node;//refs,以refs->node顺序维护
struct list_head waiting_threads;//等待处理的thread列表
int pid;//group_leader PID, 关于group_leader可以参考linux进程相关知识
struct task_struct *tsk;//进程信息
struct files_struct *files;//进程文件结构体,维护当前进程打开的文件相关信息
struct mutex files_lock;
struct hlist_node deferred_work_node;
int deferred_work;
bool is_dead;
struct list_head todo;//待处理工作列表
struct binder_stats stats;
struct list_head delivered_death;
int max_threads;
int requested_threads;
int requested_threads_started;
int tmp_ref;
struct binder_priority default_priority;
struct dentry *debugfs_entry;
struct binder_alloc alloc;//记录binder allocator信息的结构体
struct binder_context *context;
spinlock_t inner_lock;
spinlock_t outer_lock;
};
- binder_alloc
- vm_area_struct 该结构体用来定义一段VMM内存空间,每一个这种内存空间都会有一个该结构体。所谓的VM内存空间实际上就是进程虚拟内存的一部分,拥有特殊的页面错误处理规则。
- binder_lru_page page关联结构体,指针page_ptr用来指向对应的page
struct binder_lru_page {
struct list_head lru;
struct page *page_ptr;
struct binder_alloc *alloc;
};
- binder_buffer,以entry串连到binder_alloc的buffers,以rb_node分别串连到binder_alloc的free_buffers和allocated_buffers中。包含了binder_transaction 和binder_node结构体。
struct binder_buffer {
struct list_head entry; /* free and allocated entries by address */
struct rb_node rb_node; /* free entry by size or allocated entry */
/* by address */
unsigned free:1;
unsigned allow_user_free:1;
unsigned async_transaction:1;
unsigned debug_id:29;
struct binder_transaction *transaction;
struct binder_node *target_node;
size_t data_size;
size_t offsets_size;
size_t extra_buffers_size;
void __user *user_data;
};
4.1.2. binder_open()
负责打开binder设备文件,比如"/dev/binder"
static int binder_open(struct inode *nodp, struct file *filp)
{
struct binder_proc *proc;
struct binder_device *binder_dev;
//给binder_proc结构体分配空间
proc = kzalloc(sizeof(*proc), GFP_KERNEL);
//tsk指向当前进程的group_leader
get_task_struct(current->group_leader);
proc->tsk = current->group_leader;
//把todo标志为列表头
INIT_LIST_HEAD(&proc->todo);
//通过miscdev的地址和它在binder_device中的偏移量找到binder_device的起始地址,
//按container_of功能,这里filp->private_data应该是指向miscdev的地址,
//但是没有弄明白啥时候指过去的。
binder_dev = container_of(filp->private_data, struct binder_device,
miscdev);
proc->context = &binder_dev->context;
binder_alloc_init(&proc->alloc);
binder_stats_created(BINDER_STAT_PROC);
//当前进程id,也就是打开当前binder设备的进程对应的id,比如servicemanager。
proc->pid = current->group_leader->pid;
INIT_LIST_HEAD(&proc->delivered_death);
INIT_LIST_HEAD(&proc->waiting_threads);
//把当前binder_proc设置成设备私有数据,这个私有数据在调用mmap、
//ioctl等的时候会用到,关于private_data性质可以自行查找。
filp->private_data = proc;
mutex_lock(&binder_procs_lock);
//把binder_proc中的proc_node链接到binder_procs的头部,binder_procs的
//连接方式和前面提到的binder_devices是相似的
hlist_add_head(&proc->proc_node, &binder_procs);
mutex_unlock(&binder_procs_lock);
return 0;
}
这里需要主要:
proc->context = &binder_dev->context;
binder_proc对应的context指向了binder_dev对应的context,这表示所有进程的context实际上都是指向同一个地址,也就是binder_dev的context,也就是说各个binder_proc共享一个context,对于设备/dev/binder,它的context是唯一的,后续在service_manager初始化中会知道,这个context是由service_manager创建的。
4.2 binder_mmap
这个方法的作用是进行虚拟空间地址到物理地址的映射,是的进程用户空间虚拟地址空间和内核空间的虚拟地址空间映射到同一块物理内存。
注意:
内存映射一般是server和内核的虚拟空间对物理内存的映射,也就是server端虚拟空间和内核虚拟空间共同映射到同一块物理内存,所以它们在访问数据的时候最终访问的是同一块内存,避免了一次内核到用户空间的copy过程。
binder是CS结构,一般都是Client负责write数据,Server负责read数据,所以从Client到内核需要进行一次数据copy,而内核到Server因为进行了内存映射,所以就避免了一次copy。
还需要注意的是CS结构中的Server和android的service是两个不同的概念,完全不相干,应用进程与系统service通信过程,应用进程既可以作为Client发送请求给service也会作为Server来接受service传来的数据。在后面介绍service注册的时候会看到,其实每一个进程在启动的时候都会调用mmap与binder内核映射一块内存用来接收Client端的数据。
这里只是完成了初步的映射,实际上的物理内存的分配是在数据传输的时候按需分配的。在binder_update_page_range里面调用alloc_page进行页的分配。
这里主要就是对binder_proc结构体的binder_alloc的构建,
static int binder_mmap(struct file *filp, struct vm_area_struct *vma)
{
int ret;
//通过private_data取得binder_proc
struct binder_proc *proc = filp->private_data;
if (proc->tsk != current->group_leader)
return -EINVAL;
//vm_area_struct 代表进程用户空间虚拟地址空间,这里限定不可以大于4M
if ((vma->vm_end - vma->vm_start) > SZ_4M)
vma->vm_end = vma->vm_start + SZ_4M;
vma->vm_flags |= VM_DONTCOPY | VM_MIXEDMAP;
vma->vm_flags &= ~VM_MAYWRITE; //禁止写
vma->vm_ops = &binder_vm_ops;
vma->vm_private_data = proc;
//映射,在这里alloc代表的就是binder进程内核空间虚拟地址
ret = binder_alloc_mmap_handler(&proc->alloc, vma);
if (ret)
return ret;
mutex_lock(&proc->files_lock);
proc->files = get_files_struct(current);
mutex_unlock(&proc->files_lock);
return 0;
}
4.2.1. binder_alloc_mmap_handler
binder_alloc 当前binder进程对应的alloc structure
int binder_alloc_mmap_handler(struct binder_alloc *alloc,
struct vm_area_struct *vma)
{
int ret;
struct binder_buffer *buffer;
//检查alloc buffer是否分配过
if (alloc->buffer) {
ret = -EBUSY;
failure_string = "already mapped";
goto err_already_mapped;
}
alloc->buffer = (void __user *)vma->vm_start;
mutex_unlock(&binder_alloc_mmap_lock);
//这里先计算数据需要的page数n,然后分配n个pages结构体对应的空间,
//结构体binder_lru_page在前面介绍过,它拥有一个指向page的指针page_ptr
alloc->pages = kcalloc((vma->vm_end - vma->vm_start) / PAGE_SIZE,
sizeof(alloc->pages[0]),
GFP_KERNEL);
alloc->buffer_size = vma->vm_end - vma->vm_start;
//构建binder_buffer结构体
buffer = kzalloc(sizeof(*buffer), GFP_KERNEL);
//user_data指向用户空间虚拟地址起始vma->vm_start
buffer->user_data = alloc->buffer;
//把binder_buffer串到alloc->buffers list
list_add(&buffer->entry, &alloc->buffers);
buffer->free = 1;
把binder_buffer插入到alloc->free_buffers
binder_insert_free_buffer(alloc, buffer);
//free_async_space 是供异步buffers使用的虚拟地址空间(VA space),
//初始化为整个虚拟地址空间的一半
alloc->free_async_space = alloc->buffer_size / 2;
//把vma指针交给alloc
binder_alloc_set_vma(alloc, vma);
mmgrab(alloc->vma_vm_mm);
return 0;
}
mmap完成之后各个结构体状态如下图所示:
从图中可以看到,这里初始化分别分配了结构体binder_alloc、binder_buffer、以及n个binder_lru_page, 至于binder_proc是在open的时候分配,vm_area_struct则是VFS(virtual File System)进行系统调用mmap的时候自动分配的。
从图中可以看到以下几点:
- 指针page_ptr指向null,表示当前物理页尚未分配。
- binder_alloc的buffer指针和vm_area_struct的start指向同一个地址。
- buffers是循环列表结构,保存binder_buffer结构体,binder_buffer的指针user_data实际指向了binder_alloc的buffer指针,图中未画出。
- free_buffers是红黑树的结构,保存了处于free状态的binder_buffer,所谓free是指可以重新分配使用。
4.2.2 内存映射状态
执行完binder_mmap之后,client和service通信过程,binder的内存映射状态如下图所示:
- server在初始化的时候通过binder_mmap把自己用户空间虚拟地址buffer1和binder kernel的虚拟地址buffer2映射到相同的物理内存Mem2.
- client在传送数据的时候显示创建自己的数据并存储到buffer0,实际内存就是Mem1,然后调用ioctl。
- kernel收到之后把Mem1的数据copy到buffer2,实际上就是Mem2,然后通知server去处理。
- server收到通知直接读取buffer1,实际上就是读取的Mem2的数据。
注:从4.2.1节可以知道,mmap之后实际上物理内存还没有分配,物理内存的分配实在client调用ioctl的时候按需分配的。
4.3 binder_ioctl
static long binder_ioctl(struct file *filp, unsigned int cmd, unsigned long arg)
{
int ret;
struct binder_proc *proc = filp->private_data;
struct binder_thread *thread;
unsigned int size = _IOC_SIZE(cmd);
//__user代表指向用户空间虚拟地址指针,arg是用户端传递的数据对应的虚拟地址指针
//这里需要注意,kernel可以访问用户空间虚拟地址,用户端无法访问kernel虚拟地址
void __user *ubuf = (void __user *)arg;
//根据binder_proc的rb_node threads获取对应的thread,根据thread对应的current->id来区分thread。
//如果对应id的thread不存在,则新建一个thread并加入到rb_node中。
thread = binder_get_thread(proc);
//数据操作,这个在分析数据传输的时候再详细分析。
switch (cmd) {
case BINDER_WRITE_READ:
ret = binder_ioctl_write_read(filp, cmd, arg, thread);
if (ret)
goto err;
break;
...
//这里省略了各项cmd,具体cmd在后续用到的时候再分析。
}
}
关于binder_thread和binder_proc的关系用一张图来表示一下:
- 每个service在注册的时候通过open来打开binder,并创建一个binder_proc结构体(参考4.1节)。
- binder_proc包含一个红黑树结构threads来保存与自己相关的binder_thread。
- client在通过ioctl访问service的时候会创建一个和自己对应的binder_thread。
- binder_thread是根据对应client所对应的进程的id来区分的,通过全局变量current来获取对应进程的id。
- binder_thread通过rb_node串连到binder_proc的红黑树threads中,按照pid的大小顺序组织数据。