- 浏览: 1001525 次
文章分类
最新评论
-
l67721363:
感谢分享,要是有各个函数性能比较就好了。
SQL优化 数据库优化 -
hanmiao:
此图片来自QQ空间,未经允许不可引用。
Hacking QQ空间
Android IPC数据在内核空间中的发送过程分析
在上一篇文章Android请求注册服务过程源码分析中从Java层面和C++层面分析了服务请求注册的过程,无论Java还是C++最后都是将需要发送的数据写入的Parcel容器中,然后通过Binder线程持有对象IPCThreadState向Binder驱动发送,本文继续在Android请求注册服务过程源码分析的基础上更深入地介绍服务注册的整个过程。
客户进程向ServiceManager进程发送IPC服务注册信息
status_t BpBinder::transact(uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) { // Once a binder has died, it will never come back to life. if (mAlive) { //mHandle = 0 //code = ADD_SERVICE_TRANSACTION //data.writeInterfaceToken("android.os.IServiceManager"); //data.writeString16("media.camera"); //data.writeStrongBinder(new CameraService()); //flags = 0 status_t status = IPCThreadState::self()->transact(mHandle, code, data, reply, flags); if (status == DEAD_OBJECT) mAlive = 0; return status; } return DEAD_OBJECT; }由于CameraService服务是向ServiceManager注册,因此将使用ServiceManager的BpBinder来传输Binder数据,由于ServiceManager对应的Handle值为0,因此在这里的mHandle = 0,BpBinder直接调用IPCThreadState来完成数据的传输:
status_t IPCThreadState::transact(int32_t handle,uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) { status_t err = data.errorCheck(); flags |= TF_ACCEPT_FDS; if (err == NO_ERROR) { //将要发送的数据写入到IPCThreadState的成员变量mOut中, err = writeTransactionData(BC_TRANSACTION, flags, handle, code, data, NULL); } if (err != NO_ERROR) { if (reply) reply->setError(err); return (mLastError = err); } //同步请求 if ((flags & TF_ONE_WAY) == 0) { if (reply) { //等待服务端的回复 err = waitForResponse(reply); } else { Parcel fakeReply; err = waitForResponse(&fakeReply); } } else { err = waitForResponse(NULL, NULL); } return err; }
该函数首先调用writeTransactionData函数将需要发送的数据写入到IPCThreadState的成员变量mOut中,然后调用waitForResponse函数等待服务端返回数据。对于每一个采用binder通信机制的进程有且只有一个ProcessState对象,该对象的成员变量mDriverFD 保存了本进程打开的binder设备文件句柄,成员变量mVMStart保存了设备文件映射到内核空间的起始地址。每个进程拥有一个binder线程池,用于接收客户端的请求,每个线程有且只有一个IPCThreadState对象,当进程需要进程之间通信时,直接通过IPCThreadState对象来访问binder驱动,IPC发送数据保存在IPCThreadState的mOut成员变量中,而接收数据则保存在mIn成员变量中。ProcessState对象与进程一一对应,IPCThreadState对象与线程一一对应,一个进程中存在一个线程池,即一个进程内可以有多个线程,因此一个进程内部可以有多个IPCThreadState对象,如下图所示:
数据打包过程
我们先来分析一下writeTransactionData函数,该函数主要负责将向服务进程发送的数据写入到Parcel对象中。在分析该函数前,先介绍一下Binder传输中使用到的binder_transaction_data数据结构:
对于CameraService服务注册,writeTransactionData函数的参数cmd=BC_TRANSACTION;binderFlags =TF_ACCEPT_FDS;handle = 0;code =ADD_SERVICE_TRANSACTION;statusBuffer = Null;发送的data为:
data.writeInterfaceToken("android.os.IServiceManager"); data.writeString16("media.camera"); data.writeStrongBinder(new CameraService());writeTransactionData函数的定义如下:
status_t IPCThreadState::writeTransactionData(int32_t cmd, uint32_t binderFlags, int32_t handle, uint32_t code, const Parcel& data, status_t* statusBuffer) { binder_transaction_data tr; //将发送的数据信息存放到binder_transaction_data中 tr.target.handle = handle; tr.code = code; tr.flags = binderFlags; tr.cookie = 0; tr.sender_pid = 0; tr.sender_euid = 0; const status_t err = data.errorCheck(); if (err == NO_ERROR) { tr.data_size = data.ipcDataSize(); tr.data.ptr.buffer = data.ipcData(); tr.offsets_size = data.ipcObjectsCount()*sizeof(size_t); tr.data.ptr.offsets = data.ipcObjects(); } else if (statusBuffer) { tr.flags |= TF_STATUS_CODE; *statusBuffer = err; tr.data_size = sizeof(status_t); tr.data.ptr.buffer = statusBuffer; tr.offsets_size = 0; tr.data.ptr.offsets = NULL; } else { return (mLastError = err); } //首先写入Binder协议头 mOut.writeInt32(cmd); //写入binder_transaction_data mOut.write(&tr, sizeof(tr)); return NO_ERROR; }上图清晰地展示了writeTransactionData函数的赋值过程。
数据发送过程
完成数据打包后,接下来将调用waitForResponse函数来实现数据的真正发送过程,并且等待服务进程的数据返回。
status_t IPCThreadState::waitForResponse(Parcel *reply, status_t *acquireResult) { int32_t cmd; int32_t err; while (1) { //==================数据发送处理=========================================== //将IPC数据通过Binder驱动发送给服务进程,talkWithDriver是和Binder驱动交互的核心、阻塞型函数 if ((err=talkWithDriver()) < NO_ERROR) break; //==================数据接收处理=========================================== //检查服务进程返回来的数据 err = mIn.errorCheck(); if (err < NO_ERROR) break; if (mIn.dataAvail() == 0) continue; //读取Binder通信协议命令头 cmd = mIn.readInt32(); //针对不同的命令头做不同的处理 switch (cmd) { case BR_TRANSACTION_COMPLETE: case BR_DEAD_REPLY: case BR_FAILED_REPLY: case BR_ACQUIRE_RESULT: case BR_REPLY: default: err = executeCommand(cmd); if (err != NO_ERROR) goto finish; break; } } finish: if (err != NO_ERROR) { if (acquireResult) *acquireResult = err; if (reply) reply->setError(err); mLastError = err; } return err; }该函数首先通过talkWithDriver向Binder驱动发送数据,talkWithDriver是阻塞类型的函数,只有在发送完数据后才会返回,当talkWithDriver函数返回后,立即从mIn容器中读取服务进程回复的数据,并根据回复的数据中的Binder协议命令头来执行不同的处理,对于BR_TRANSACTION_COMPLETE、BR_DEAD_REPLY、BR_FAILED_REPLY、BR_ACQUIRE_RESULT、BR_REPLY以外的命令则调用executeCommand函数来处理。接下来我们继续分析Binder数据的发送过程,对于接收数据的处理则在接下来的小节中介绍。
status_t IPCThreadState::talkWithDriver(bool doReceive) { //判断Binder设备驱动是否已打开 LOG_ASSERT(mProcess->mDriverFD >= 0, "Binder driver is not opened"); binder_write_read bwr; // 判断读buffer是否为空, const bool needRead = mIn.dataPosition() >= mIn.dataSize(); // We don't want to write anything if we are still reading // from data left in the input buffer and the caller // has requested to read the next data. const size_t outAvail = (!doReceive || needRead) ? mOut.dataSize() : 0; //将打包的Parcel写入到用户空间的binder_write_read数据结构中,binder_write_read存储了发送的数据,同时也存储了接收到的回复数据 bwr.write_size = outAvail; bwr.write_buffer = (long unsigned int)mOut.data(); // This is what we'll read. if (doReceive && needRead) { bwr.read_size = mIn.dataCapacity(); bwr.read_buffer = (long unsigned int)mIn.data(); } else { bwr.read_size = 0; bwr.read_buffer = 0; } // 如果没有数据需要处理立即返回 if ((bwr.write_size == 0) && (bwr.read_size == 0)) return NO_ERROR; bwr.write_consumed = 0; bwr.read_consumed = 0; status_t err; //通过Binder设备驱动发送数据,在数据发送完成前函数阻塞在此 do { //通过ioctl系统调用切换到内核空间 if (ioctl(mProcess->mDriverFD, BINDER_WRITE_READ, &bwr) >= 0) err = NO_ERROR; else err = -errno; } while (err == -EINTR); //数据发送失败 if (err >= NO_ERROR) { //如果已发送的数据个数大于0 if (bwr.write_consumed > 0) { if (bwr.write_consumed < (ssize_t)mOut.dataSize()) //从发送数据的Parcel中移除已经发送的数据 mOut.remove(0, bwr.write_consumed); else mOut.setDataSize(0); } if (bwr.read_consumed > 0) { mIn.setDataSize(bwr.read_consumed); mIn.setDataPosition(0); } return NO_ERROR; } return err; }
函数首先从mOut中将数据拷贝到binder_write_read数据结构中,关于Parcel的存储如下图所示:
从上图可以清楚地知道,当进程A需要把IPC数据发送给进程B时,必须通过内核空间共享机制来完成,这也印证了为什么Android Binder通信过程中经过层层数据封装后,最终要通过系统调用ioctl进入到Binder驱动中的原因。学过Linux驱动设计的同学应该知道,当调用ioctl函数时,binder_ioctl函数会被调用,这两个函数自己有什么内在关联吗?这里简单介绍一下,Linux设备驱动很好地实现了模块化,在Linux内核启动的时候,会注册所有的内核驱动模块,在Android Init进程源码分析中介绍Init进程启动流程中提到过内核驱动初始化。驱动模块注册完就建立了函数之间的调用关系,在Binder驱动程序中以下代码正是建立ioctl与binder_ioctl之间的映射关系:
static const struct file_operations binder_fops = { .owner = THIS_MODULE, .poll = binder_poll, .unlocked_ioctl = binder_ioctl, .mmap = binder_mmap, .open = binder_open, .flush = binder_flush, .release = binder_release, };
因此当用户程序调用ioctl系统调用时,Binder驱动函数binder_ioctl自动被调用。接下来详细分析该函数,从此我们就进入到了内核空间代码的分析了。ioctl 的命令参数为BINDER_WRITE_READ,数据参数为binder_write_read,该数据结构定义为:
binder_write_read中存储的数据如下:
BINDER_WRITE_READ命令用来请求Binder驱动发送或接收IPC应答数据,在使用BINDER_WRITE_READ命令调用ioctl()函数时,函数的第三个参数是binder_write_read结构体的变量,该结构体中有两个buffer,一个为IPC数据发送buffer,一个为IPC数据接收buffer;write_size与read_size分别用来指定write_buffer与read_buffer的数据大小。write_consumed与read_consumed分别用来设定write_buffer与read_buffer中被处理的数据大小,从上面分析可知,需要发送的数据为:
bwr.write_size = outAvail; bwr.write_buffer = (long unsigned int)mOut.data(); bwr.read_size = 0; bwr.read_buffer = 0; bwr.write_consumed = 0; bwr.read_consumed = 0;
把将要发送的IPC数据存放到binder_write_read结构体中后通过ioctl系统调用传入到binder驱动程序中,binder_write_read以参数的形式传入内核空间,关于binder_ioctl函数的介绍在ServiceManager 进程启动源码分析中详细介绍了。由于read_size= 0,write_size 大于0 ,因此binder_ioctl函数对BINDER_WRITE_READ命令的处理如下:
case BINDER_WRITE_READ: { //在内核空间中创建一个binder_write_read struct binder_write_read bwr; if (size != sizeof(struct binder_write_read)) { ret = -EINVAL; goto err; } //拷贝用户空间的binder_write_read到内核空间的binder_write_read if (copy_from_user(&bwr, ubuf, sizeof(bwr))) { ret = -EFAULT; goto err; } //根据write_size判断是否需要发送IPC数据 if (bwr.write_size > 0) { //调用binder_thread_write来发送数据 ret = binder_thread_write(proc, thread, (void __user *)bwr.write_buffer, bwr.write_size, &bwr.write_consumed); //如果数据发送失败 if (ret < 0) { bwr.read_consumed = 0; if (copy_to_user(ubuf, &bwr, sizeof(bwr))) ret = -EFAULT; goto err; } } //拷贝内核空间的binder_write_read到用户空间的binder_write_read if (copy_to_user(ubuf, &bwr, sizeof(bwr))) { ret = -EFAULT; goto err; } break; }
binder_write_read结构体中包含着用户空间中生成的IPC数据,在Binder驱动中也存在一个相同的binder_write_read结构体,用户空间设置完binder_write_read结构体数据后,调用ioctl()函数传递给Binder驱动,Binder驱动则调用copy_from_user()函数将用户空间中的数据拷贝到Binder内核空间的binder_write_read结构体中。相反,在传递IPC应答数据时,Binder驱动调用copy_to_user()函数将内核空间的binder_write_read结构体中的数据拷贝到用户空间。
由于此时是客户进程向ServiceManager进程发送IPC注册信息,因此binder_write_read结构体的write_size大于0,调用binder_thread_write()函数进一步实现数据的跨进程发送,此时的Binder命令协议头为BC_TRANSACTION
int binder_thread_write(struct binder_proc *proc, struct binder_thread *thread, void __user *buffer, int size, signed long *consumed) { uint32_t cmd; //ptr指向要处理的IPC数据,consumed表示IPC数据的个数 void __user *ptr = buffer + *consumed; void __user *end = buffer + size; while (ptr < end && thread->return_error == BR_OK) { //将IPC数据的Binder系统头命令拷贝到内核空间的cmd中,此时的命令为BC_TRANSACTION if (get_user(cmd, (uint32_t __user *)ptr)) return -EFAULT; //将ptr指针移动到binder_transaction_data所在地址 ptr += sizeof(uint32_t); //统计该Binder命令使用率 if (_IOC_NR(cmd) < ARRAY_SIZE(binder_stats.bc)) { binder_stats.bc[_IOC_NR(cmd)]++; proc->stats.bc[_IOC_NR(cmd)]++; thread->stats.bc[_IOC_NR(cmd)]++; } //根据Binder命令做相应的处理 switch (cmd) { case BC_TRANSACTION: case BC_REPLY: { //在内核空间定义一个binder_transaction_data变量 struct binder_transaction_data tr; //将用户空间的binder_transaction_data拷贝到内核空间,拷贝原因在于参数buffer是用户空间的指针 if (copy_from_user(&tr, ptr, sizeof(tr))) return -EFAULT; ptr += sizeof(tr); //调用binder_transaction函数来执行Binder寻址、复制Binder IPC数据、生成及检索Binder节点操作 binder_transaction(proc, thread, &tr, cmd == BC_REPLY); break; } default: return -EINVAL; } *consumed = ptr - buffer; } return 0; }
binder_transaction()函数相当复杂,主要完成Binder寻址,生成Binder节点等。由于cmd = BC_TRANSACTION,因此binder_transaction函数的第四个参数为false。
static void binder_transaction(struct binder_proc *proc, struct binder_thread *thread, struct binder_transaction_data *tr, int reply) { //proc指向的是客户进程的binder_proc //thread指向的是客户进程的binder_thread //tr指向发送的IPC数据 //定义数据发送事务 struct binder_transaction *t; struct binder_work *tcomplete; size_t *offp, *off_end; //指向目标进程的binder_proc结构体 struct binder_proc *target_proc; //指向目标线程的binder_thread结构体 struct binder_thread *target_thread = NULL; //指向目标Binder实体对象的binder_node结构体 struct binder_node *target_node = NULL; //定义待处理队列 struct list_head *target_list; //定义一个等待队列 wait_queue_head_t *target_wait; //定义应答事务 struct binder_transaction *in_reply_to = NULL; //定义Binder数据传输log struct binder_transaction_log_entry *e; uint32_t return_error; e = binder_transaction_log_add(&binder_transaction_log); e->call_type = reply ? 2 : !!(tr->flags & TF_ONE_WAY); e->from_proc = proc->pid; e->from_thread = thread->pid; e->target_handle = tr->target.handle; e->data_size = tr->data_size; e->offsets_size = tr->offsets_size; //reply = false if (reply) { ... } else { //查找目标进程对应的Binder节点 //对于服务注册来说,目标进程为servicemanger,因此它的handle值为0 if (tr->target.handle) { struct binder_ref *ref; //通过句柄值在当前进程的binder_proc中查找Binder引用对象 ref = binder_get_ref(proc, tr->target.handle); if (ref == NULL) { return_error = BR_FAILED_REPLY; goto err_invalid_target_handle; } //得到Binder引用对象所引用的目标Binder实体对象节点 target_node = ref->node; //对servicemanager的处理 } else { //在ServiceManger进程启动过程中被注册为binder_context_mgr_node, target_node = binder_context_mgr_node; if (target_node == NULL) { return_error = BR_DEAD_REPLY; goto err_no_context_mgr_node; } } e->to_node = target_node->debug_id; //通过目标Binder实体对象取得目标进程的binder_proc target_proc = target_node->proc; if (target_proc == NULL) { return_error = BR_DEAD_REPLY; goto err_dead_binder; } //查找过程:handle——>binder_ref——>binder_node——>binder_proc //如果不是同步请求,并且客户进程的线程binder_thread的事务堆栈transaction_stack不为空 if (!(tr->flags & TF_ONE_WAY) && thread->transaction_stack) { //定义临时事务 struct binder_transaction *tmp; //取出客户线程的事务 tmp = thread->transaction_stack; //如果负责处理客户线程事务的线程不是客户线程 if (tmp->to_thread != thread) { return_error = BR_FAILED_REPLY; goto err_bad_call_stack; } //遍历客户线程事务堆栈 while (tmp) { // if (tmp->from && tmp->from->proc == target_proc) target_thread = tmp->from; tmp = tmp->from_parent; } } } //如果目标线程不为空 if (target_thread) { e->to_thread = target_thread->pid; //取出目标线程的待处理队列作为当前的目标队列 target_list = &target_thread->todo; //取出目标线程的等待队列作为当前的等待队列 target_wait = &target_thread->wait; } else { //取出目标进程的待处理队列作为当前的目标队列 target_list = &target_proc->todo; //取出目标进程的等待队列作为当前的等待队列 target_wait = &target_proc->wait; } e->to_proc = target_proc->pid; /* 创建数据发送事务 */ t = kzalloc(sizeof(*t), GFP_KERNEL); if (t == NULL) { return_error = BR_FAILED_REPLY; goto err_alloc_t_failed; } binder_stats_created(BINDER_STAT_TRANSACTION); /* 生成binder_work结构体 */ tcomplete = kzalloc(sizeof(*tcomplete), GFP_KERNEL); if (tcomplete == NULL) { return_error = BR_FAILED_REPLY; goto err_alloc_tcomplete_failed; } binder_stats_created(BINDER_STAT_TRANSACTION_COMPLETE); //初始化数据发送事务 t->debug_id = ++binder_last_id; e->debug_id = t->debug_id; if (!reply && !(tr->flags & TF_ONE_WAY)) // t->from = thread; else t->from = NULL; //设置IPC数据发送进程的euid t->sender_euid = proc->tsk->cred->euid; //设置IPC数据接收进程的binder_proc t->to_proc = target_proc; //设置IPC数据接收进程的binder_thread t->to_thread = target_thread; //设置IPC数据RPC命令码 t->code = tr->code; //设置IPC数据flags标志位 t->flags = tr->flags; //设置当前进程的优先级 t->priority = task_nice(current); //分配一块buffer用来从接收端的IPC数据接收缓冲区复制IPC数据,接收端缓冲区空间在binder_mmap()函数中确定,binder_proc中的free_buffers指向该区域,binder_alloc_buf函数在free_buffers中根据RPC数据的大小分配binder_buffer t->buffer = binder_alloc_buf(target_proc, tr->data_size,tr->offsets_size, !reply && (t->flags & TF_ONE_WAY)); if (t->buffer == NULL) { return_error = BR_FAILED_REPLY; goto err_binder_alloc_buf_failed; } //初始化分配的内核缓冲区binder_buffer结构体 t->buffer->allow_user_free = 0; t->buffer->debug_id = t->debug_id; t->buffer->transaction = t; t->buffer->target_node = target_node; if (target_node) binder_inc_node(target_node, 1, 0, NULL); //计算偏移数组的起始地址 offp = (size_t *)(t->buffer->data + ALIGN(tr->data_size, sizeof(void *))); //从binder_transaction_data中将RPC数据拷贝到数据发送事务的内核缓冲区binder_buffer的data成员变量中 if (copy_from_user(t->buffer->data, tr->data.ptr.buffer, tr->data_size)) { return_error = BR_FAILED_REPLY; goto err_copy_data_failed; } //从binder_transaction_data中将偏移数组中的数据拷贝到数据发送事务的内核缓冲区binder_buffer的data成员变量中 if (copy_from_user(offp, tr->data.ptr.offsets, tr->offsets_size)) { return_error = BR_FAILED_REPLY; goto err_copy_data_failed; } if (!IS_ALIGNED(tr->offsets_size, sizeof(size_t))) { return_error = BR_FAILED_REPLY; goto err_bad_offset; } //计算偏移数组的结束地址 off_end = (void *)offp + tr->offsets_size; //循环遍历所有的Binder实体对象 for (; offp < off_end; offp++) { //定义一个描述Binder实体对象的flat_binder_object struct flat_binder_object *fp; if (*offp > t->buffer->data_size - sizeof(*fp) || t->buffer->data_size < sizeof(*fp) ||!IS_ALIGNED(*offp, sizeof(void *))) { return_error = BR_FAILED_REPLY; goto err_bad_offset; } //计算flat_binder_object的地址,起始地址+偏移量 fp = (struct flat_binder_object *)(t->buffer->data + *offp); //判断flat_binder_object对象的类型 switch (fp->type) { //传输的是Binder实体对象 case BINDER_TYPE_BINDER: case BINDER_TYPE_WEAK_BINDER: { struct binder_ref *ref; //从客户进程的binder_proc中查找传输的Binder实体节点 struct binder_node *node = binder_get_node(proc, fp->binder); //如果不存在 if (node == NULL) { //为传输的Binder对象创建一个新的Binder实体节点 node = binder_new_node(proc, fp->binder, fp->cookie); if (node == NULL) { return_error = BR_FAILED_REPLY; goto err_binder_new_node_failed; } node->min_priority = fp->flags & FLAT_BINDER_FLAG_PRIORITY_MASK; node->accept_fds = !!(fp->flags & FLAT_BINDER_FLAG_ACCEPTS_FDS); } if (fp->cookie != node->cookie) { goto err_binder_get_ref_for_node_failed; } //从目标进程的binder_proc中查找传输的binder对象的引用对象 ref = binder_get_ref_for_node(target_proc, node); if (ref == NULL) { return_error = BR_FAILED_REPLY; goto err_binder_get_ref_for_node_failed; } if (fp->type == BINDER_TYPE_BINDER) fp->type = BINDER_TYPE_HANDLE; else fp->type = BINDER_TYPE_WEAK_HANDLE; fp->handle = ref->desc; binder_inc_ref(ref, fp->type == BINDER_TYPE_HANDLE,&thread->todo); } break; //传输的是Binder引用对象 case BINDER_TYPE_HANDLE: case BINDER_TYPE_WEAK_HANDLE: { struct binder_ref *ref = binder_get_ref(proc, fp->handle); if (ref == NULL) { return_error = BR_FAILED_REPLY; goto err_binder_get_ref_failed; } if (ref->node->proc == target_proc) { if (fp->type == BINDER_TYPE_HANDLE) fp->type = BINDER_TYPE_BINDER; else fp->type = BINDER_TYPE_WEAK_BINDER; fp->binder = ref->node->ptr; fp->cookie = ref->node->cookie; binder_inc_node(ref->node, fp->type == BINDER_TYPE_BINDER, 0, NULL); } else { struct binder_ref *new_ref; new_ref = binder_get_ref_for_node(target_proc, ref->node); if (new_ref == NULL) { return_error = BR_FAILED_REPLY; goto err_binder_get_ref_for_node_failed; } fp->handle = new_ref->desc; binder_inc_ref(new_ref, fp->type == BINDER_TYPE_HANDLE, NULL); } } break; //传输的是文件描述符 case BINDER_TYPE_FD: { int target_fd; struct file *file; if (reply) { if (!(in_reply_to->flags & TF_ACCEPT_FDS)) { return_error = BR_FAILED_REPLY; goto err_fd_not_allowed; } } else if (!target_node->accept_fds) { return_error = BR_FAILED_REPLY; goto err_fd_not_allowed; } file = fget(fp->handle); if (file == NULL) { return_error = BR_FAILED_REPLY; goto err_fget_failed; } target_fd = task_get_unused_fd_flags(target_proc, O_CLOEXEC); if (target_fd < 0) { fput(file); return_error = BR_FAILED_REPLY; goto err_get_unused_fd_failed; } task_fd_install(target_proc, target_fd, file); fp->handle = target_fd; } break; default: return_error = BR_FAILED_REPLY; goto err_bad_object_type; } } //需要应答 if (reply) { BUG_ON(t->buffer->async_transaction != 0); // binder_pop_transaction(target_thread, in_reply_to); } else if (!(t->flags & TF_ONE_WAY)) { BUG_ON(t->buffer->async_transaction != 0); t->need_reply = 1; t->from_parent = thread->transaction_stack; thread->transaction_stack = t; } else { BUG_ON(target_node == NULL); BUG_ON(t->buffer->async_transaction != 1); if (target_node->has_async_transaction) { target_list = &target_node->async_todo; target_wait = NULL; } else target_node->has_async_transaction = 1; } //设置事务类型为BINDER_WORK_TRANSACTION t->work.type = BINDER_WORK_TRANSACTION; //将事务添加到目标进程或线程的待处理队列中 list_add_tail(&t->work.entry, target_list); //设置数据传输完成事务类型 tcomplete->type = BINDER_WORK_TRANSACTION_COMPLETE; //将数据传输完成事务添加到客户进程的待处理队列中 list_add_tail(&tcomplete->entry, &thread->todo); //唤醒目标进程或线程 if (target_wait) wake_up_interruptible(target_wait); return; err_get_unused_fd_failed: err_fget_failed: err_fd_not_allowed: err_binder_get_ref_for_node_failed: err_binder_get_ref_failed: err_binder_new_node_failed: err_bad_object_type: err_bad_offset: err_copy_data_failed: binder_transaction_buffer_release(target_proc, t->buffer, offp); t->buffer->transaction = NULL; binder_free_buf(target_proc, t->buffer); err_binder_alloc_buf_failed: kfree(tcomplete); binder_stats_deleted(BINDER_STAT_TRANSACTION_COMPLETE); err_alloc_tcomplete_failed: kfree(t); binder_stats_deleted(BINDER_STAT_TRANSACTION); err_alloc_t_failed: err_bad_call_stack: err_empty_call_stack: err_dead_binder: err_invalid_target_handle: err_no_context_mgr_node: { struct binder_transaction_log_entry *fe; fe = binder_transaction_log_add(&binder_transaction_log_failed); *fe = *e; } BUG_ON(thread->return_error != BR_OK); if (in_reply_to) { thread->return_error = BR_TRANSACTION_COMPLETE; binder_send_failed_reply(in_reply_to, return_error); } else thread->return_error = return_error; }
函数首先根据传进来的参数binder_transaction_data来封装一个工作事务binder_transaction,关于binder_transaction结构的介绍在Android Binder通信数据结构介绍中已经详细介绍过了,然后将封装好的事务挂载到目标进程或线程的待处理队列中,最后唤醒目标进程,这样就将IPC数据发送给了目标进程,同时唤醒目标进程对IPC请求进行处理,以下两句最为重要:
//将事务添加到目标进程或线程的待处理队列中 list_add_tail(&t->work.entry, target_list); //唤醒目标进程或线程 if (target_wait) wake_up_interruptible(target_wait);
至此就介绍完了IPC数据在内核空间的发送过程。
相关推荐
本篇文章将详细介绍Android IPC的基本概念、原理及其在Android系统中的实现方式。 #### 二、Linux系统中的IPC机制 Linux系统提供了多种进程间通信方式,包括但不限于: 1. **Socket**:提供了一种网络编程的通用...
用户空间的内存映射与内核空间的类似,但在用户空间中使用。 - **7.1 用户空间内存映射的实现**:主要通过mmap()系统调用实现。 - **7.2 用户空间内存映射的API**:mmap(), munmap(), msync()等。 - **7.3 用户空间...
- 进程间通信的延迟被最小化,因为大部分处理都在内核空间完成,减少了用户态和内核态的切换。 8. **角色与应用**: - Binder不仅用于应用程序之间的通信,还用于系统服务的实现,例如Activity Manager、Content ...
Android的Binder机制是Android系统中实现进程间通信(IPC,Inter-Process Communication)的核心组件,它的设计和实现对于理解Android系统的内部运作至关重要。Binder机制包括驱动程序、用户空间库、服务代理和...
Binder驱动程序在内核空间负责维护Binder的通信机制,包括数据结构和设计原理。在用户空间,Binder系统服务提供了对驱动程序的封装,使得应用开发者能够通过简单易用的API进行IPC通信,而无需关心底层的复杂性。 在...
在Android系统中,NVRAM(Non-Volatile Random Access Memory)是一种非易失性存储,用于存储关键系统配置和设置,这些数据即使在系统断电后也能保持。NVRAM移植记录涉及到Android系统如何实现对NVRAM的读写操作,...
内存映射技术减少了数据在用户空间和内核空间之间拷贝的次数,提高了效率。等待队列则用于管理未完成的请求,确保请求的有序处理。 5. 安全性和私有通道 与其他IPC方式不同,Binder在内核级别提供了身份验证,每个...
- **用户空间与内核空间**:操作系统通常分为用户空间和内核空间两个部分,用户空间用于运行应用程序,而内核空间则负责管理硬件资源和提供服务给用户空间。 - **Linux下的进程间通信**:Linux提供了多种进程间通信...
在内核空间,Binder驱动负责处理进程间的数据传输,维护通信的稳定性与安全性。 #### 数据接收端的设计考虑 Binder在数据接收端的设计体现了对性能与资源管理的深度思考。线程池管理确保了高效的并发处理能力,...
- **分配时机**:当进程发送BC_TRANSACTION或HC_REPLAY命令时,需要将数据从用户空间复制到内核空间,然后传递给目标进程。这时,Binder驱动会在目标进程的内存池中分配合适大小的内核缓冲区,保存这些数据。 - **...
在Android系统中,Binder是实现进程间通信(IPC,Inter-Process Communication)的主要机制,它是一种高效、安全的接口,允许不同应用程序或者服务之间共享数据和执行操作。本篇文章将详细探讨“Android直接通过...
由于Binder驱动将同一块物理内存映射到了内核空间和用户空间,所以数据在发送方的发送缓存中拷贝到内核缓冲区的同时,接收进程也能够直接读取到这块内存,实现了仅一次的数据拷贝。Binder驱动还负责缓存管理和线程...
Android的Binder机制是Android系统中实现进程间通信(IPC,Inter-Process Communication)的核心组件,尤其是在服务(Service)注册和交互中起到至关重要的作用。理解Binder机制有助于开发者深入掌握Android系统的...
概念空间是指在研究过程中涉及的关键概念和术语。对于Android底层架构而言,这包括但不限于进程、线程、服务、Binder驱动、IPC、HAL等。熟悉这些概念是深入研究的基础,它们构成了理解Android系统内部运作机制的词汇...
- **内存映射**:Binder使用内存映射技术减少数据在用户空间和内核空间之间的拷贝,提高传输效率。 - **等待队列管理**:当Server忙于处理其他请求时,Binder驱动将新请求放入等待队列,确保公平和高效的资源调度...
其中,Binder驱动运行在内核空间,负责处理数据传输;ServiceManager是Binder机制的服务注册中心;Client是发起通信请求的进程;Server是响应通信请求并提供服务的进程。 本Demo的实践过程是基于韦东山老师的4412...
1. Linux内核驱动:这部分驱动运行在内核空间,负责直接与硬件交互,包括初始化硬件、设置中断处理、数据传输等。常见的有GPIO、I2C、SPI、UART等接口驱动。 2. HAL(Hardware Abstraction Layer)层驱动:作为硬件...
Android Binder架构是Android系统中用于进程间通信(IPC)的一种机制,其设计目的是为了提供一种高效的、稳定的方式在不同的进程之间传输数据。Binder架构由一个轻量级的远程过程调用(RPC)机制实现,它将数据封装成...
1. **Binder驱动**:内核空间中的Binder驱动负责处理来自用户空间的Binder操作,包括建立连接、发送和接收数据、处理事务等。 2. **ServiceManager**:在C++层,`ServiceManager`负责管理所有服务的注册和查找,...
当一个进程通过Binder接口发送请求时,请求会被封装成一个消息,然后通过内核空间传递给目标进程。驱动还实现了线程池,以优化多进程间的并发处理。 2. **应用层库**: 在用户空间,Android提供了Binder库,开发者...