* 1) epmutex 互斥锁mutex
* 2) ep->mtx 互斥锁mutex
* 3) ep->lock 自旋锁spinlock
需要的顺序是从1-3 .
1 ) 需要自旋锁 : 是因为我们掌管着 poll 回调方法内部的资源 , 这些资源的触发可能发生在中断上下文 的wake_up 中 所以呢我们不能再poll 回调方法里面睡眠 因此自旋吧~
2 ) 在事件传输的循环中(内核空间--> 用户空间) 我们可以中断睡眠由通过一个 copy_to_user, 所以我们需要一个允许我们睡眠的锁 ,这就是mutex啦
3 ) 他在事件传输的循环中被需要, 在epoll_ctl(EPOLL_CTL_DEL) and during eventpoll_release_file()
然后呢,我们需要一个全局的mutex锁 ,来序列化 eventpoll_release_file()
举个例子 比如: ep_free().
ep_free() 需要这个锁 在epoll file 清除的过程中 , 同样 eventpoll_release_file()也需要 : 比如以下情况
如果一个file 已经被压入 epoll 的集合里面 然后直接close 却没有通过poll_ctl(EPOLL_CTL_DEL).
最后放弃 ep->mux 而使用全局的 epmutex(和ep->lock 一起) 工作 也是可能的
但是 使用 ep->mtx 将使接口具有可扩展性 , 需要持有epmutex 的事件往往很稀少 , 然而
对于一个一个普通的操作 ep->mutex 将保证良好的扩展性
* Maximum number of nesting allowed inside epoll sets */\
Epoll 集合允许的最大嵌套数
#define EP_MAX_NESTS 4
Epoll 监听的最多事件 (庞大到可以忽视)
#define EP_MAX_EVENTS (INT_MAX / sizeof(struct epoll_event))
我打算从系统调用入口开始分析
/*
*这里的 SYSCALL_DEFINEx(name ,__VA_ARGS__) 其实就是通过一系列的宏变化
*最后变成 asmlinkage long sys##name(__SC_DECL##x(__VA_ARGS__));
*这样是不是很眼熟了, 没错 "sys_xxx" linux Syscalls.h系统调用函数名的标准格式 直接
*对应unistd,h 中的调用号 , 直接对于 syscall(xx,xx) .. 不解释..
*/
SYSCALL_DEFINE1(epoll_create1, int, flags)
{
int error;
struct eventpoll *ep = NULL;
/*这里通过一个小技巧 ,能让编译的时候就发现代码开发过程中潜在的问题,而不是坐等*crash ,具体使用有各种不同的校验,
*比如#define BUILD_BUG_ON(condition) ((void)sizeof(char[1 - 2*!!(condition)])) 如果条件*满足就直接char[-1] 哈哈*/
BUILD_BUG_ON(EPOLL_CLOEXEC != O_CLOEXEC);
/*如果没有设置 EPOLL_CLOEXEC) 就直接返回 -EINVAL给上层 */
if (flags & ~EPOLL_CLOEXEC)
return -EINVAL;
/*
*创建一个内部用的数据结构 struct eventpoll
*/
error = ep_alloc(&ep);
if (error < 0)
return error;
/*开始前的准备 建立一个struct file 和file fd */
error = anon_inode_getfd("[eventpoll]", &eventpoll_fops, ep,
O_RDWR | (flags & O_CLOEXEC));
if (error < 0)
ep_free(ep);
return error;
}
然后就开始看看上面2个没讲到的函数 和一个重要的数据结构
/*还记得struct file里面那个神奇的 private_data么, 现在它就用来指向eventpoll 不用我说就知道, 这个结构是整个epoll操作的外部接口*/
struct eventpoll {
/* Protect the this structure access 自旋锁保护这个内部数据结构*/
spinlock_t lock;
/*
*这个互斥锁用来确保 file fd 在epoll 使用他们的时候不能被移出, 在
*1 event 集合循环的时候 2 file fd清除过程中 3 epoll fd 退出和epoll_ctl操作
*/
struct mutex mtx;
/* sys_epoll_wait() 用的等待队列 */
wait_queue_head_t wq;
/* file->poll() [驱动层接口] 用的等待队列*/
wait_queue_head_t poll_wait;
/* List of ready file descriptors 已经准备好的file fd链表 */
struct list_head rdllist;
/* RB tree root used to store monitored fd structs
*用来储存所有file fd 的红黑树的根*/
struct rb_root rbr;
/*
* This is a single linked list that chains all the "struct epitem" that
* happened while transfering ready events to userspace w/out
* holding ->lock. 这是一个伟大复杂的结构。。。 形成一个包含 struct epitem 结构的单链表 , 在传输就绪事件到用户空间用到 */
struct epitem *ovflist;
/* The user that created the eventpoll descriptor
*存放了建立这个 epoll fd用户的信息(进程数 挂起信号等等 总有一天会是成熟的跟踪系统) <看了很多代码不得不佩服老外,他们在正常的开发中 ,往往能为以后的调试 统计 分析留下接口,这才是做系统的人,而我们国内公司很多功能完成后 想增加点外围接口 想扩展一下,东改西改 本来性能就不高的代码 最后惨不忍睹>*/
struct user_struct *user;
};
/*然后就来先简单说一下 struct epitem *ovflist; 这个核心的和存储位置有关的数据结构*/
struct epitem {
/* RB tree node used to link this structure to the eventpoll RB tree
*在 eventpoll 红黑树种的节点*/
struct rb_node rbn;
/* List header used to link this structure to the eventpoll ready list
*用来连接本结构体到 eventpoll 中的就绪链表 ,没错就是上面的rdllist */
struct list_head rdllink;
/*
* Works together "struct eventpoll"->ovflist in keeping the
* single linked chain of items. 构成上面说的 ovflist 单链表
*/
struct epitem *next;
/* The file descriptor information this item refers to 除了来本身的file fd 还指向了对应的内核file 结构
* 后面会看到这个结构很有用
*/
struct epoll_filefd ffd;
/* 依附于 file()->poll 操作的活跃 eppoll_entry数目*/
int nwait;
/* List containing poll wait queues 把上面的队列串成链表*/
struct list_head pwqlist;
/* The "container" of this item 互相保留引用 */
struct eventpoll *ep;
/* List header used to link this item to the "struct file" items list 连接自身到struct file链表*/
struct list_head fllink;
/* The structure that describe the interested events and the source fd 描述这个file fd感兴趣的事件 */
struct epoll_event event;
};
好了先说简单说了说几个主要结构, 下面就来看 ep_alloc 用来创建内部用的数据结构 struct eventpoll
static int ep_alloc(struct eventpoll **pep)
{
int error;
struct user_struct *user;
struct eventpoll *ep;
/*给当前 task_struct -> cred -> struct user_struct 增加引用计数*/
user = get_current_user();
error = -ENOMEM;
/*内核缓冲池中 分配一个ep结果*/
ep = kzalloc(sizeof(*ep), GFP_KERNEL);
/*当然一般情况下不会失败*/
if (unlikely(!ep))
goto free_uid;
/*初始化 自旋锁 互斥锁 2条等待队列 一个就绪链表*/
spin_lock_init(&ep->lock);
mutex_init(&ep->mtx);
init_waitqueue_head(&ep->wq);
init_waitqueue_head(&ep->poll_wait);
INIT_LIST_HEAD(&ep->rdllist);
/*当然是根了*/
ep->rbr = RB_ROOT;
/*表明没激活 但以初始化 惯用伎俩*/
ep->ovflist = EP_UNACTIVE_PTR;
ep->user = user;
/*成功返回吧 ~*/
*pep = ep;
return 0;
free_uid:
free_uid(user); /*当然是减少引用基数 (原子的)*/
eturn error;
}
下面就是epoll_create里的最后一个关键函数了 anno_inode_getfd
这里传入了4个参数,最主要是
2 fops 新file fd 对应的文件操作结构
3 priv : struct file 结构中的 private_data
其实 这里返回的不是一个传统意义上的inode节点 自然没有那么成熟和强大的功能
所有通过 annon_inode_getfd 创建的 file fd 都共享一个简单的inode 节点
这样就可以节省内核的内存 , 避免代码 在 file indoe dentry这些结构直接的复制 挂接
int anon_inode_getfd(const char *name, const struct file_operations *fops,
void *priv, int flags)
{
int error, fd;
struct file *file;
error = get_unused_fd_flags(flags);
if (error < 0)
return error;
fd = error;
/*只要知道这里创建了一个fild fd 依附上了一个匿名的static inode 节点 就可以了*/
file = anon_inode_getfile(name, fops, priv, flags);
if (IS_ERR(file)) {
error = PTR_ERR(file);
goto err_put_unused_fd;
}
/*这里用了rcu 锁 就为了把file结构安装在fdtable表上 */
fd_install(fd, file);
return fd;
err_put_unused_fd:
put_unused_fd(fd);
return error;
}
好了 相信大家看了上面的有点晕, 其实很明显, 因为 epoll_create的 描述符 是epoll自己用的, 并没有任何实体对应 ,所以呢 就用了anon_inode_getfd ,所以大家会发现在 proc fd里面会看到一个
annon_inode:[eventpoll] 是不是和上面的入参 很像呢, 哈哈 proc 文件系统就是这个德性
里面的目录阿 ,名字啊 都是跟着内核层次 名字来了 你会越看越熟悉.... (是不是有点废话)
待续.....
相关推荐
4. **Event Loop定时器**:在多路复用I/O模型(如epoll、poll或select)中,定时器通常集成在事件循环中。这些定时器会在指定时间到达时唤醒事件循环,从而触发相应的回调函数。 在实际应用中,开发者需要根据项目...
- **启动系统**:内核最终会调用`start_kernel()`函数,这是内核启动的核心函数。 #### 三、Linux内核启动-BIOS **BIOS的作用**: - **硬件检测**:BIOS负责对计算机的主要硬件进行检测。 - **加载引导程序**:BIOS...
- highly optimised select, poll, epoll, kqueue and event ports backends. - filesystem object (path) watching (with optional linux inotify support). - wallclock-based times (using absolute time, cron-...
2. **Real-Time Posix Timers**:在`<time.h>`头文件中定义,包括`timer_create()`, `timer_settime()`, `timer_gettime()`, 和 `timer_delete()`等函数。这些API提供了更高精度的定时服务,支持实时信号和异步事件...
4. **Event Multiplexing**: Gvisor使用高效的事件多路复用机制(如epoll)来处理容器内的I/O操作,确保高效性能。 5. **资源限制**: Gvisor可以精确地限制容器的CPU、内存和其他资源使用,防止资源耗尽攻击。 6. ...
在Linux上,它支持epoll(Event Poll)机制,这是一种用于I/O事件的通知机制,尤其适合大并发量的服务器。epoll的优势在于它可以实现“边缘触发”模式,即只有当实际数据可读写时才唤醒等待的进程,降低了系统调用的...