`
thrillerzw
  • 浏览: 145190 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

IO多路复用的几种实现机制的分析(转)

 
阅读更多

转:http://blog.csdn.net/zhang_shuai_2011/article/details/7675797

select,poll,epoll都是IO多路复用的机制。所谓I/O多路复用机制,就是说通过一种机制,可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。关于阻塞,非阻塞,同步,异步将在下一篇文章详细说明。

 

select和poll的实现比较相似,目前也有很多为人诟病的缺点,epoll可以说是select和poll的增强版。

一、select实现

1、使用copy_from_user从用户空间拷贝fd_set到内核空间

2、注册回调函数__pollwait

3、遍历所有fd,调用其对应的poll方法(对于socket,这个poll方法是sock_poll,sock_poll根据情况会调用到tcp_poll,udp_poll或者datagram_poll)

4、以tcp_poll为例,其核心实现就是__pollwait,也就是上面注册的回调函数。

5、__pollwait的主要工作就是把current(当前进程)挂到设备的等待队列中,不同的设备有不同的等待队列,对于tcp_poll来说,其等待队列是sk->sk_sleep(注意把进程挂到等待队列中并不代表进程已经睡眠了)。在设备收到一条消息(网络设备)或填写完文件数据(磁盘设备)后,会唤醒设备等待队列上睡眠的进程,这时current便被唤醒了。

6、poll方法返回时会返回一个描述读写操作是否就绪的mask掩码,根据这个mask掩码给fd_set赋值。

7、如果遍历完所有的fd,还没有返回一个可读写的mask掩码,则会调用schedule_timeout是调用select的进程(也就是current)进入睡眠。当设备驱动发生自身资源可读写后,会唤醒其等待队列上睡眠的进程。如果超过一定的超时时间(schedule_timeout指定),还是没人唤醒,则调用select的进程会重新被唤醒获得CPU,进而重新遍历fd,判断有没有就绪的fd。

8、把fd_set从内核空间拷贝到用户空间。

总结:

select的几大缺点:

(1)每次调用select,都需要把fd集合从用户态拷贝到内核态,这个开销在fd很多时会很大

(2)同时每次调用select都需要在内核遍历传递进来的所有fd,这个开销在fd很多时也很大

(3)select支持的文件描述符数量太小了,默认是1024

二、poll实现

poll的实现和select非常相似,只是描述fd集合的方式不同,poll使用pollfd结构而不是select的fd_set结构。其他的都差不多。

 

三、epoll实现

epoll既然是对select和poll的改进,就应该能避免上述的三个缺点。那epoll都是怎么解决的呢?在此之前,我们先看一下epoll和select和poll的调用接口上的不同,select和poll都只提供了一个函数——select或者poll函数。而epoll提供了三个函数,epoll_create,epoll_ctl和epoll_wait,epoll_create是创建一个epoll句柄;epoll_ctl是注册要监听的事件类型;epoll_wait则是等待事件的产生。

 

对于第一个缺点,epoll的解决方案在epoll_ctl函数中。每次注册新的事件到epoll句柄中时(在epoll_ctl中指定EPOLL_CTL_ADD),会把所有的fd拷贝进内核,而不是在epoll_wait的时候重复拷贝。epoll保证了每个fd在整个过程中只会拷贝一次。

对于第二个缺点,epoll的解决方案不像select或poll一样每次都把current轮流加入fd对应的设备等待队列中,而只在epoll_ctl时把current挂一遍(这一遍必不可少)并为每个fd指定一个回调函数,当设备就绪,唤醒等待队列上的等待者时,就会调用这个回调函数,而这个回调函数会把就绪的fd加入一个就绪链表)。epoll_wait的工作实际上就是在这个就绪链表中查看有没有就绪的fd(利用schedule_timeout()实现睡一会,判断一会的效果,和select实现中的第7步是类似的)。

说明一下这个回调机制的原理,其实很简单,看一下select和epoll在把current加入fd对应的设备等待队列时使用的代码:

select:

  1. static void __pollwait(struct file *filp, wait_queue_head_t *wait_address,  
  2.                 poll_table *p)  
  3. {  
  4.     struct poll_table_entry *entry = poll_get_entry(p);  
  5.     if (!entry)  
  6.         return;  
  7.     get_file(filp);  
  8.     entry->filp = filp;  
  9.     entry->wait_address = wait_address;  
  10.     init_waitqueue_entry(&entry->wait, current);  
  11.     add_wait_queue(wait_address, &entry->wait);  
  12. }  

其中init_waitqueue_entry实现如下:

  1. static inline void init_waitqueue_entry(wait_queue_t *q, struct task_struct *p)  
  2. {  
  3.     q->flags = 0;  
  4.     q->private = p;  
  5.     q->func = default_wake_function;  
  6. }  

上面的代码是说建立一个poll_table_entry结构entry,首先把current设置为entry->wait的private成员,同时把default_wake_function设为entry->wait的func成员,然后把entry->wait链入到wait_address中(这个wait_address就是设备的等待队列,在tcp_poll中就是sk_sleep)。

再看一下epoll:

  1. /* 
  2.  * This is the callback that is used to add our wait queue to the 
  3.  * target file wakeup lists. 
  4.  */  
  5. static void ep_ptable_queue_proc(struct file *file, wait_queue_head_t *whead,  
  6.                  poll_table *pt)  
  7. {  
  8.     struct epitem *epi = ep_item_from_epqueue(pt);  
  9.     struct eppoll_entry *pwq;  
  10.   
  11.     if (epi->nwait >= 0 && (pwq = kmem_cache_alloc(pwq_cache, GFP_KERNEL))) {  
  12.         init_waitqueue_func_entry(&pwq->wait, ep_poll_callback);  
  13.         pwq->whead = whead;  
  14.         pwq->base = epi;  
  15.         add_wait_queue(whead, &pwq->wait);  
  16.         list_add_tail(&pwq->llink, &epi->pwqlist);  
  17.         epi->nwait++;  
  18.     } else {  
  19.         /* We have to signal that an error occurred */  
  20.         epi->nwait = -1;  
  21.     }  
  22. }  

其中init_waitqueue_func_entry的实现如下:

  1. static inline void init_waitqueue_func_entry(wait_queue_t *q,  
  2.                     wait_queue_func_t func)  
  3. {  
  4.     q->flags = 0;  
  5.     q->private = NULL;  
  6.     q->func = func;  
  7.  

可以看到,总体和select的实现是类似的,只不过它是创建了一个eppoll_entry结构pwq,只不过pwq->wait的func成员被设置成了回调函数ep_poll_callback(而不是default_wake_function,所以这里并不会有唤醒操作,而只是执行回调函数),private成员被设置成了NULL。最后吧pwq->wait链入到whead中(也就是设备等待队列中)。这样,当设备等待队列中的进程被唤醒时,就会调用ep_poll_callback了。

 

再梳理一下,当epoll_wait时,它会判断就绪链表中有没有就绪的fd,如果没有,则把current进程加入一个等待队列(file->private_data->wq)中,并在一个while(1)循环中判断就绪队列是否为空,并结合schedule_timeout实现睡一会,判断一会的效果。如果current进程在睡眠中,设备就绪了,就会调用回调函数。在回调函数中,会把就绪的fd放入就绪链表,并唤醒等待队列(file->private_data->wq)中的current进程,这样epoll_wait又能继续执行下去了。

对于第三个缺点,epoll没有这个限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子,在1GB内存的机器上大约是10万左右,具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。

总结:

1、select,poll实现需要自己不断轮询所有fd集合,直到设备就绪,期间可能要睡眠和唤醒多次交替。而epoll其实也需要调用epoll_wait不断轮询就绪链表,期间也可能多次睡眠和唤醒交替,但是它是设备就绪时,调用回调函数,把就绪fd放入就绪链表中,并唤醒在epoll_wait中进入睡眠的进程。虽然都要睡眠和交替,但是select和poll在“醒着”的时候要遍历整个fd集合,而epoll在“醒着”的时候只要判断一下就绪链表是否为空就行了,这节省了大量的CPU时间。这就是回调机制带来的性能提升。

2、select,poll每次调用都要把fd集合从用户态往内核态拷贝一次,并且要把current往设备等待队列中挂一次,而epoll只要一次拷贝,而且把current往等待队列上挂也只挂一次(在epoll_wait的开始,注意这里的等待队列并不是设备等待队列,只是一个epoll内部定义的等待队列)。这也能节省不少的开销。

分享到:
评论

相关推荐

    多路复用IO的简单实现

    在Unix/Linux系统中,常见的多路复用IO机制有以下几种: 1. **select**:这是最早出现的多路复用IO机制,它可以监视文件描述符集合,当任意一个描述符准备好时,select函数会返回。不过,select的缺点在于它有一个...

    IO多路复用.md

    通过对同步与异步、阻塞与非阻塞的概念理解,以及对IO多路复用原理的分析,我们可以看到IO多路复用技术在处理大量并发连接方面具有显著的优势。无论是传统的select/poll还是现代的epoll,都能够有效地提高服务器的...

    多进程&多路复用并发的http服务器

    多路复用并发,又称为I/O复用,是一种通过一个或少数几个线程来处理多个连接的技术。在HTTP服务器中,这意味着服务器可以同时监听并处理多个客户端连接,而无需为每个连接创建单独的线程或进程。这种技术通过系统...

    select多路复用实现群聊功能

    本篇将深入探讨如何利用`select`多路复用机制来实现一个高效的群聊功能。 首先,我们要理解`select`函数的工作原理。`select`是Unix/Linux系统提供的一种I/O多路复用机制,它可以同时监视多个文件描述符(FD,如套...

    多路IO复用1

    `select` 是一种常见的多路复用机制,它允许程序监控多个文件描述符,一旦有描述符准备就绪,`select` 就会返回。但是,`select` 有几个限制,例如最多只能监控1024个描述符,而且无法直接定位满足监听条件的描述符...

    iokey.rar_IO复用_Iok_Ioke_复用io_端口复用

    I/O复用是一种多路复用技术,通过一个单一的系统调用就能监控多个文件描述符(FD,File Descriptor),当这些文件描述符中有数据可读或可写时,系统调用会返回,这样就可以避免了进程在没有数据可读或可写时不必要的...

    参考资料-单片机IO口分时复用在键盘和显示电路中的应用.zip

    分时复用,又称时间多路复用,是一种通过快速切换IO口状态来模拟多个独立通道的技术。在键盘和显示电路中,我们可以将一个IO口在不同时间分别配置为键盘扫描线或显示接口,从而实现同时管理多个按键和显示元素。 ...

    网络IO的基本概念以及基础原理

    select是最基本的IO多路复用模型,poll是select的改进版本,epoll是Linux系统下的高性能IO多路复用模型。 IO多路复用 IO多路复用是指使用一个线程来处理多个IO操作。IO多路复用可以提高系统的性能和可靠性。NIO...

    网络编程云词典项目,主要基于TCP通信和sqlite3数据库实现

    然后,当客户端发送查询请求时,服务器通过IO多路复用机制接收并处理请求;接着,服务器从SQLite3数据库中检索相关信息,并将结果返回给客户端;最后,客户端收到结果后,展示给用户。 总结起来,网络编程云词典...

    2个io 实现6个按键检测

    描述中提到的"大大的节省单片机io口",这意味着设计中采用了某种多路复用技术。常见的复用方法有:轮询法、中断驱动法和扫描法。轮询法是最简单的方式,通过循环检查每个按键的状态;中断驱动法则是在每个按键连接到...

    golang将多路复异步io转成阻塞io的方法详解

    3. **IO多路复用**:允许一个单独的线程管理多个文件描述符(例如网络套接字),并通过如`select`、`poll`或`epoll`等机制等待任一描述符变为可读或可写状态。 #### Golang中的IO多路复用与阻塞IO转换 在Golang中,...

    Libevent源码解析.pdf

    Libevent 源码解析 Libevent 是一个高性能的事件驱动库,广泛应用于网络编程和高... Libevent 的架构设计、事件处理机制、Reactor 模式、事件循环、IO 多路复用等方面的知识点,对于理解和使用 Libevent 至关重要。

    RapidIO 4.0协议标准

    - **多路复用技术**:通过多路复用技术提高数据传输效率,支持多个通道同时传输数据。 - **流控机制**:采用先进的流控机制来防止数据丢失和拥塞,确保数据传输的可靠性。 - **服务质量(QoS)**:提供QoS机制来保证...

    Linux IO 之 IO与网络模型.pdf

    I/O 模型可以分为阻塞、非阻塞、多路复用、 Signal IO、异步 IO 等几种类型。不同的 I/O 模型适用于不同的场景,例如阻塞 I/O 模型适用于块设备,而非阻塞 I/O 模型适用于字符设备和网络 socket。 十一、网络模型 ...

    详细介绍IO管理器的一篇报告

    3. **Unix**:Unix系统通常使用select、poll和kqueue等机制来处理多路复用IO。 五、IO管理器的优化策略 1. **零拷贝**:通过避免数据在用户空间和内核空间之间多次拷贝,提高IO性能。 2. **预读取和延迟写入**:...

    Rapid-IO.rar_SRIO_rapdi io 结构_rapid io_rapid_io_srio io

    串行RapidIO(SRIO)支持多路复用,可以同时处理多个数据流,提高了系统的并行处理能力。 2. **层次化结构**: RapidIO网络采用层次化的拓扑结构,包括设备层、交换层和物理层。设备层包含RapidIO设备,如处理器、...

    两个IO控制六个键盘

    这种方法通常基于扫描矩阵或多路复用技术,其中IO口被用作行和列,按键则连接在这两个维度的交叉点上。 首先,我们要理解基础的按键扫描工作原理。在扫描矩阵中,我们可以设置一个IO口为输出,另一个为输入。输出...

    行业分类-设备装置-单IO口同时实现输入输出功能的装置及其实现方法.zip

    3. **多路复用器**:利用多路复用器作为开关,根据需要选择连接输入还是输出。这种方式需要额外的控制信号来切换IO口的功能,但可以节省硬件资源。 4. **软件模拟**:在某些微控制器中,可以通过快速切换IO口的输入...

    11原理 1:鞭辟入里 —— 线程 IO 模型(1).md

    通过以上分析可以看出,线程IO模型的精髓在于非阻塞IO和多路复用技术。这些技术能够让单个线程高效地处理大量的并发IO操作,而不会因为某个操作的阻塞而浪费线程资源。Redis和Node.js等单线程高性能应用正是利用了这...

Global site tag (gtag.js) - Google Analytics