`
kenby
  • 浏览: 725384 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

epoll在LT和ET模式下的读写方式

 
阅读更多

在一个非阻塞的socket上调用read/write函数, 返回EAGAIN或者EWOULDBLOCK(注: EAGAIN就是EWOULDBLOCK)

从字面上看, 意思是:


* EAGAIN: 再试一次

* EWOULDBLOCK: 如果这是一个阻塞socket, 操作将被block

* perror输出:  Resource temporarily unavailable


总结:

这个错误表示资源暂时不够, 可能read时, 读缓冲区没有数据, 或者, write时,

写缓冲区满了.  

遇到这种情况, 如果是阻塞socket, read/write就要阻塞掉.

而如果是非阻塞socket, read/write立即返回-1, 同 时errno设置为EAGAIN.

所以, 对于阻塞socket, read/write返回-1代表网络出错了.

但对于非阻塞socket, read/write返回-1不一定网络真的出错了.

可能是Resource temporarily unavailable. 这时你应该再试, 直到Resource available.

 

综上, 对于non-blocking的socket,  正确的读写操作为:

读: 忽略掉errno = EAGAIN的错误, 下次继续读 

写: 忽略掉errno = EAGAIN的错误, 下次继续写 

 

对于select和epoll的LT模式, 这种读写方式是没有问题的. 但对于epoll的ET模式, 这种方式还有漏洞.

 

epoll的两种模式 LT 和 ET

二者的差异在于 level-trigger 模式下只要某个 socket 处于 readable/writable 状态,无论什么时候

进行 epoll_wait 都会返回该 socket;而 edge-trigger 模式下只有某个 socket 从 unreadable 变为 readable 或从

unwritable 变为 writable 时,epoll_wait 才会返回该 socket。如下两个示意图:

从socket读数据:

 

 

 

往socket写数据

所以, 在epoll的ET模式下, 正确的读写方式为:

读: 只要可读, 就一直读, 直到返回0, 或者 errno = EAGAIN

写: 只要可写, 就一直写, 直到数据发送完, 或者 errno = EAGAIN

 

正确的读:

 

n = 0;
while ((nread = read(fd, buf + n, BUFSIZ-1)) > 0) {
    n += nread;
}
if (nread == -1 && errno != EAGAIN) {
    perror("read error");
}

 正确的写:

 

int nwrite, data_size = strlen(buf);
n = data_size;
while (n > 0) {
    nwrite = write(fd, buf + data_size - n, n);
    if (nwrite < n) {
        if (nwrite == -1 && errno != EAGAIN) {
            perror("write error");
        }
        break;
    }
    n -= nwrite;
}

 

正确的accept,accept 要考虑 2 个问题

(1) 阻塞模式 accept 存在的问题

考虑这种情况: TCP 连接被客户端夭折,即在服务器调用 accept 之前,客户端主动发送 RST 终止

连接,导致刚刚建立的连接从就绪队列中移出,如果套接口被设置成阻塞模式,服务器就会一直阻塞

在 accept 调用上,直到其他某个客户建立一个新的连接为止。但是在此期间,服务器单纯地阻塞在

accept 调用上,就绪队列中的其他描述符都得不到处理.

 

解决办法是把监听套接口设置为非阻塞,当客户在服务器调用 accept 之前中止某个连接时,accept 调用

可以立即返回 -1, 这时源自 Berkeley 的实现会在内核中处理该事件,并不会将该事件通知给 epool,

而其他实现把 errno 设置为 ECONNABORTED 或者 EPROTO 错误,我们应该忽略这两个错误。

 

(2) ET 模式下 accept 存在的问题

考虑这种情况:多个连接同时到达,服务器的 TCP 就绪队列瞬间积累多个就绪连接,由于是边缘触发模式,

 epoll 只会通知一次,accept 只处理一个连接,导致 TCP 就绪队列中剩下的连接都得不到处理。

 

 解决办法是用 while 循环抱住 accept 调用,处理完 TCP 就绪队列中的所有连接后再退出循环。如何知道

 是否处理完就绪队列中的所有连接呢? accept  返回 -1 并且 errno 设置为 EAGAIN 就表示所有连接都处理完。

 

综合以上两种情况,服务器应该使用非阻塞地 accept, accept 在 ET 模式下 的正确使用方式为:

 

                while ((conn_sock = accept(listenfd,(struct sockaddr *) &remote, 
                                (size_t *)&addrlen)) > 0) {
                    handle_client(conn_sock);
                }
                if (conn_sock == -1) {
                    if (errno != EAGAIN && errno != ECONNABORTED 
                            && errno != EPROTO && errno != EINTR) 
                        perror("accept");
                }

 

 

一道腾讯后台开发的面试题

使用Linux epoll模型,水平触发模式;当socket可写时,会不停的触发 socket 可写的事件,如何处理?

 

第一种最普遍的方式:

需要向 socket 写数据的时候才把 socket 加入 epoll ,等待可写事件。

接受到可写事件后,调用 write 或者 send 发送数据。。。

当所有数据都写完后,把 socket 移出 epoll。

 

这种方式的缺点是,即使发送很少的数据,也要把 socket 加入 epoll,写完后在移出 epoll,有一定操作代价。

 

一种改进的方式:

开始不把 socket 加入 epoll,需要向 socket 写数据的时候,直接调用 write 或者 send 发送数据。

如果返回 EAGAIN,把 socket 加入 epoll,在 epoll 的驱动下写数据,全部数据发送完毕后,再移出 epoll。

 

这种方式的优点是:数据不多的时候可以避免 epoll 的事件处理,提高效率。

 

 

 

最后贴一个使用epoll, ET模式的简单HTTP服务器代码:

 

#include <sys/socket.h>
#include <sys/wait.h>
#include <netinet/in.h>
#include <netinet/tcp.h>
#include <sys/epoll.h>
#include <sys/sendfile.h>
#include <sys/stat.h>
#include <unistd.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <strings.h>
#include <fcntl.h>
#include <errno.h> 

#define MAX_EVENTS 10
#define PORT 8080

//设置socket连接为非阻塞模式
void setnonblocking(int sockfd) {
    int opts;

    opts = fcntl(sockfd, F_GETFL);
    if(opts < 0) {
        perror("fcntl(F_GETFL)\n");
        exit(1);
    }
    opts = (opts | O_NONBLOCK);
    if(fcntl(sockfd, F_SETFL, opts) < 0) {
        perror("fcntl(F_SETFL)\n");
        exit(1);
    }
}

int main(){
    struct epoll_event ev, events[MAX_EVENTS];
    int addrlen, listenfd, conn_sock, nfds, epfd, fd, i, nread, n;
    struct sockaddr_in local, remote;
    char buf[BUFSIZ];

    //创建listen socket
    if( (listenfd = socket(AF_INET, SOCK_STREAM, 0)) < 0) {
        perror("sockfd\n");
        exit(1);
    }
    setnonblocking(listenfd);
    bzero(&local, sizeof(local));
    local.sin_family = AF_INET;
    local.sin_addr.s_addr = htonl(INADDR_ANY);;
    local.sin_port = htons(PORT);
    if( bind(listenfd, (struct sockaddr *) &local, sizeof(local)) < 0) {
        perror("bind\n");
        exit(1);
    }
    listen(listenfd, 20);

    epfd = epoll_create(MAX_EVENTS);
    if (epfd == -1) {
        perror("epoll_create");
        exit(EXIT_FAILURE);
    }

    ev.events = EPOLLIN;
    ev.data.fd = listenfd;
    if (epoll_ctl(epfd, EPOLL_CTL_ADD, listenfd, &ev) == -1) {
        perror("epoll_ctl: listen_sock");
        exit(EXIT_FAILURE);
    }

    for (;;) {
        nfds = epoll_wait(epfd, events, MAX_EVENTS, -1);
        if (nfds == -1) {
            perror("epoll_pwait");
            exit(EXIT_FAILURE);
        }

        for (i = 0; i < nfds; ++i) {
            fd = events[i].data.fd;
            if (fd == listenfd) {
                while ((conn_sock = accept(listenfd,(struct sockaddr *) &remote, 
                                (size_t *)&addrlen)) > 0) {
                    setnonblocking(conn_sock);
                    ev.events = EPOLLIN | EPOLLET;
                    ev.data.fd = conn_sock;
                    if (epoll_ctl(epfd, EPOLL_CTL_ADD, conn_sock,
                                &ev) == -1) {
                        perror("epoll_ctl: add");
                        exit(EXIT_FAILURE);
                    }
                }
                if (conn_sock == -1) {
                    if (errno != EAGAIN && errno != ECONNABORTED 
                            && errno != EPROTO && errno != EINTR) 
                        perror("accept");
                }
                continue;
            }  
            if (events[i].events & EPOLLIN) {
                n = 0;
                while ((nread = read(fd, buf + n, BUFSIZ-1)) > 0) {
                    n += nread;
                }
                if (nread == -1 && errno != EAGAIN) {
                    perror("read error");
                }
                ev.data.fd = fd;
                ev.events = events[i].events | EPOLLOUT;
                if (epoll_ctl(epfd, EPOLL_CTL_MOD, fd, &ev) == -1) {
                    perror("epoll_ctl: mod");
                }
            }
            if (events[i].events & EPOLLOUT) {
                sprintf(buf, "HTTP/1.1 200 OK\r\nContent-Length: %d\r\n\r\nHello World", 11);
                int nwrite, data_size = strlen(buf);
                n = data_size;
                while (n > 0) {
                    nwrite = write(fd, buf + data_size - n, n);
                    if (nwrite < n) {
                        if (nwrite == -1 && errno != EAGAIN) {
                            perror("write error");
                        }
                        break;
                    }
                    n -= nwrite;
                }
                close(fd);
            }
        }
    }

    return 0;
}
  • 大小: 16.4 KB
  • 大小: 16.3 KB
分享到:
评论

相关推荐

    linux下epoll网络模型介绍

    - **灵活的触发模式**:epoll 支持两种触发模式:边缘触发 (Edge Triggered, ET) 和电平触发 (Level Triggered, LT)。ET 模式下,只有当文件描述符状态改变时才会收到通知,而 LT 模式则会一直保持通知状态直到被...

    EPOLL多线程TCP服务器

    EPOLL的核心思想是基于边缘触发(Edge Triggered, ET)和水平触发(Level Triggered, LT)两种模式,以及它所使用的红黑树数据结构,这使得EPOLL在处理大量文件描述符时表现更优。 1. **EPOLL的工作原理**: - **...

    实例浅析epoll的水平触发和边缘触发,以及边缘触发为什么要使用非阻塞IO 1

    本文将深入解析epoll的两种触发模式:水平触发(Level Triggered, LT)和边缘触发(Edge Triggered, ET),以及这两种触发模式在阻塞与非阻塞I/O下的行为,并通过代码示例进行验证。 **一、基本概念** 1. **水平...

    linux下的epoll服务程序实例

    `epoll`有两种工作模式:`LT`(水平触发)和`ET`(边缘触发)。`LT`模式下,只要文件描述符就绪就会一直返回,直到被读取或写入。而`ET`模式仅在描述符状态发生变化时返回一次,更适合高并发场景。 三、epoll的核心...

    linux epoll 的实现

    epoll的一个关键优势是其“边缘触发”(ET)模式,与传统的“水平触发”(LT)模式相比,ET模式在事件发生后仅触发一次,减少了重复通知,提高了效率。另外,epoll支持“one-shot”模式,只需处理一次事件后,文件...

    自己封装的epoll事件驱动模型

    epoll有三种工作模式:LT(Level Triggered)模式、ET(Edge Triggered)模式和单线程模式。LT模式下,当一个文件描述符就绪时,epoll_wait会一直返回该描述符,直到该描述符被读取或写入。ET模式则只在事件发生时...

    epoll 的事件模型 实例

    在处理客户端连接时,根据所选模式进行相应的数据读写处理,确保在 ET 模式下正确处理剩余数据,而在 LT 模式下则尽可能地读写,直到没有更多的数据。 总结起来,`epoll` 的边缘触发和水平触发模式各有优缺点。ET ...

    linux下epoll示例程序

    由于`epoll`采用“边缘触发”(ET)模式,只有在文件描述符状态发生变化时才会触发事件,减少了不必要的系统调用。此外,`epoll`支持水平触发(LT)模式,可根据需求选择合适的触发模式。通过将大量文件描述符集中...

    socket epoll

    Epoll采用“边缘触发”(Edge Triggered, ET)和“水平触发”(Level Triggered, LT)两种模式,以及“多路复用I/O”(IO Multiplexing)策略,显著减少了系统调用的次数,从而提高了效率。 Epoll的核心操作有`...

    epoll完整源代码实例。

    在ET模式下,一旦事件被处理,即使数据未完全读写完,内核也不会再次报告该事件,直到文件描述符状态改变(例如,更多数据到来或写缓冲区空出)。 - **水平触发(Level-Triggered, LT)**:只要文件描述符保持就绪...

    网络编程epoll模型

    在ET模式下,只有当文件描述符状态发生变化时,`epoll_wait`才会返回;而在LT模式下,只要文件描述符上有未处理的事件,`epoll_wait`就会返回。这种机制大大减少了无谓的轮询,提高了系统效率。 接下来,`epoll`的...

    epoll_高并发socket通讯_

    2. **边缘触发(Edge Triggered, ET)**: 与水平触发(Level Triggered, LT)相比,ET仅在事件发生时唤醒,避免了重复读取已处理的事件,提高了效率。 3. **批量操作**: epoll_wait可以一次性返回多个就绪事件,减少了...

    Linux环境下Epoll系统调用实现web服务器并发工作

    Epoll提供了“边缘触发”(ET)和“水平触发”(LT)两种模式,以及“事件就绪通知”的概念,使得它在处理大量并发连接时表现更优。相比于select和poll只能通过轮询检查每个文件描述符的状态,Epoll可以注册文件描述符,...

    epoll文档.zip

    1. **效率提升**:epoll采用“事件驱动”的方式,相比于传统的select和poll,它避免了对大量文件描述符的轮询检查,从而提高了系统在处理大量连接时的效率。 2. **无限制数量**:epoll没有最大文件描述符限制,可以...

    linux 下高并发epoll接受 多线程回调

    `epoll`通过边缘触发(ET)和水平触发(LT)两种模式,以及内核与用户空间的数据共享,显著提升了处理大量并发连接的能力。 标题中的“linux下高并发epoll接受”指的是在Linux系统中利用epoll来处理高并发的网络...

    linux epoll代码

    1. `epoll`的工作原理:`epoll`采用“红黑树”数据结构存储文件描述符,当有事件发生时,使用“LT”(水平触发)或“ET”(边缘触发)模式通知应用程序。这种设计使得添加、删除和检查文件描述符的复杂度都为O(1)。 ...

    linux_epoll

    - 边缘触发(ET)模式:相比于水平触发(LT)模式,ET模式在事件发生后只通知一次,减少了重复通知的开销。 - one-shot模式:事件发生后自动从`epoll`中移除,减少不必要的监控。 总结,`epoll`是Linux下进行高...

    epoll服务器

    4. **水平触发和边缘触发**:epoll支持两种触发模式,水平触发(LT)和边缘触发(ET),边缘触发避免了重复读写,提高效率。 ### 二、epoll工作流程 1. **创建epoll实例**:通过调用`epoll_create1()`函数创建...

    Epoll模型详解.pdf

    如果我们只读取了1KB数据,然后再次调用Epoll_wait,在ET模式下,由于没有新数据到来,Epoll_wait不会返回任何事件。而在LT模式下,由于仍有数据未读取,Epoll_wait将再次返回RFD。 总的来说,Epoll通过其高效的...

Global site tag (gtag.js) - Google Analytics