- 浏览: 725384 次
- 性别:
- 来自: 北京
最新评论
-
wxweven:
Surmounting 写道既然 Java 的跳表那么少,我决 ...
SkipList 跳表 -
暮雪云然:
写的不错,很透彻
Java静态内部类 -
bzhao:
好,赞扬!
Linux信号详解 -
jacktao219:
赞一个~! ,现在正在看redis 所以接触到跳表
SkipList 跳表 -
is_leon:
vote--后还要判断是否为0吧,如果为0则废掉重新置位can ...
现在有一个整数数组,已知一个数出现的次数超过了一半,请用O(n)的复杂度的算法找出这个数
在一个非阻塞的socket上调用read/write函数, 返回EAGAIN或者EWOULDBLOCK(注: EAGAIN就是EWOULDBLOCK)
从字面上看, 意思是:
* EAGAIN: 再试一次
* EWOULDBLOCK: 如果这是一个阻塞socket, 操作将被block
* perror输出: Resource temporarily unavailable
总结:
这个错误表示资源暂时不够, 可能read时, 读缓冲区没有数据, 或者, write时,
写缓冲区满了.
遇到这种情况, 如果是阻塞socket, read/write就要阻塞掉.
而如果是非阻塞socket, read/write立即返回-1, 同 时errno设置为EAGAIN.
所以, 对于阻塞socket, read/write返回-1代表网络出错了.
但对于非阻塞socket, read/write返回-1不一定网络真的出错了.
可能是Resource temporarily unavailable. 这时你应该再试, 直到Resource available.
综上, 对于non-blocking的socket, 正确的读写操作为:
读: 忽略掉errno = EAGAIN的错误, 下次继续读
写: 忽略掉errno = EAGAIN的错误, 下次继续写
对于select和epoll的LT模式, 这种读写方式是没有问题的. 但对于epoll的ET模式, 这种方式还有漏洞.
epoll的两种模式 LT 和 ET
二者的差异在于 level-trigger 模式下只要某个 socket 处于 readable/writable 状态,无论什么时候
进行 epoll_wait 都会返回该 socket;而 edge-trigger 模式下只有某个 socket 从 unreadable 变为 readable 或从
unwritable 变为 writable 时,epoll_wait 才会返回该 socket。如下两个示意图:
从socket读数据:
往socket写数据
所以, 在epoll的ET模式下, 正确的读写方式为:
读: 只要可读, 就一直读, 直到返回0, 或者 errno = EAGAIN
写: 只要可写, 就一直写, 直到数据发送完, 或者 errno = EAGAIN
正确的读:
n = 0; while ((nread = read(fd, buf + n, BUFSIZ-1)) > 0) { n += nread; } if (nread == -1 && errno != EAGAIN) { perror("read error"); }
正确的写:
int nwrite, data_size = strlen(buf); n = data_size; while (n > 0) { nwrite = write(fd, buf + data_size - n, n); if (nwrite < n) { if (nwrite == -1 && errno != EAGAIN) { perror("write error"); } break; } n -= nwrite; }
正确的accept,accept 要考虑 2 个问题
(1) 阻塞模式 accept 存在的问题
考虑这种情况: TCP 连接被客户端夭折,即在服务器调用 accept 之前,客户端主动发送 RST 终止
连接,导致刚刚建立的连接从就绪队列中移出,如果套接口被设置成阻塞模式,服务器就会一直阻塞
在 accept 调用上,直到其他某个客户建立一个新的连接为止。但是在此期间,服务器单纯地阻塞在
accept 调用上,就绪队列中的其他描述符都得不到处理.
解决办法是把监听套接口设置为非阻塞,当客户在服务器调用 accept 之前中止某个连接时,accept 调用
可以立即返回 -1, 这时源自 Berkeley 的实现会在内核中处理该事件,并不会将该事件通知给 epool,
而其他实现把 errno 设置为 ECONNABORTED 或者 EPROTO 错误,我们应该忽略这两个错误。
(2) ET 模式下 accept 存在的问题
考虑这种情况:多个连接同时到达,服务器的 TCP 就绪队列瞬间积累多个就绪连接,由于是边缘触发模式,
epoll 只会通知一次,accept 只处理一个连接,导致 TCP 就绪队列中剩下的连接都得不到处理。
解决办法是用 while 循环抱住 accept 调用,处理完 TCP 就绪队列中的所有连接后再退出循环。如何知道
是否处理完就绪队列中的所有连接呢? accept 返回 -1 并且 errno 设置为 EAGAIN 就表示所有连接都处理完。
综合以上两种情况,服务器应该使用非阻塞地 accept, accept 在 ET 模式下 的正确使用方式为:
while ((conn_sock = accept(listenfd,(struct sockaddr *) &remote, (size_t *)&addrlen)) > 0) { handle_client(conn_sock); } if (conn_sock == -1) { if (errno != EAGAIN && errno != ECONNABORTED && errno != EPROTO && errno != EINTR) perror("accept"); }
一道腾讯后台开发的面试题
使用Linux epoll模型,水平触发模式;当socket可写时,会不停的触发 socket 可写的事件,如何处理?
第一种最普遍的方式:
需要向 socket 写数据的时候才把 socket 加入 epoll ,等待可写事件。
接受到可写事件后,调用 write 或者 send 发送数据。。。
当所有数据都写完后,把 socket 移出 epoll。
这种方式的缺点是,即使发送很少的数据,也要把 socket 加入 epoll,写完后在移出 epoll,有一定操作代价。
一种改进的方式:
开始不把 socket 加入 epoll,需要向 socket 写数据的时候,直接调用 write 或者 send 发送数据。
如果返回 EAGAIN,把 socket 加入 epoll,在 epoll 的驱动下写数据,全部数据发送完毕后,再移出 epoll。
这种方式的优点是:数据不多的时候可以避免 epoll 的事件处理,提高效率。
最后贴一个使用epoll, ET模式的简单HTTP服务器代码:
#include <sys/socket.h> #include <sys/wait.h> #include <netinet/in.h> #include <netinet/tcp.h> #include <sys/epoll.h> #include <sys/sendfile.h> #include <sys/stat.h> #include <unistd.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <strings.h> #include <fcntl.h> #include <errno.h> #define MAX_EVENTS 10 #define PORT 8080 //设置socket连接为非阻塞模式 void setnonblocking(int sockfd) { int opts; opts = fcntl(sockfd, F_GETFL); if(opts < 0) { perror("fcntl(F_GETFL)\n"); exit(1); } opts = (opts | O_NONBLOCK); if(fcntl(sockfd, F_SETFL, opts) < 0) { perror("fcntl(F_SETFL)\n"); exit(1); } } int main(){ struct epoll_event ev, events[MAX_EVENTS]; int addrlen, listenfd, conn_sock, nfds, epfd, fd, i, nread, n; struct sockaddr_in local, remote; char buf[BUFSIZ]; //创建listen socket if( (listenfd = socket(AF_INET, SOCK_STREAM, 0)) < 0) { perror("sockfd\n"); exit(1); } setnonblocking(listenfd); bzero(&local, sizeof(local)); local.sin_family = AF_INET; local.sin_addr.s_addr = htonl(INADDR_ANY);; local.sin_port = htons(PORT); if( bind(listenfd, (struct sockaddr *) &local, sizeof(local)) < 0) { perror("bind\n"); exit(1); } listen(listenfd, 20); epfd = epoll_create(MAX_EVENTS); if (epfd == -1) { perror("epoll_create"); exit(EXIT_FAILURE); } ev.events = EPOLLIN; ev.data.fd = listenfd; if (epoll_ctl(epfd, EPOLL_CTL_ADD, listenfd, &ev) == -1) { perror("epoll_ctl: listen_sock"); exit(EXIT_FAILURE); } for (;;) { nfds = epoll_wait(epfd, events, MAX_EVENTS, -1); if (nfds == -1) { perror("epoll_pwait"); exit(EXIT_FAILURE); } for (i = 0; i < nfds; ++i) { fd = events[i].data.fd; if (fd == listenfd) { while ((conn_sock = accept(listenfd,(struct sockaddr *) &remote, (size_t *)&addrlen)) > 0) { setnonblocking(conn_sock); ev.events = EPOLLIN | EPOLLET; ev.data.fd = conn_sock; if (epoll_ctl(epfd, EPOLL_CTL_ADD, conn_sock, &ev) == -1) { perror("epoll_ctl: add"); exit(EXIT_FAILURE); } } if (conn_sock == -1) { if (errno != EAGAIN && errno != ECONNABORTED && errno != EPROTO && errno != EINTR) perror("accept"); } continue; } if (events[i].events & EPOLLIN) { n = 0; while ((nread = read(fd, buf + n, BUFSIZ-1)) > 0) { n += nread; } if (nread == -1 && errno != EAGAIN) { perror("read error"); } ev.data.fd = fd; ev.events = events[i].events | EPOLLOUT; if (epoll_ctl(epfd, EPOLL_CTL_MOD, fd, &ev) == -1) { perror("epoll_ctl: mod"); } } if (events[i].events & EPOLLOUT) { sprintf(buf, "HTTP/1.1 200 OK\r\nContent-Length: %d\r\n\r\nHello World", 11); int nwrite, data_size = strlen(buf); n = data_size; while (n > 0) { nwrite = write(fd, buf + data_size - n, n); if (nwrite < n) { if (nwrite == -1 && errno != EAGAIN) { perror("write error"); } break; } n -= nwrite; } close(fd); } } } return 0; }
发表评论
-
Virtualbox下Windows和Linux实现文件互传
2012-07-17 21:05 33901 Windows安装好Linux虚拟机 2 在Lin ... -
Memcached源码分析之网络模型篇
2012-03-02 01:46 4147memcached 采用多线程的工作方式, 主线程接收连接, ... -
Memcached源码分析之内存管理篇
2012-02-26 15:04 12084使用命令 set(key, value) ... -
多线程与volatile变量
2012-02-25 17:07 5430volatile 修饰的变量表示改变量的值是易变的,编译 ... -
items
2011-11-12 19:30 71 上肢长 2 上臂长 ... -
fds
2011-11-12 19:23 10身高(静态) 眼高 ... -
xml
2011-11-12 18:58 7<item idx = "1" ... -
fff
2011-11-12 18:30 8上肢长 上臂长 两下颌角宽 两眼内宽 两耳屏点间 ... -
(转) memcached采用的网络模型
2011-10-12 01:58 12memcached采用的网络模型 ... -
Nginx 内存池
2011-10-12 01:46 7nginx的内存管理,主要是用来实现防止内存泄露,和内存碎片, ... -
Nginx负载均衡
2011-10-12 01:40 10nginx的upstream目前支持5种方式的分配 ... -
守护进程的实现
2011-09-30 01:43 18506个步骤 步骤1:创建子进程,杀死父进程,目的是为了步 ... -
非阻塞connect的实现
2011-09-30 01:12 14800步骤1: 设置非阻塞,启动连接 实现非阻塞 connect ... -
Memcached内存管理机制
2011-09-29 20:57 2359Slab 分配机制 Memcache ... -
关于大端法和小端法
2011-09-28 23:15 2358typedef union { int n; ... -
vim配置文件精简版
2011-09-19 09:37 1954"Get out of VI's compatibl ... -
(转) Linux 的僵尸(zombie)进程
2011-09-17 20:29 3208原文地址: http://cool ... -
Linux信号详解
2011-09-17 01:02 36367一 信号的种类 可靠信号与不可靠信号, 实时信号与非实时信号 ... -
消息队列
2011-09-15 22:16 12244一 应用场景 有很多业务, 客户端和内网都要进行数据传 ... -
vim + taglist + ctags + cscope 简单使用
2011-09-08 21:58 3565ctags用来跳转, taglist用来列出当前文件的变量, ...
相关推荐
- **灵活的触发模式**:epoll 支持两种触发模式:边缘触发 (Edge Triggered, ET) 和电平触发 (Level Triggered, LT)。ET 模式下,只有当文件描述符状态改变时才会收到通知,而 LT 模式则会一直保持通知状态直到被...
EPOLL的核心思想是基于边缘触发(Edge Triggered, ET)和水平触发(Level Triggered, LT)两种模式,以及它所使用的红黑树数据结构,这使得EPOLL在处理大量文件描述符时表现更优。 1. **EPOLL的工作原理**: - **...
本文将深入解析epoll的两种触发模式:水平触发(Level Triggered, LT)和边缘触发(Edge Triggered, ET),以及这两种触发模式在阻塞与非阻塞I/O下的行为,并通过代码示例进行验证。 **一、基本概念** 1. **水平...
`epoll`有两种工作模式:`LT`(水平触发)和`ET`(边缘触发)。`LT`模式下,只要文件描述符就绪就会一直返回,直到被读取或写入。而`ET`模式仅在描述符状态发生变化时返回一次,更适合高并发场景。 三、epoll的核心...
epoll的一个关键优势是其“边缘触发”(ET)模式,与传统的“水平触发”(LT)模式相比,ET模式在事件发生后仅触发一次,减少了重复通知,提高了效率。另外,epoll支持“one-shot”模式,只需处理一次事件后,文件...
epoll有三种工作模式:LT(Level Triggered)模式、ET(Edge Triggered)模式和单线程模式。LT模式下,当一个文件描述符就绪时,epoll_wait会一直返回该描述符,直到该描述符被读取或写入。ET模式则只在事件发生时...
在处理客户端连接时,根据所选模式进行相应的数据读写处理,确保在 ET 模式下正确处理剩余数据,而在 LT 模式下则尽可能地读写,直到没有更多的数据。 总结起来,`epoll` 的边缘触发和水平触发模式各有优缺点。ET ...
由于`epoll`采用“边缘触发”(ET)模式,只有在文件描述符状态发生变化时才会触发事件,减少了不必要的系统调用。此外,`epoll`支持水平触发(LT)模式,可根据需求选择合适的触发模式。通过将大量文件描述符集中...
Epoll采用“边缘触发”(Edge Triggered, ET)和“水平触发”(Level Triggered, LT)两种模式,以及“多路复用I/O”(IO Multiplexing)策略,显著减少了系统调用的次数,从而提高了效率。 Epoll的核心操作有`...
在ET模式下,一旦事件被处理,即使数据未完全读写完,内核也不会再次报告该事件,直到文件描述符状态改变(例如,更多数据到来或写缓冲区空出)。 - **水平触发(Level-Triggered, LT)**:只要文件描述符保持就绪...
在ET模式下,只有当文件描述符状态发生变化时,`epoll_wait`才会返回;而在LT模式下,只要文件描述符上有未处理的事件,`epoll_wait`就会返回。这种机制大大减少了无谓的轮询,提高了系统效率。 接下来,`epoll`的...
2. **边缘触发(Edge Triggered, ET)**: 与水平触发(Level Triggered, LT)相比,ET仅在事件发生时唤醒,避免了重复读取已处理的事件,提高了效率。 3. **批量操作**: epoll_wait可以一次性返回多个就绪事件,减少了...
Epoll提供了“边缘触发”(ET)和“水平触发”(LT)两种模式,以及“事件就绪通知”的概念,使得它在处理大量并发连接时表现更优。相比于select和poll只能通过轮询检查每个文件描述符的状态,Epoll可以注册文件描述符,...
1. **效率提升**:epoll采用“事件驱动”的方式,相比于传统的select和poll,它避免了对大量文件描述符的轮询检查,从而提高了系统在处理大量连接时的效率。 2. **无限制数量**:epoll没有最大文件描述符限制,可以...
`epoll`通过边缘触发(ET)和水平触发(LT)两种模式,以及内核与用户空间的数据共享,显著提升了处理大量并发连接的能力。 标题中的“linux下高并发epoll接受”指的是在Linux系统中利用epoll来处理高并发的网络...
1. `epoll`的工作原理:`epoll`采用“红黑树”数据结构存储文件描述符,当有事件发生时,使用“LT”(水平触发)或“ET”(边缘触发)模式通知应用程序。这种设计使得添加、删除和检查文件描述符的复杂度都为O(1)。 ...
- 边缘触发(ET)模式:相比于水平触发(LT)模式,ET模式在事件发生后只通知一次,减少了重复通知的开销。 - one-shot模式:事件发生后自动从`epoll`中移除,减少不必要的监控。 总结,`epoll`是Linux下进行高...
4. **水平触发和边缘触发**:epoll支持两种触发模式,水平触发(LT)和边缘触发(ET),边缘触发避免了重复读写,提高效率。 ### 二、epoll工作流程 1. **创建epoll实例**:通过调用`epoll_create1()`函数创建...
如果我们只读取了1KB数据,然后再次调用Epoll_wait,在ET模式下,由于没有新数据到来,Epoll_wait不会返回任何事件。而在LT模式下,由于仍有数据未读取,Epoll_wait将再次返回RFD。 总的来说,Epoll通过其高效的...