`

Epoll两种模式浅析(ET or LT)

阅读更多

linux异步IO浅析 
http://hi.baidu.com/_kouu/blog/item/e225f67b337841f42f73b341.html 

epoll有两种模式,Edge Triggered(简称ET) 和 Level Triggered(简称LT).在采用这两种模式时要注意的是,如果采用ET模式,那么仅当状态发生变化时才会通知,而采用LT模式类似于原来的select/poll操作,只要还有没有处理的事件就会一直通知. 

以代码来说明问题: 
首先给出server的代码,需要说明的是每次accept的连接,加入可读集的时候采用的都是ET模式,而且接收缓冲区是5字节的,也就是每次只接收5字节的数据: 

Java代码  收藏代码
  1. #include <iostream>  
  2. #include <sys/socket.h>  
  3. #include <sys/epoll.h>  
  4. #include <netinet/in.h>  
  5. #include <arpa/inet.h>  
  6. #include <fcntl.h>  
  7. #include <unistd.h>  
  8. #include <stdio.h>  
  9. #include <errno.h>  
  10.   
  11. using namespace std;  
  12.   
  13. #define MAXLINE 5  
  14. #define OPEN_MAX 100  
  15. #define LISTENQ 20  
  16. #define SERV_PORT 5000  
  17. #define INFTIM 1000  
  18.   
  19. void setnonblocking(int sock)  
  20. {  
  21.     int opts;  
  22.     opts=fcntl(sock,F_GETFL);  
  23.     if(opts<0)  
  24.     {  
  25.         perror("fcntl(sock,GETFL)");  
  26.         exit(1);  
  27.     }  
  28.     opts = opts|O_NONBLOCK;  
  29.     if(fcntl(sock,F_SETFL,opts)<0)  
  30.     {  
  31.         perror("fcntl(sock,SETFL,opts)");  
  32.         exit(1);  
  33.     }     
  34. }  
  35.   
  36. int main()  
  37. {  
  38.     int i, maxi, listenfd, connfd, sockfd,epfd,nfds;  
  39.     ssize_t n;  
  40.     char line[MAXLINE];  
  41.     socklen_t clilen;  
  42.     //声明epoll_event结构体的变量,ev用于注册事件,数组用于回传要处理的事件  
  43.     struct epoll_event ev,events[20];  
  44.     //生成用于处理accept的epoll专用的文件描述符  
  45.     epfd=epoll_create(256);  
  46.     struct sockaddr_in clientaddr;  
  47.     struct sockaddr_in serveraddr;  
  48.     listenfd = socket(AF_INET, SOCK_STREAM, 0);  
  49.     //把socket设置为非阻塞方式  
  50.     //setnonblocking(listenfd);  
  51.     //设置与要处理的事件相关的文件描述符  
  52.     ev.data.fd=listenfd;  
  53.     //设置要处理的事件类型  
  54.     ev.events=EPOLLIN|EPOLLET;  
  55.     //ev.events=EPOLLIN;  
  56.     //注册epoll事件  
  57.     epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);  
  58.     bzero(&serveraddr, sizeof(serveraddr));  
  59.     serveraddr.sin_family = AF_INET;  
  60.     char *local_addr="127.0.0.1";  
  61.     inet_aton(local_addr,&(serveraddr.sin_addr));//htons(SERV_PORT);  
  62.     serveraddr.sin_port=htons(SERV_PORT);  
  63.     bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));  
  64.     listen(listenfd, LISTENQ);  
  65.     maxi = 0;  
  66.     for ( ; ; ) {  
  67.         //等待epoll事件的发生  
  68.         nfds=epoll_wait(epfd,events,20,500);  
  69.         //处理所发生的所有事件       
  70.         for(i=0;i<nfds;++i)  
  71.         {  
  72.             if(events[i].data.fd==listenfd)  
  73.             {  
  74.                 connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen);  
  75.                 if(connfd<0){  
  76.                     perror("connfd<0");  
  77.                     exit(1);  
  78.                 }  
  79.                 //setnonblocking(connfd);  
  80.                 char *str = inet_ntoa(clientaddr.sin_addr);  
  81.                 cout << "accapt a connection from " << str << endl;  
  82.                 //设置用于读操作的文件描述符  
  83.                 ev.data.fd=connfd;  
  84.                 //设置用于注测的读操作事件  
  85.                 ev.events=EPOLLIN|EPOLLET;  
  86.                 //ev.events=EPOLLIN;  
  87.                 //注册ev  
  88.                 epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);  
  89.             }  
  90.             else if(events[i].events&EPOLLIN)  
  91.             {  
  92.                 cout << "EPOLLIN" << endl;  
  93.                 if ( (sockfd = events[i].data.fd) < 0)   
  94.                     continue;  
  95.                 if ( (n = read(sockfd, line, MAXLINE)) < 0) {  
  96.                     if (errno == ECONNRESET) {  
  97.                         close(sockfd);  
  98.                         events[i].data.fd = -1;  
  99.                     } else  
  100.                         std::cout<<"readline error"<<std::endl;  
  101.                 } else if (n == 0) {  
  102.                     close(sockfd);  
  103.                     events[i].data.fd = -1;  
  104.                 }  
  105.                 line[n] = '\0';  
  106.                 cout << "read " << line << endl;  
  107.                 //设置用于写操作的文件描述符  
  108.                 ev.data.fd=sockfd;  
  109.                 //设置用于注测的写操作事件  
  110.                 ev.events=EPOLLOUT|EPOLLET;  
  111.                 //修改sockfd上要处理的事件为EPOLLOUT  
  112.                 //epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);  
  113.             }  
  114.             else if(events[i].events&EPOLLOUT)  
  115.             {     
  116.                 sockfd = events[i].data.fd;  
  117.                 write(sockfd, line, n);  
  118.                 //设置用于读操作的文件描述符  
  119.                 ev.data.fd=sockfd;  
  120.                 //设置用于注测的读操作事件  
  121.                 ev.events=EPOLLIN|EPOLLET;  
  122.                 //修改sockfd上要处理的事件为EPOLIN  
  123.                 epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);  
  124.             }  
  125.         }  
  126.     }  
  127.     return 0;  
  128. }  



下面给出测试所用的Perl写的client端,在client中发送10字节的数据,同时让client在发送完数据之后进入死循环, 也就是在发送完之后连接的状态不发生改变--既不再发送数据, 也不关闭连接,这样才能观察出server的状态: 

Java代码  收藏代码
  1. #!/usr/bin/perl  
  2.   
  3. use IO::Socket;  
  4.   
  5. my $host = "127.0.0.1";  
  6. my $port = 5000;  
  7.   
  8. my $socket = IO::Socket::INET->new("$host:$port") or die "create socket error $@";  
  9. my $msg_out = "1234567890";  
  10. print $socket $msg_out;  
  11. print "now send over, go to sleep \n";  
  12.   
  13. while (1)  
  14. {  
  15.     sleep(1);  
  16. }  


运行server和client发现,server仅仅读取了5字节的数据,而client其实发送了10字节的数据,也就是说,server仅当第一次监听到了EPOLLIN事件,由于没有读取完数据,而且采用的是ET模式,状态在此之后不发生变化,因此server再也接收不到EPOLLIN事件了. 
(友情提示:上面的这个测试客户端,当你关闭它的时候会再次出发IO可读事件给server,此时server就会去读取剩下的5字节数据了,但是这一事件与前面描述的ET性质并不矛盾.) 

如果我们把client改为这样: 

Java代码  收藏代码
  1. #!/usr/bin/perl  
  2.   
  3. use IO::Socket;  
  4.   
  5. my $host = "127.0.0.1";  
  6. my $port = 5000;  
  7.   
  8. my $socket = IO::Socket::INET->new("$host:$port") or die "create socket error $@";  
  9. my $msg_out = "1234567890";  
  10. print $socket $msg_out;  
  11. print "now send over, go to sleep \n";  
  12. sleep(5);  
  13. print "5 second gone send another line\n";  
  14. print $socket $msg_out;  
  15.   
  16. while (1)  
  17. {  
  18.     sleep(1);  
  19. }  



可以发现,在server接收完5字节的数据之后一直监听不到client的事件,而当client休眠5秒之后重新发送数据,server再次监听到了变化,只不过因为只是读取了5个字节,仍然有10个字节的数据(client第二次发送的数据)没有接收完. 

如果上面的实验中,对accept的socket都采用的是LT模式,那么只要还有数据留在buffer中,server就会继续得到通知,读者可以自行改动代码进行实验. 

基于这两个实验,可以得出这样的结论:ET模式仅当状态发生变化的时候才获得通知,这里所谓的状态的变化并不包括缓冲区中还有未处理的数据,也就是说,如果要采用ET模式,需要一直read/write直到出错为止,很多人反映为什么采用ET模式只接收了一部分数据就再也得不到通知了,大多因为这样;而LT模式是只要有数据没有处理就会一直通知下去的. 
补充说明一下这里一直强调的"状态变化"是什么: 

1)对于监听可读事件时,如果是socket是监听socket,那么当有新的主动连接到来为状态发生变化;对一般的socket而言,协议栈中相应的缓冲区有新的数据为状态发生变化.但是,如果在一个时间同时接收了N个连接(N>1),但是监听socket只accept了一个连接,那么其它未 accept的连接将不会在ET模式下给监听socket发出通知,此时状态不发生变化;对于一般的socket,就如例子中而言,如果对应的缓冲区本身已经有了N字节的数据,而只取出了小于N字节的数据,那么残存的数据不会造成状态发生变化. 

2)对于监听可写事件时,同理可推,不再详述. 

而不论是监听可读还是可写,对方关闭socket连接都将造成状态发生变化,比如在例子中,如果强行中断client脚本,也就是主动中断了socket连接,那么都将造成server端发生状态的变化,从而server得到通知,将已经在本方缓冲区中的数据读出. 

把前面的描述可以总结如下:仅当对方的动作(发出数据,关闭连接等)造成的事件才能导致状态发生变化,而本方协议栈中已经处理的事件(包括接收了对方的数据,接收了对方的主动连接请求)并不是造成状态发生变化的必要条件,状态变化一定是对方造成的.所以在ET模式下的,必须一直处理到出错或者完全处理完毕,才能进行下一个动作,否则可能会发生错误. 

另外,从这个例子中,也可以阐述一些基本的网络编程概念.首先,连接的两端中,一端发送成功并不代表着对方上层应用程序接收成功, 就拿上面的client测试程序来说,10字节的数据已经发送成功,但是上层的server并没有调用read读取数据,因此发送成功仅仅说明了数据被对方的协议栈接收存放在了相应的buffer中,而上层的应用程序是否接收了这部分数据不得而知;同样的,读取数据时也只代表着本方协议栈的对应buffer中有数据可读,而此时时候在对端是否在发送数据也不得而知. 




epoll精髓 
在linux的网络编程中,很长的时间都在使用select来做事件触发。在linux新的内核中,有了一种替换它的机制,就是epoll。 
相比于select,epoll最大的好处在于它不会随着监听fd数目的增长而降低效率。因为在内核中的select实现中,它是采用轮询来处理的,轮询的fd数目越多,自然耗时越多。并且,在linux/posix_types.h头文件有这样的声明: 
#define __FD_SETSIZE    1024 
表示select最多同时监听1024个fd,当然,可以通过修改头文件再重编译内核来扩大这个数目,但这似乎并不治本。 

epoll的接口非常简单,一共就三个函数: 
1. int epoll_create(int size); 
创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大。这个参数不同于select()中的第一个参数,给出最大监听的fd+1的值。需要注意的是,当创建好epoll句柄后,它就是会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。 


2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event); 
epoll的事件注册函数,它不同与select()是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。第一个参数是epoll_create()的返回值,第二个参数表示动作,用三个宏来表示: 
EPOLL_CTL_ADD:注册新的fd到epfd中; 
EPOLL_CTL_MOD:修改已经注册的fd的监听事件; 
EPOLL_CTL_DEL:从epfd中删除一个fd; 
第三个参数是需要监听的fd,第四个参数是告诉内核需要监听什么事,struct epoll_event结构如下: 

Java代码  收藏代码
  1. struct epoll_event {  
  2.   __uint32_t events;  /* Epoll events */  
  3.   epoll_data_t data;  /* User data variable */  
  4. };  



events可以是以下几个宏的集合: 
EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭); 
EPOLLOUT:表示对应的文件描述符可以写; 
EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来); 
EPOLLERR:表示对应的文件描述符发生错误; 
EPOLLHUP:表示对应的文件描述符被挂断; 
EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。 
EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里 


3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout); 
等待事件的产生,类似于select()调用。参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create()时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。 

-------------------------------------------------------------------------------------------- 

从man手册中,得到ET和LT的具体描述如下 

EPOLL事件有两种模型: 
Edge Triggered (ET) 
Level Triggered (LT) 

假如有这样一个例子: 
1. 我们已经把一个用来从管道中读取数据的文件句柄(RFD)添加到epoll描述符 
2. 这个时候从管道的另一端被写入了2KB的数据 
3. 调用epoll_wait(2),并且它会返回RFD,说明它已经准备好读取操作 
4. 然后我们读取了1KB的数据 
5. 调用epoll_wait(2)...... 

Edge Triggered 工作模式: 
如果我们在第1步将RFD添加到epoll描述符的时候使用了EPOLLET标志,那么在第5步调用epoll_wait(2)之后将有可能会挂起,因为剩余的数据还存在于文件的输入缓冲区内,而且数据发出端还在等待一个针对已经发出数据的反馈信息。只有在监视的文件句柄上发生了某个事件的时候 ET 工作模式才会汇报事件。因此在第5步的时候,调用者可能会放弃等待仍在存在于文件输入缓冲区内的剩余数据。在上面的例子中,会有一个事件产生在RFD句柄上,因为在第2步执行了一个写操作,然后,事件将会在第3步被销毁。因为第4步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第5步调用 epoll_wait(2)完成后,是否挂起是不确定的。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。最好以下面的方式调用ET模式的epoll接口,在后面会介绍避免可能的缺陷。 
   i    基于非阻塞文件句柄 
   ii   只有当read(2)或者write(2)返回EAGAIN时才需要挂起,等待。但这并不是说每次read()时都需要循环读,直到读到产生一个EAGAIN才认为此次事件处理完成,当read()返回的读到的数据长度小于请求的数据长度时,就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。 

Level Triggered 工作模式 
相反的,以LT方式调用epoll接口的时候,它就相当于一个速度比较快的poll(2),并且无论后面的数据是否被使用,因此他们具有同样的职能。因为即使使用ET模式的epoll,在收到多个chunk的数据的时候仍然会产生多个事件。调用者可以设定EPOLLONESHOT标志,在 epoll_wait(2)收到事件后epoll会与事件关联的文件句柄从epoll描述符中禁止掉。因此当EPOLLONESHOT设定后,使用带有 EPOLL_CTL_MOD标志的epoll_ctl(2)处理文件句柄就成为调用者必须作的事情。 


然后详细解释ET, LT: 

LT(level triggered)是缺省的工作方式,并且同时支持block和no-block socket.在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不作任何操作,内核还是会继续通知你的,所以,这种模式编程出错误可能性要小一点。传统的select/poll都是这种模型的代表. 

ET(edge-triggered)是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once),不过在TCP协议中,ET模式的加速效用仍需要更多的benchmark确认(这句话不理解)。 

在许多测试中我们会看到如果没有大量的idle -connection或者dead-connection,epoll的效率并不会比select/poll高很多,但是当我们遇到大量的idle- connection(例如WAN环境中存在大量的慢速连接),就会发现epoll的效率大大高于select/poll。(未测试) 



另外,当使用epoll的ET模型来工作时,当产生了一个EPOLLIN事件后, 
读数据的时候需要考虑的是当recv()返回的大小如果等于请求的大小,那么很有可能是缓冲区还有数据未读完,也意味着该次事件还没有处理完,所以还需要再次读取: 

Java代码  收藏代码
  1. while(rs)  
  2. {  
  3.   buflen = recv(activeevents[i].data.fd, buf, sizeof(buf), 0);  
  4.   if(buflen < 0)  
  5.   {  
  6.     // 由于是非阻塞的模式,所以当errno为EAGAIN时,表示当前缓冲区已无数据可读  
  7.     // 在这里就当作是该次事件已处理处.  
  8.     if(errno == EAGAIN)  
  9.      break;  
  10.     else  
  11.      return;  
  12.    }  
  13.    else if(buflen == 0)  
  14.    {  
  15.      // 这里表示对端的socket已正常关闭.  
  16.    }  
  17.    if(buflen == sizeof(buf)  
  18.      rs = 1;   // 需要再次读取  
  19.    else  
  20.      rs = 0;  
  21. }  




还有,假如发送端流量大于接收端的流量(意思是epoll所在的程序读比转发的socket要快),由于是非阻塞的socket,那么send()函数虽然返回,但实际缓冲区的数据并未真正发给接收端,这样不断的读和发,当缓冲区满后会产生EAGAIN错误(参考man send),同时,不理会这次请求发送的数据.所以,需要封装socket_send()的函数用来处理这种情况,该函数会尽量将数据写完再返回,返回-1表示出错。在socket_send()内部,当写缓冲已满(send()返回-1,且errno为EAGAIN),那么会等待后再重试.这种方式并不很完美,在理论上可能会长时间的阻塞在socket_send()内部,但暂没有更好的办法. 

Java代码  收藏代码
  1. ssize_t socket_send(int sockfd, const char* buffer, size_t buflen)  
  2. {  
  3.   ssize_t tmp;  
  4.   size_t total = buflen;  
  5.   const char *p = buffer;  
  6.   
  7.   while(1)  
  8.   {  
  9.     tmp = send(sockfd, p, total, 0);  
  10.     if(tmp < 0)  
  11.     {  
  12.       // 当send收到信号时,可以继续写,但这里返回-1.  
  13.       if(errno == EINTR)  
  14.         return -1;  
  15.   
  16.       // 当socket是非阻塞时,如返回此错误,表示写缓冲队列已满,  
  17.       // 在这里做延时后再重试.  
  18.       if(errno == EAGAIN)  
  19.       {  
  20.         usleep(1000);  
  21.         continue;  
  22.       }  
  23.   
  24.       return -1;  
  25.     }  
  26.   
  27.     if((size_t)tmp == total)  
  28.       return buflen;  
  29.   
  30.     total -= tmp;  
  31.     p += tmp;  
  32.   }  
  33.   
  34.   return tmp;  
  35. }  








在linux的网络编程中,很长的时间都在使用select来做事件触发。在linux新的内核中,有了一种替换它的机制,就是epoll。 
相比于select,epoll最大的好处在于它不会随着监听fd数目的增长而降低效率。因为在内核中的select实现中,它是采用轮询来处理的,轮询的fd数目越多,自然耗时越多。并且,在linux/posix_types.h头文件有这样的声明: 
#define __FD_SETSIZE    1024 
表示select最多同时监听1024个fd,当然,可以通过修改头文件再重编译内核来扩大这个数目,但这似乎并不治本。 

epoll的接口非常简单,一共就三个函数: 
1. int epoll_create(int size); 
创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大。这个参数不同于select()中的第一个参数,给出最大监听的fd+1的值。需要注意的是,当创建好epoll句柄后,它就是会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。 


2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event); 
epoll的事件注册函数,它不同与select()是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。第一个参数是epoll_create()的返回值,第二个参数表示动作,用三个宏来表示: 
EPOLL_CTL_ADD:注册新的fd到epfd中; 
EPOLL_CTL_MOD:修改已经注册的fd的监听事件; 
EPOLL_CTL_DEL:从epfd中删除一个fd; 
第三个参数是需要监听的fd,第四个参数是告诉内核需要监听什么事,struct epoll_event结构如下: 

Java代码  收藏代码
  1. struct epoll_event {   
  2.   __uint32_t events;  /* Epoll events */   
  3.   epoll_data_t data;  /* User data variable */   
  4. };   



events可以是以下几个宏的集合: 
EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭); 
EPOLLOUT:表示对应的文件描述符可以写; 
EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来); 
EPOLLERR:表示对应的文件描述符发生错误; 
EPOLLHUP:表示对应的文件描述符被挂断; 
EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。 
EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里 


3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout); 
等待事件的产生,类似于select()调用。参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create()时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。 

-------------------------------------------------------------------------------------------- 

从man手册中,得到ET和LT的具体描述如下 

EPOLL事件有两种模型: 
Edge Triggered (ET) 
Level Triggered (LT) 

假如有这样一个例子: 
1. 我们已经把一个用来从管道中读取数据的文件句柄(RFD)添加到epoll描述符 
2. 这个时候从管道的另一端被写入了2KB的数据 
3. 调用epoll_wait(2),并且它会返回RFD,说明它已经准备好读取操作 
4. 然后我们读取了1KB的数据 
5. 调用epoll_wait(2)...... 

Edge Triggered 工作模式: 
如果我们在第1步将RFD添加到epoll描述符的时候使用了EPOLLET标志,那么在第5步调用epoll_wait(2)之后将有可能会挂起,因为剩余的数据还存在于文件的输入缓冲区内,而且数据发出端还在等待一个针对已经发出数据的反馈信息。只有在监视的文件句柄上发生了某个事件的时候 ET 工作模式才会汇报事件。因此在第5步的时候,调用者可能会放弃等待仍在存在于文件输入缓冲区内的剩余数据。在上面的例子中,会有一个事件产生在RFD句柄上,因为在第2步执行了一个写操作,然后,事件将会在第3步被销毁。因为第4步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第5步调用 epoll_wait(2)完成后,是否挂起是不确定的。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。最好以下面的方式调用ET模式的epoll接口,在后面会介绍避免可能的缺陷。 
   i    基于非阻塞文件句柄 
   ii   只有当read(2)或者write(2)返回EAGAIN时才需要挂起,等待。但这并不是说每次read()时都需要循环读,直到读到产生一个EAGAIN才认为此次事件处理完成,当read()返回的读到的数据长度小于请求的数据长度时,就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。 

Level Triggered 工作模式 
相反的,以LT方式调用epoll接口的时候,它就相当于一个速度比较快的poll(2),并且无论后面的数据是否被使用,因此他们具有同样的职能。因为即使使用ET模式的epoll,在收到多个chunk的数据的时候仍然会产生多个事件。调用者可以设定EPOLLONESHOT标志,在 epoll_wait(2)收到事件后epoll会与事件关联的文件句柄从epoll描述符中禁止掉。因此当EPOLLONESHOT设定后,使用带有 EPOLL_CTL_MOD标志的epoll_ctl(2)处理文件句柄就成为调用者必须作的事情。 


然后详细解释ET, LT: 

LT(level triggered)是缺省的工作方式,并且同时支持block和no-block socket.在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不作任何操作,内核还是会继续通知你的,所以,这种模式编程出错误可能性要小一点。传统的select/poll都是这种模型的代表. 

ET(edge-triggered)是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once),不过在TCP协议中,ET模式的加速效用仍需要更多的benchmark确认(这句话不理解)。 

在许多测试中我们会看到如果没有大量的idle -connection或者dead-connection,epoll的效率并不会比select/poll高很多,但是当我们遇到大量的idle- connection(例如WAN环境中存在大量的慢速连接),就会发现epoll的效率大大高于select/poll。(未测试) 



另外,当使用epoll的ET模型来工作时,当产生了一个EPOLLIN事件后, 
读数据的时候需要考虑的是当recv()返回的大小如果等于请求的大小,那么很有可能是缓冲区还有数据未读完,也意味着该次事件还没有处理完,所以还需要再次读取: 

Java代码  收藏代码
  1. while(rs)   
  2. {   
  3.   buflen = recv(activeevents[i].data.fd, buf, sizeof(buf), 0);   
  4.   if(buflen < 0)   
  5.   {   
  6.     // 由于是非阻塞的模式,所以当errno为EAGAIN时,表示当前缓冲区已无数据可读   
  7.     // 在这里就当作是该次事件已处理处.   
  8.     if(errno == EAGAIN)   
  9.      break;   
  10.     else   
  11.      return;   
  12.    }   
  13.    else if(buflen == 0)   
  14.    {   
  15.      // 这里表示对端的socket已正常关闭.   
  16.    }   
  17.    if(buflen == sizeof(buf)   
  18.      rs = 1;   // 需要再次读取   
  19.    else   
  20.      rs = 0;   
  21. }   




还有,假如发送端流量大于接收端的流量(意思是epoll所在的程序读比转发的socket要快),由于是非阻塞的socket,那么send()函数虽然返回,但实际缓冲区的数据并未真正发给接收端,这样不断的读和发,当缓冲区满后会产生EAGAIN错误(参考man send),同时,不理会这次请求发送的数据.所以,需要封装socket_send()的函数用来处理这种情况,该函数会尽量将数据写完再返回,返回-1表示出错。在socket_send()内部,当写缓冲已满(send()返回-1,且errno为EAGAIN),那么会等待后再重试.这种方式并不很完美,在理论上可能会长时间的阻塞在socket_send()内部,但暂没有更好的办法. 

Java代码  收藏代码
  1. ssize_t socket_send(int sockfd, const char* buffer, size_t buflen)   
  2. {   
  3.   ssize_t tmp;   
  4.   size_t total = buflen;   
  5.   const char *p = buffer;   
  6.   
  7.   while(1)   
  8.   {   
  9.     tmp = send(sockfd, p, total, 0);   
  10.     if(tmp < 0)   
  11.     {   
  12.       // 当send收到信号时,可以继续写,但这里返回-1.   
  13.       if(errno == EINTR)   
  14.         return -1;   
  15.   
  16.       // 当socket是非阻塞时,如返回此错误,表示写缓冲队列已满,   
  17.       // 在这里做延时后再重试.   
  18.       if(errno == EAGAIN)   
  19.       {   
  20.         usleep(1000);   
  21.         continue;   
  22.       }   
  23.   
  24.       return -1;   
  25.     }   
  26.   
  27.     if((size_t)tmp == total)   
  28.       return buflen;   
  29.   
  30.     total -= tmp;   
  31.     p += tmp;   
  32.   }   
  33.   
  34.   return tmp;   
  35. }   



epoll有两种模式,Edge Triggered(简称ET) 和 Level Triggered(简称LT).在采用这两种模式时要注意的是,如果采用ET模式,那么仅当状态发生变化时才会通知,而采用LT模式类似于原来的select/poll操作,只要还有没有处理的事件就会一直通知. 
以代码来说明问题: 
首先给出server的代码,需要说明的是每次accept的连接,加入可读集的时候采用的都是ET模式,而且接收缓冲区是5字节的,也就是每次只接收5字节的数据: 

Java代码  收藏代码
  1. #include <iostream>  
  2. #include <sys/socket.h>  
  3. #include <sys/epoll.h>  
  4. #include <netinet/in.h>  
  5. #include <arpa/inet.h>  
  6. #include <fcntl.h>  
  7. #include <unistd.h>  
  8. #include <stdio.h>  
  9. #include <errno.h>  
  10.   
  11. using namespace std;  
  12.   
  13. #define MAXLINE 5  
  14. #define OPEN_MAX 100  
  15. #define LISTENQ 20  
  16. #define SERV_PORT 5000  
  17. #define INFTIM 1000  
  18.   
  19. void setnonblocking(int sock)  
  20. {  
  21.     int opts;  
  22.     opts=fcntl(sock,F_GETFL);  
  23.     if(opts<0)  
  24.     {  
  25.         perror("fcntl(sock,GETFL)");  
  26.         exit(1);  
  27.     }  
  28.     opts = opts|O_NONBLOCK;  
  29.     if(fcntl(sock,F_SETFL,opts)<0)  
  30.     {  
  31.         perror("fcntl(sock,SETFL,opts)");  
  32.         exit(1);  
  33.     }     
  34. }  
  35.   
  36. int main()  
  37. {  
  38.     int i, maxi, listenfd, connfd, sockfd,epfd,nfds;  
  39.     ssize_t n;  
  40.     char line[MAXLINE];  
  41.     socklen_t clilen;  
  42.     //声明epoll_event结构体的变量,ev用于注册事件,数组用于回传要处理的事件  
  43.     struct epoll_event ev,events[20];  
  44.     //生成用于处理accept的epoll专用的文件描述符  
  45.     epfd=epoll_create(256);  
  46.     struct sockaddr_in clientaddr;  
  47.     struct sockaddr_in serveraddr;  
  48.     listenfd = socket(AF_INET, SOCK_STREAM, 0);  
  49.     //把socket设置为非阻塞方式  
  50.     //setnonblocking(listenfd);  
  51.     //设置与要处理的事件相关的文件描述符  
  52.     ev.data.fd=listenfd;  
  53.     //设置要处理的事件类型  
  54.     ev.events=EPOLLIN|EPOLLET;  
  55.     //ev.events=EPOLLIN;  
  56.     //注册epoll事件  
  57.     epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);  
  58.     bzero(&serveraddr, sizeof(serveraddr));  
  59.     serveraddr.sin_family = AF_INET;  
  60.     char *local_addr="127.0.0.1";  
  61.     inet_aton(local_addr,&(serveraddr.sin_addr));//htons(SERV_PORT);  
  62.     serveraddr.sin_port=htons(SERV_PORT);  
  63.     bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));  
  64.     listen(listenfd, LISTENQ);  
  65.     maxi = 0;  
  66.     for ( ; ; ) {  
  67.         //等待epoll事件的发生  
  68.         nfds=epoll_wait(epfd,events,20,500);  
  69.         //处理所发生的所有事件       
  70.         for(i=0;i<nfds;++i)  
  71.         {  
  72.             if(events[i].data.fd==listenfd)  
  73.             {  
  74.                 connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen);  
  75.                 if(connfd<0){  
  76.                     perror("connfd<0");  
  77.                     exit(1);  
  78.                 }  
  79.                 //setnonblocking(connfd);  
  80.                 char *str = inet_ntoa(clientaddr.sin_addr);  
  81.                 cout << "accapt a connection from " << str << endl;  
  82.                 //设置用于读操作的文件描述符  
  83.                 ev.data.fd=connfd;  
  84.                 //设置用于注测的读操作事件  
  85.                 ev.events=EPOLLIN|EPOLLET;  
  86.                 //ev.events=EPOLLIN;  
  87.                 //注册ev  
  88.                 epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);  
  89.             }  
  90.             else if(events[i].events&EPOLLIN)  
  91.             {  
  92.                 cout << "EPOLLIN" << endl;  
  93.                 if ( (sockfd = events[i].data.fd) < 0)   
  94.                     continue;  
  95.                 if ( (n = read(sockfd, line, MAXLINE)) < 0) {  
  96.                     if (errno == ECONNRESET) {  
  97.                         close(sockfd);  
  98.                         events[i].data.fd = -1;  
  99.                     } else  
  100.                         std::cout<<"readline error"<<std::endl;  
  101.                 } else if (n == 0) {  
  102.                     close(sockfd);  
  103.                     events[i].data.fd = -1;  
  104.                 }  
  105.                 line[n] = '\0';  
  106.                 cout << "read " << line << endl;  
  107.                 //设置用于写操作的文件描述符  
  108.                 ev.data.fd=sockfd;  
  109.                 //设置用于注测的写操作事件  
  110.                 ev.events=EPOLLOUT|EPOLLET;  
  111.                 //修改sockfd上要处理的事件为EPOLLOUT  
  112.                 //epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);  
  113.             }  
  114.             else if(events[i].events&EPOLLOUT)  
  115.             {     
  116.                 sockfd = events[i].data.fd;  
  117.                 write(sockfd, line, n);  
  118.                 //设置用于读操作的文件描述符  
  119.                 ev.data.fd=sockfd;  
  120.                 //设置用于注测的读操作事件  
  121.                 ev.events=EPOLLIN|EPOLLET;  
  122.                 //修改sockfd上要处理的事件为EPOLIN  
  123.                 epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);  
  124.             }  
  125.         }  
  126.     }  
  127.     return 0;  
  128. }  


下面给出测试所用的Perl写的client端,在client中发送10字节的数据,同时让client在发送完数据之后进入死循环, 也就是在发送完之后连接的状态不发生改变--既不再发送数据, 也不关闭连接,这样才能观察出server的状态: 

Java代码  收藏代码
  1. #!/usr/bin/perl   
  2. use IO::Socket;   
  3. my $host = "127.0.0.1";   
  4. my $port = 5000;   
  5. my $socket = IO::Socket::INET->new("$host:$port") or die "create socket error $@";   
  6. my $msg_out = "1234567890";   
  7. print $socket $msg_out;   
  8. print "now send over, go to sleep\n";   
  9. while (1)   
  10. {   
  11.     sleep(1);   
  12. }   


运行server和client发现,server仅仅读取了5字节的数据,而client其实发送了10字节的数据,也就是说,server仅当第一次监听到了EPOLLIN事件,由于没有读取完数据,而且采用的是ET模式,状态在此之后不发生变化,因此server再也接收不到EPOLLIN事件了. 
如果我们把client改为这样: 

Java代码  收藏代码
  1. #!/usr/bin/perl   
  2. use IO::Socket;   
  3. my $host = "127.0.0.1";   
  4. my $port = 5000;   
  5. my $socket = IO::Socket::INET->new("$host:$port") or die "create socket error $@";   
  6. my $msg_out = "1234567890";   
  7. print $socket $msg_out;   
  8. print "now send over, go to sleep\n";   
  9. sleep(5);   
  10. print "5 second gonesend another line\n";   
  11. print $socket $msg_out;   
  12. while (1)   
  13. {   
  14.     sleep(1);   
  15. }   


可以发现,在server接收完5字节的数据之后一直监听不到client的事件,而当client休眠5秒之后重新发送数据,server再次监听到了变化,只不过因为只是读取了5个字节,仍然有10个字节的数据(client第二次发送的数据)没有接收完. 
如果上面的实验中,对accept的socket都采用的是LT模式,那么只要还有数据留在buffer中,server就会继续得到通知,读者可以自行改动代码进行实验. 
基于这两个实验,可以得出这样的结论:ET模式仅当状态发生变化的时候才获得通知,这里所谓的状态的变化并不包括缓冲区中还有未处理的数据,也就是说,如果要采用ET模式,需要一直read/write直到出错为止,很多人反映为什么采用ET模式只接收了一部分数据就再也得不到通知了,大多因为这样;而LT模式是只要有数据没有处理就会一直通知下去的. 
补充说明一下这里一直强调的"状态变化"是什么: 
1)对于监听可读事件时,如果是socket是监听socket,那么当有新的主动连接到来为状态发生变化;对一般的socket而言,协议栈中相应的缓 冲区有新的数据为状态发生变化.但是,如果在一个时间同时接收了N个连接(N>1),但是监听socket只accept了一个连接,那么其它未 accept的连接将不会在ET模式下给监听socket发出通知,此时状态不发生变化;对于一般的socket,就如例子中而言,如果对应的缓冲区本身 已经有了N字节的数据,而只取出了小于N字节的数据,那么残存的数据不会造成状态发生变化. 
2)对于监听可写事件时,同理可推,不再详述. 
而不论是监听可读还是可写,对方关闭socket连接都将造成状态发生变化,比如在例子中,如果强行中断client脚本,也就是主动中断了socket连接,那么都将造成server端发生状态的变化,从而server得到通知,将已经在本方缓冲区中的数据读出. 
把前面的描述可以总结如下:仅当对方的动作(发出数据,关闭连接等)造成的事件才能导致状态发生变化,而本方协议栈中已经处理的事件(包括接收了对方的数 据,接收了对方的主动连接请求)并不是造成状态发生变化的必要条件,状态变化一定是对方造成的.所以在ET模式下的,必须一直处理到出错或者完全处理完 毕,才能进行下一个动作,否则可能会发生错误. 
另外,从这个例子中,也可以阐述一些基本的网络编程概念.首先,连接的两端中,一端发送成功并不代表着对方上层应用程序接收成功, 就拿上面的client测试程序来说,10字节的数据已经发送成功,但是上层的server并没有调用read读取数据,因此发送成功仅仅说明了数据被对方的协议栈接收存放在了相应的buffer中,而上层的应用程序是否接收了这部分数据不得而知;同样的,读取数据时也只代表着本方协议栈的对应buffer中有数据可读,而此时时候在对端是否在发送数据也不得而知. 
epoll为什么这么快 

epoll是多路复用IO(I/O Multiplexing)中的一种方式,但是仅用于linux2.6以上内核,在开始讨论这个问题之前,先来解释一下为什么需要多路复用IO. 
以一个生活中的例子来解释. 
假设你在大学中读书,要等待一个朋友来访,而这个朋友只知道你在A号楼,但是不知道你具体住在哪里,于是你们约好了在A号楼门口见面. 
如果你使用的阻塞IO模型来处理这个问题,那么你就只能一直守候在A号楼门口等待朋友的到来,在这段时间里你不能做别的事情,不难知道,这种方式的效率是低下的. 
现在时代变化了,开始使用多路复用IO模型来处理这个问题.你告诉你的朋友来了A号楼找楼管大妈,让她告诉你该怎么走.这里的楼管大妈扮演的就是多路复用IO的角色. 
进一步解释select和epoll模型的差异. 
select版大妈做的是如下的事情:比如同学甲的朋友来了,select版大妈比较笨,她带着朋友挨个房间进行查询谁是同学甲,你等的朋友来了,于是在实际的代码中,select版大妈做的是以下的事情: 

Java代码  收藏代码
  1. int n = select(&readset,NULL,NULL,100);   
  2. for (int i = 0; n > 0; ++i)   
  3. {   
  4.    if (FD_ISSET(fdarray[i], &readset))   
  5.    {   
  6.       do_something(fdarray[i]);   
  7.       --n;   
  8.    }  
  9. }   


epoll版大妈就比较先进了,她记下了同学甲的信息,比如说他的房间号,那么等同学甲的朋友到来时,只需要告诉该朋友同学甲在哪个房间即可,不用自己亲自带着人满大楼的找人了.于是epoll版大妈做的事情可以用如下的代码表示: 

Java代码  收藏代码
  1. n=epoll_wait(epfd,events,20,500);   
  2. for(i=0;i<n;++i)   
  3. {   
  4.     do_something(events[n]);   
  5. }   
  6. 在epoll中,关键的数据结构epoll_event定义如下:   
  7. typedef union epoll_data {   
  8.      void *ptr;   
  9.      int fd;   
  10.      __uint32_t u32;   
  11.      __uint64_t u64;   
  12. } epoll_data_t;   
  13. struct epoll_event {   
  14.                 __uint32_t events;      /* Epoll events */   
  15.                 epoll_data_t data;      /* User data variable */   
  16. };  


可以看到,epoll_data是一个union结构体,它就是epoll版大妈用于保存同学信息的结构体,它可以保存很多类型的信息:fd,指针,等等.有了这个结构体,epoll大妈可以不用吹灰之力就可以定位到同学甲. 
别小看了这些效率的提高,在一个大规模并发的服务器中,轮询IO是最耗时间的操作之一.再回到那个例子中,如果每到来一个朋友楼管大妈都要全楼的查询同学,那么处理的效率必然就低下了,过不久楼底就有不少的人了. 
对比最早给出的阻塞IO的处理模型, 可以看到采用了多路复用IO之后, 程序可以自由的进行自己除了IO操作之外的工作, 只有到IO状态发生变化的时候由多路复用IO进行通知, 然后再采取相应的操作, 而不用一直阻塞等待IO状态发生变化了. 
从上面的分析也可以看出,epoll比select的提高实际上是一个用空间换时间思想的具体应用. 

多进程服务器中,epoll的创建应该在创建子进程之后 

看我的测试代码,似乎应该是在创建子进程之后创建epoll的fd,否则程序将会有问题,试将代码中两个CreateWorker函数的调用位置分别调用,一个在创建epoll fd之前,一个在之后,在调用在创建之前的代码会出问题,在我的机器上(linux内核2.6.26)表现的症状就是所有进程的epoll_wait函数返回0, 而客户端似乎被阻塞了: 
服务器端: 

Java代码  收藏代码
  1. #include <iostream>  
  2. #include <sys/socket.h>  
  3. #include <sys/epoll.h>  
  4. #include <netinet/in.h>  
  5. #include <arpa/inet.h>  
  6. #include <fcntl.h>  
  7. #include <unistd.h>  
  8. #include <stdio.h>  
  9. #include <errno.h>  
  10. #include <sys/types.h>  
  11. #include <sys/wait.h>  
  12.   
  13. using namespace std;  
  14.   
  15. #define MAXLINE 5  
  16. #define OPEN_MAX 100  
  17. #define LISTENQ 20  
  18. #define SERV_PORT 5000  
  19. #define INFTIM 1000  
  20.   
  21. typedef struct task_t  
  22. {  
  23.     int fd;  
  24.     char buffer[100];  
  25.     int n;  
  26. }task_t;  
  27.   
  28. int CreateWorker(int nWorker)  
  29. {  
  30.     if (0 < nWorker)  
  31.     {  
  32.         bool bIsChild;  
  33.         pid_t nPid;  
  34.   
  35.         while (!bIsChild)  
  36.         {  
  37.             if (0 < nWorker)  
  38.             {  
  39.                 nPid = ::fork();  
  40.                 if (nPid > 0)  
  41.                 {  
  42.                     bIsChild = false;  
  43.                     --nWorker;  
  44.                 }  
  45.                 else if (0 == nPid)  
  46.                 {  
  47.                     bIsChild = true;  
  48.                     printf("create worker %d success!\n", ::getpid());  
  49.                 }  
  50.                 else  
  51.                 {  
  52.                     printf("fork error: %s\n", ::strerror(errno));  
  53.                     return -1;  
  54.                 }  
  55.             }  
  56.             else   
  57.             {  
  58.                 int nStatus;  
  59.                 if (-1 == ::wait(&nStatus))  
  60.                 {  
  61.                     ++nWorker;  
  62.                 }  
  63.             }  
  64.         }  
  65.     }  
  66.   
  67.     return 0;  
  68. }  
  69.   
  70. void setnonblocking(int sock)  
  71. {  
  72.     int opts;  
  73.     opts=fcntl(sock,F_GETFL);  
  74.     if(opts<0)  
  75.     {  
  76.         perror("fcntl(sock,GETFL)");  
  77.         exit(1);  
  78.     }  
  79.     opts = opts|O_NONBLOCK;  
  80.     if(fcntl(sock,F_SETFL,opts)<0)  
  81.     {  
  82.         perror("fcntl(sock,SETFL,opts)");  
  83.         exit(1);  
  84.     }     
  85. }  
  86.   
  87. int main()  
  88. {  
  89.     int i, maxi, listenfd, connfd, sockfd,epfd,nfds;  
  90.     ssize_t n;  
  91.     char line[MAXLINE];  
  92.     socklen_t clilen;  
  93.     struct epoll_event ev,events[20];  
  94.   
  95.     struct sockaddr_in clientaddr;  
  96.     struct sockaddr_in serveraddr;  
  97.     listenfd = socket(AF_INET, SOCK_STREAM, 0);  
  98.        bzero(&serveraddr, sizeof(serveraddr));  
  99.     serveraddr.sin_family = AF_INET;  
  100.     char *local_addr="127.0.0.1";  
  101.     inet_aton(local_addr,&(serveraddr.sin_addr));//htons(SERV_PORT);  
  102.     serveraddr.sin_port=htons(SERV_PORT);  
  103.       // 地址重用  
  104.     int nOptVal = 1;  
  105.     socklen_t nOptLen = sizeof(int);  
  106.     if (-1 == ::setsockopt(listenfd, SOL_SOCKET, SO_REUSEADDR, &nOptVal, nOptLen))  
  107.     {  
  108.         return -1;  
  109.     }      
  110.     setnonblocking(listenfd);  
  111.     bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));  
  112.     listen(listenfd, LISTENQ);      
  113.       
  114.     CreateWorker(5);  
  115.       
  116.     //把socket设置为非阻塞方式  
  117.       
  118.     //生成用于处理accept的epoll专用的文件描述符  
  119.     epfd=epoll_create(256);      
  120.     //设置与要处理的事件相关的文件描述符  
  121.     ev.data.fd=listenfd;  
  122.     //设置要处理的事件类型  
  123.     ev.events=EPOLLIN|EPOLLET;  
  124.     //ev.events=EPOLLIN;  
  125.     //注册epoll事件  
  126.     epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);  
  127.    
  128.      //CreateWorker(5);  
  129.        
  130.     maxi = 0;  
  131.       
  132.     task_t task;   
  133.     task_t *ptask;  
  134.     while(true)   
  135.     {  
  136.         //等待epoll事件的发生  
  137.         nfds=epoll_wait(epfd,events,20,500);  
  138.         //处理所发生的所有事件       
  139.         for(i=0;i<nfds;++i)  
  140.         {  
  141.             if(events[i].data.fd==listenfd)  
  142.             {                  
  143.                 connfd = accept(listenfd,NULL, NULL);  
  144.                 if(connfd<0){                      
  145.                     printf("connfd<0, listenfd = %d\n", listenfd);  
  146.                     printf("error = %s\n", strerror(errno));  
  147.                     exit(1);  
  148.                 }  
  149.                 setnonblocking(connfd);  
  150.                  
  151.                 //设置用于读操作的文件描述符  
  152.                 memset(&task, 0, sizeof(task));  
  153.                 task.fd = connfd;  
  154.                 ev.data.ptr = &task;  
  155.                 //设置用于注册的读操作事件  
  156.                 ev.events=EPOLLIN|EPOLLET;  
  157.                 //ev.events=EPOLLIN;  
  158.                 //注册ev  
  159.                 epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);  
  160.             }  
  161.             else if(events[i].events&EPOLLIN)  
  162.             {  
  163.                 cout << "EPOLLIN" << endl;  
  164.                 ptask = (task_t*)events[i].data.ptr;  
  165.                 sockfd = ptask->fd;  
  166.                   
  167.                 if ( (ptask->n = read(sockfd, ptask->buffer, 100)) < 0) {  
  168.                     if (errno == ECONNRESET) {  
  169.                         close(sockfd);  
  170.                         events[i].data.ptr = NULL;  
  171.                     } else  
  172.                         std::cout<<"readline error"<<std::endl;  
  173.                 } else if (ptask->n == 0) {  
  174.                     close(sockfd);  
  175.                     events[i].data.ptr = NULL;  
  176.                 }  
  177.                 ptask->buffer[ptask->n] = '\0';  
  178.                 cout << "read " << ptask->buffer << endl;  
  179.                   
  180.                 //设置用于写操作的文件描述符                                  
  181.                 ev.data.ptr = ptask;  
  182.                 //设置用于注测的写操作事件  
  183.                 ev.events=EPOLLOUT|EPOLLET;  
  184.                                   
  185.                 //修改sockfd上要处理的事件为EPOLLOUT  
  186.                 epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);  
  187.             }  
  188.             else if(events[i].events&EPOLLOUT)  
  189.             {     
  190.                 cout << "EPOLLOUT" << endl;  
  191.                 ptask = (task_t*)events[i].data.ptr;  
  192.                 sockfd = ptask->fd;  
  193.                   
  194.                 write(sockfd, ptask->buffer, ptask->n);  
  195.                   
  196.                 //设置用于读操作的文件描述符                
  197.                 ev.data.ptr = ptask;  
  198.                   
  199.                 //修改sockfd上要处理的事件为EPOLIN  
  200.                 epoll_ctl(epfd,EPOLL_CTL_DEL,sockfd,&ev);  
  201.                 cout << "write " << ptask->buffer;  
  202.                 memset(ptask, 0, sizeof(*ptask));  
  203.                 close(sockfd);  
  204.             }  
  205.         }  
  206.     }  
  207.     return 0;  
  208. }  


测试客户端: 
#!/usr/bin/perl 

use strict; 
use Socket; 
use IO::Handle; 

sub echoclient 

    my $host = "127.0.0.1"; 
    my $port = 5000; 

    my $protocol = getprotobyname("TCP"); 
    $host = inet_aton($host); 

    socket(SOCK, AF_INET, SOCK_STREAM, $protocol) or die "socket() failed: $!"; 

    my $dest_addr = sockaddr_in($port, $host); 
    connect(SOCK, $dest_addr) or die "connect() failed: $!"; 

    SOCK->autoflush(1); 

    my $msg_out = "hello world\n"; 
    print "out = ", $msg_out; 
    print SOCK $msg_out; 
    my $msg_in = <SOCK>; 
    print "in = ", $msg_in; 

    close SOCK; 


#&echoclient; 
#exit(0); 

for (my $i = 0; $i < 9999; $i++) 

    echoclient; 

我查看了lighttpd的实现,也是在创建完子进程之后才创建的epoll的fd. 
请问谁知道哪里有讲解这个的文档? 
假如fd1是由A进程加入epfd的,而且用的是ET模式,那么加入通知的是进程B,显然B进程不会对fd1进行处理,所以以后fd1的事件再不会通知,所以 经过几次循环之后,所有的fd都没有事件通知了,所以epoll_wait在timeout之后就返回0了。而在客户端的结果可想而知,只能是被阻塞。 
也就是说, 这是一种发生在epoll fd上面的类似于"惊群"的现象. 
对于linux socket与epoll配合相关的一些心得记录 

没有多少高深的东西,全当记录,虽然简单,但是没有做过测试还是挺容易让人糊涂的 

     int nRecvBuf=32*1024;//设置为32K 
setsockopt(s,SOL_SOCKET,SO_RCVBUF,(const char*)&nRecvBuf,sizeof(int)); 
1、通过上面语句可以简单设置缓冲区大小,测试证明:跟epoll结合的时候只有当单次发送的数据全被从缓冲区读完毕之后才会再次被触发,多次发送数据如果没有读取完毕当缓冲区未满的时候数据不会丢失,会累加到后面。 
2、 如果缓冲区未满,同一连接多次发送数据会多次收到EPOLLIN事件。 
单次发送数据>socket缓冲区大小的数据数据会被阻塞分次发送,所以循环接收可以用ENLIGE错误判断。 
   3、如果缓冲区满,新发送的数据不会触发epoll事件(也无异常),每次recv都会为缓冲区腾出空间,只有当缓冲区空闲大小能够再次接收数据epollIN事件可以再次被触发 
接收时接收大小为0表示客户端断开(不可能有0数据包触发EPOLLIN),-1表示异常,针对errorno进行判断可以确定是合理异常还是需要终止的异常,>0而不等于缓冲区大小表示单次发送结束。 
   4、 如果中途临时调整接收缓存区大小,并且在上一次中数据没有完全接收到用户空间,数据不会丢失,会累加在一起 

所以总结起来,系统对于数据的完整性还是做了相当的保正,至于稳定性没有作更深一步的测试 

   新增加: 
   5、如果主accept监听的soctet fd也设置为非阻塞,那么单纯靠epoll事件来驱动的服务器模型会存在问题,并发压力下发现,每次accept只从系统中取得第一个,所以如果恰冯多个连接同时触发server fd的EPOLLIN事件,在返回的event数组中体现不出来,会出现丢失事件的现象,所以当用ab等工具简单的压载就会发现每次都会有最后几条信息得不到处理,原因就在于此,我现在的解决办法是将server fd的监听去掉,用一个线程阻塞监听,accept成功就处理检测client fd,然后在主线程循环监听client事件,这样epoll在边缘模式下出错的概率就小,测试表明效果明显 
6、对于SIG部分信号还是要做屏蔽处理,不然对方socket中断等正常事件都会引起整个服务的退出 
7、sendfile(fd, f->SL->sendBuffer.inFd, (off_t *)&f->SL->sendBuffer.offset, size_need);注意sendfile函数的地三个变量是传送地址,偏移量会自动增加,不需要手动再次增加,否则就会出现文件传送丢失现象 
8、单线程epoll驱动模型误解:以前我一直认为单线程是无法处理web服务器这样的有严重网络延迟的服务,但nginx等优秀服务器都是机遇事件驱动模型,开始我在些的时候也是担心这些问题,后来测试发现,当client socket设为非阻塞模式的时候,从读取数据到解析http协议,到发送数据均在epoll的驱动下速度非常快,没有必要采用多线程,我的单核cpu (奔三)就可以达到10000page/second,这在公网上是远远无法达到的一个数字(网络延迟更为严重),所以单线程的数据处理能力已经很高了,就不需要多线程了,所不同的是你在架构服务器的时候需要将所有阻塞的部分拆分开来,当epoll通知你可以读取的时候,实际上部分数据已经到了 socket缓冲区,你所读取用的事件是将数据从内核空间拷贝到用户空间,同理,写也是一样的,所以epoll重要的地方就是将这两个延时的部分做了类似的异步处理,如果不需要处理更为复杂的业务,那单线程足以满足1000M网卡的最高要求,这才是单线程的意义。 
    我以前构建的web服务器就没有理解epoll,采用epoll的边缘触发之后怕事件丢失,或者单线程处理阻塞,所以自己用多线程构建了一个任务调度器,所有收到的事件统统压进任无调度器中,然后多任务处理,我还将read和write分别用两个调度器处理,并打算如果中间需要特殊的耗时的处理就增加一套调度器,用少量线程+epoll的方法来题高性能,后来发现read和write部分调度器是多余的,epoll本来就是一个事件调度器,在后面再次缓存事件分部处理还不如将epoll设为水平模式,所以多此一举,但是这个调度起还是有用处的 
   上面讲到如果中间有耗时的工作,比如数据库读写,外部资源请求(文件,socket)等这些操作就不能阻塞在主线程里面,所以我设计的这个任务调度器就有用了,在epoll能处理的事件驱动部分就借用epoll的,中间部分采用模块化的设计,用函数指针达到面相对象语言中的“委托”的作用,就可以满足不同的需要将任务(fd标识)加入调度器,让多线程循环执行,如果中间再次遇到阻塞就会再次加入自定义的阻塞器,检测完成就加入再次存入调度器,这样就可以将多种复杂的任务划分开来,相当于在处理的中间环节在自己购置一个类似于epoll的事件驱动器 
    9、多系统兼容:我现在倒是觉得与其构建一个多操作系统都支持的服务器不如构建特定系统的,如果想迁移再次改动,因为一旦兼顾到多个系统的化会大大增加系统的复杂度,并且不能最优性能,每个系统都有自己的独有的优化选项,所以我觉得迁移的工作量远远小于兼顾的工作量 
10模块化编程,虽然用c还是要讲求一些模块化的设计的,我现在才发现几乎面相对想的语言所能实现的所有高级特性在c里面几乎都有对应的解决办法(暂时发现除了操作符重载),所有学过高级面相对象的语言的朋友不放把模式用c来实现,也是一种乐趣,便于维护和自己阅读 

分享到:
评论

相关推荐

    实例浅析epoll的水平触发和边缘触发,以及边缘触发为什么要使用非阻塞IO 1

    本文将深入解析epoll的两种触发模式:水平触发(Level Triggered, LT)和边缘触发(Edge Triggered, ET),以及这两种触发模式在阻塞与非阻塞I/O下的行为,并通过代码示例进行验证。 **一、基本概念** 1. **水平...

    RSMA-Rate-Splitting-通信系统仿真-速率拆分

    《RSMA与速率拆分在有限反馈通信系统中的MMSE基预编码实现》 本文将深入探讨RSMA(Rate Splitting Multiple Access)技术在有限反馈通信系统中的应用,特别是通过MMSE(Minimum Mean Square Error)基预编码进行的实现。速率拆分是现代多用户通信系统中一种重要的信号处理策略,它能够提升系统的频谱效率和鲁棒性,特别是在资源受限和信道条件不理想的环境中。RSMA的核心思想是将用户的数据流分割成公共和私有信息两部分,公共信息可以被多个接收器解码,而私有信息仅由特定的接收器解码。这种方式允许系统在用户间共享信道资源,同时保证了每个用户的个性化服务。 在有限反馈通信系统中,由于信道状态信息(CSI)的获取通常是有限且不精确的,因此选择合适的预编码技术至关重要。MMSE预编码是一种优化策略,其目标是在考虑信道噪声和干扰的情况下最小化期望平方误差。在RSMA中,MMSE预编码用于在发射端对数据流进行处理,以减少接收端的干扰,提高解码性能。 以下代码研究RSMA与MMSE预编码的结合以观察到如何在实际系统中应用RSMA的速率拆分策略,并结合有限的反馈信息设计有效的预编码矩阵。关键步骤包括: 1. **信道模型的建立**:模拟多用户MIMO环境,考虑不同用户之间的信道条件差异。 2. **信道反馈机制**:设计有限反馈方案,用户向基站发送关于信道状态的简化的反馈信息。 3. **MMSE预编码矩阵计算**:根据接收到的有限反馈信息,计算出能够最小化期望平方误差的预编码矩阵。 4. **速率拆分**:将每个用户的传输信息划分为公共和私有两部分。 5. **信号发射与接收**:使用预编码矩阵对信号进行处理,然后在接收端进行解码。 6. **性能评估**:分析系统吞吐量、误码率等性能指标,对比不同策略的效果。

    【地理空间Python教程】使用XEE从Google Earth Engine下载图像:肯尼亚人口网格数据GeoTIFF文件生成方法介绍了如何使用XEE

    内容概要:本文档介绍了如何使用 XEE 包从 Google Earth Engine 下载图像数据并保存为 GeoTIFF 文件。主要内容包括:1) 使用新的 ee.data.getPixels() API 和 XEE 包简化了从 GEE 提取大型数据集的过程;2) 通过 XArray 数据集和 rioxarray 工具直接处理和保存图像数据,避免了复杂的导出任务;3) 具体示例展示了如何下载肯尼亚 2021 年的 LandScan 人口网格数据,包括环境搭建、数据准备、图像处理和最终保存为 GeoTIFF 文件。 适合人群:具备一定 Python 编程基础和地理信息系统(GIS)知识的开发者或研究人员,特别是对地理空间数据分析和遥感图像处理感兴趣的用户。 使用场景及目标:① 在基于 Python 的工作流中快速高效地提取和处理托管在 GEE 上的大规模地理空间数据;② 学习如何使用 XEE 包和相关工具进行地理空间数据的下载、裁剪、投影转换和保存;③ 通过实际案例掌握地理空间数据的处理技巧,提高数据处理效率和准确性。 其他说明:此教程提供了详细的代码示例和操作步骤,帮助用户在 Google Colab 环境中完成整个数据下载和处理过程。用户需要具备一定的 Python 编程能力,并熟悉常用的地理空间数据处理工具和库,如 geopandas、rioxarray 和 xarray。此外,教程还强调了数据版权和来源的重要性,确保用户合法合规地使用数据。

    基于STM32的工业级锅炉控制器系统设计:外设驱动、数据采集与通信协议实现

    内容概要:本文详细介绍了基于STM32F407的锅炉控制器系统设计,涵盖多个关键技术点。首先,在SD卡驱动方面,采用了硬件SPI配置,波特率为10.5MHz,并通过DMA发送80个空时钟进行初始化。其次,多路AD采集使用差分输入模式和DMA循环采集,配合滑动平均滤波提高效率。此外,Modbus通信部分通过结构体映射寄存器并使用硬件CRC单元进行校验。文件系统则采用FatFs结合SPI Flash缓存,确保断电保护。实时监控线程使用状态机设计,确保系统稳定性和安全性。硬件设计方面,模拟电路与数字电路分区布局,增强抗干扰能力。 适合人群:具备一定嵌入式开发基础的研发人员,特别是希望深入了解工业级项目设计的工程师。 使用场景及目标:适用于工业自动化领域的嵌入式系统开发,旨在帮助工程师掌握从硬件选型、外设驱动、数据采集到通信协议实现的全流程设计方法,提升系统的可靠性和实时性。 其他说明:文中提供了详细的代码示例和设计思路,强调了实际项目中的注意事项和常见问题解决方案,有助于读者快速上手并应用于实际项目中。

    基于MATLAB的配电网二阶锥优化:OLTC档位选择与123型支路的最优潮流研究

    内容概要:本文详细介绍了基于MATLAB实现的配电网二阶锥最优潮流研究,重点探讨了OLTC(有载调压变压器)档位选择和123型支路的优化方法。通过构建SOCP(二阶锥规划)模型,结合YALMIP和CPLEX求解器,实现了高效的潮流优化。文中提供了详细的代码示例和解释,涵盖系统参数定义、模型构建、约束添加以及求解过程。此外,还讨论了OLTC档位选择的离散变量建模、支路类型的差异化处理、动态优化的时间轴管理等方面的技术细节。 适合人群:对电力系统优化感兴趣的科研人员、研究生及有一定编程基础的工程师。 使用场景及目标:适用于配电网优化研究和实际工程应用,旨在提高潮流计算的效率和准确性,解决传统方法在复杂约束下的不足。通过学习本文,读者可以掌握如何利用MATLAB和相关工具进行二阶锥优化,从而更好地应对电力系统中的各种挑战。 其他说明:文章附带详细的代码注释和讲解视频,帮助读者快速理解和应用所介绍的方法和技术。

    临时网盘、企业内部共享网盘

    前端将文件切片上传服务器返回提取码,前端通过输入提取码下载文件。 编写语言php,html,js 运行环境要求:windows 10专业版64位,Apache2.4.39,PHP7.4.3nts,MySQL5.7.26。

    【Python开发】VSCode配置Python开发环境全流程:从安装到调试与依赖管理

    内容概要:本文档详细介绍了在Visual Studio Code (VSCode)中配置Python开发环境的步骤。首先,需安装Python并确保它被添加到系统的环境变量中,接着安装VSCode及其官方Python扩展,还可以安装Pylance、Jupyter等可选扩展来增强功能。然后,配置Python解释器,推荐创建和使用虚拟环境以隔离项目依赖。配置调试环境包括创建`launch.json`文件,以便能顺利运行和调试代码。此外,还应安装代码格式化和Lint工具如pylint、autopep8或black,并在VSCode的设置中启用它们,以保证代码质量和一致性。最后,文档提供了关于如何运行和调试代码以及管理项目依赖的方法,并列举了一些常见问题及解决办法。; 适合人群:初学者或有一定经验的Python开发者,希望在VSCode中搭建高效Python开发环境的人员。; 使用场景及目标:①为新项目搭建完整的Python开发环境;②优化现有开发环境,提高开发效率;③解决VSCode中Python开发遇到的基本问题。; 阅读建议:按照文档步骤顺序操作,确保每一步都成功完成再进行下一步,特别是要注意安装过程中的一些细节选项,如将Python添加到环境变量等。对于遇到的问题,可以参考文档最后列出的常见问题解答。

    基于西门子200Smart的凸轮飞剪控制系统设计与实现

    内容概要:本文详细介绍了基于西门子200Smart PLC的凸轮飞剪控制系统的设计与实现。主要内容涵盖硬件配置(如主轴编码器、伺服电机、触摸屏)、关键PLC编程技巧(如同步触发逻辑、高速中断处理、加减速曲线配置)、以及现场调试经验(如温度补偿、方向控制、误差处理)。文中特别强调了同步触发逻辑和加减速曲线对系统稳定性的影响,并分享了多个实用的调试技巧和技术难点解决方案。 适合人群:具备PLC编程基础的技术人员,特别是从事自动化控制领域的工程师。 使用场景及目标:适用于工业生产线中需要高精度同步控制的应用场景,如包装机、切割机等。目标是帮助技术人员理解和掌握凸轮飞剪系统的实现方法,提高生产效率和产品质量。 其他说明:文中提供了大量具体的代码示例和调试经验,有助于读者快速上手并应用于实际项目中。同时,文中提到的一些优化措施(如温度补偿、编码器断线检测等)对于提升系统的可靠性和稳定性具有重要价值。

    汇川H5U运动控制框架模板:高效、模块化的工业自动化解决方案

    内容概要:本文介绍了汇川H5U运动控制框架模板的特点及其应用场景。该框架提供了高度模块化的设计,使得伺服轴控、气缸控制以及与爱普生机器人的EIP通讯变得极为简便。框架内置了丰富的功能块(FB),如AxisControl_FB用于伺服轴控制,Cylinder_FB用于气缸控制,EpsonEIP_Data用于机器人通信。这些FB块不仅简化了编程流程,还集成了诸如互锁保护、超时检测等功能,极大提高了开发效率和系统稳定性。此外,框架支持结构体嵌套应用,便于参数管理和在线修改,确保项目的灵活性和可扩展性。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是那些希望提高开发效率、减少重复劳动的人群。 使用场景及目标:适用于各种运动控制项目,如流水线自动化、机器人控制等。主要目标是帮助工程师快速搭建稳定的控制系统,缩短开发周期,降低调试难度,提升系统的可靠性和性能。 其他说明:框架内的注释详尽且为中文,非常适合初学者理解和学习。对于有经验的工程师而言,该框架同样提供了一个高效的开发平台,能够显著提升工作效率。

    含绿证交易与碳排放优化的智能楼宇微网调度模型

    内容概要:本文介绍了一个复杂的电热综合能源系统优化调度模型,该模型不仅涵盖了传统的风光储火微网,还包括了电动汽车和智能楼宇单元。模型通过线性规划求解最优调度方案,同时考虑了碳市场和绿色证书交易市场的影响。代码实现了微网各单元的初始化、优化调度的核心算法以及碳市场和绿色证书交易的成本调整。此外,模型还涉及了多时间尺度的优化问题处理、热电耦合约束、市场交易机制的设计等方面。 适用人群:从事能源优化、微网调度研究的专业人士,尤其是对碳市场和绿色证书交易感兴趣的科研人员和技术开发者。 使用场景及目标:适用于需要进行复杂微网系统优化调度的研究和应用场合,旨在降低总成本并减少碳排放,提高能源利用效率。具体目标包括优化风光储火微网的调度策略,最大化绿色证书收益,最小化碳交易成本,提升电动汽车和智能楼宇的调度灵活性。 其他说明:该模型展示了如何通过引入碳市场和绿色证书交易机制来改善微网系统的性能,提供了详细的代码实现和理论解释,有助于理解和实践相关领域的前沿技术。

    基于改进粒子群算法的园区综合能源优化调度:含电动汽车参与的MATLAB实现

    内容概要:本文详细介绍了基于改进粒子群算法的园区综合能源优化调度方法及其MATLAB代码实现。文中首先分析了园区综合能源系统中的三个主要市场交易主体:系统能源运营商、分布式光伏用户和电动汽车充电代理商。接着,通过定义各主体的相关参数,建立了综合能量管理优化策略。然后,采用改进的粒子群算法对模型进行了求解,展示了粒子群算法的初始化、适应度函数定义及优化过程。最后,通过具体算例验证了该方法的有效性,特别是在冬季典型场景下的表现。文章强调了电动汽车在能源调度中的重要作用,以及改进粒子群算法在处理光伏出力突变等复杂场景时的优势。 适合人群:从事能源管理系统研究的技术人员、研究生及以上学历的科研工作者、对MATLAB编程有一定基础的学习者。 使用场景及目标:适用于希望深入了解园区综合能源系统优化调度方法的研究人员和技术人员。目标是掌握如何通过改进粒子群算法实现含电动汽车参与的能源优化调度,提高能源利用效率,降低成本。 其他说明:文章提供了详细的代码示例和解释,帮助读者更好地理解和实现该方法。同时,文中提到的多个改进点和注意事项也为进一步研究提供了方向。

    某全域旅游大数据信息系统建设方案Word(38页).docx

    在探索智慧旅游的新纪元中,一个集科技、创新与服务于一体的整体解决方案正悄然改变着我们的旅行方式。智慧旅游,作为智慧城市的重要分支,旨在通过新一代信息技术,如云计算、大数据、物联网等,为游客、旅游企业及政府部门提供无缝对接、高效互动的旅游体验与管理模式。这一方案不仅重新定义了旅游行业的服务标准,更开启了旅游业数字化转型的新篇章。 智慧旅游的核心在于“以人为本”,它不仅仅关注技术的革新,更注重游客体验的提升。从游前的行程规划、信息查询,到游中的智能导航、个性化导览,再到游后的心情分享、服务评价,智慧旅游通过构建“一云多屏”的服务平台,让游客在旅游的全过程中都能享受到便捷、个性化的服务。例如,游客可以通过手机APP轻松定制专属行程,利用智能语音导览深入了解景点背后的故事,甚至通过三维GIS地图实现虚拟漫游,提前感受目的地的魅力。这些创新服务不仅增强了游客的参与感和满意度,也让旅游变得更加智能化、趣味化。 此外,智慧旅游还为旅游企业和政府部门带来了前所未有的管理变革。通过大数据分析,旅游企业能够精准把握市场动态,实现旅游产品的精准营销和个性化推荐,从而提升市场竞争力。而政府部门则能利用智慧旅游平台实现对旅游资源的科学规划和精细管理,提高监管效率和质量。例如,通过实时监控和数据分析,政府可以迅速应对旅游高峰期的客流压力,有效预防景区超载,保障游客安全。同时,智慧旅游还促进了跨行业、跨部门的数据共享与协同合作,为旅游业的可持续发展奠定了坚实基础。总之,智慧旅游以其独特的魅力和无限潜力,正引领着旅游业迈向一个更加智慧、便捷、高效的新时代。

    工业自动化中变频器频率与线速度转换的Python实现及优化

    内容概要:本文详细介绍了如何将变频器的输出频率转换为实际线速度的方法及其Python实现。首先给出了基本的数学公式和基础版本的Python代码,然后逐步引入了单位换算、异常处理、移动平均滤波等优化措施。此外,还讨论了如何通过Modbus协议与PLC通信获取实时频率数据,并强调了参数准确性的重要性。文中提供了多个测试案例,展示了不同应用场景下的计算方法和注意事项。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是需要进行变频器相关工作的人员。 使用场景及目标:适用于需要精确控制生产线速度的各种场合,如包装生产线、输送系统等。主要目标是帮助工程师快速准确地计算并监控变频器驱动的传送带或其他机械设备的实际运行速度。 其他说明:文章不仅提供了具体的代码实现,还分享了许多实用的经验和技巧,如参数校验、单位转换、异常处理等,有助于提高系统的稳定性和可靠性。同时,作者还提到可以通过图形化界面或HMI设备进一步提升用户体验。

    工业自动化中恒压供水系统的西门子200 SMART与ABB ACS510变频器控制逻辑解析

    内容概要:本文详细介绍了基于西门子200 SMART PLC和ABB ACS510变频器构建的恒压供水系统。该系统实现了泵数量自适应、时间轮换机制、频率控制、故障替换逻辑以及多段压力控制等功能。文中通过具体的梯形图和结构化文本(ST)代码片段解释了各个功能模块的工作原理和技术细节。例如,泵数量自适应通过VB100寄存器动态调整泵的数量;时间轮换机制利用指针寻址和环形队列确保泵的均匀使用;频率控制采用PID调节,并提供PLC和变频器两种PID控制方式的选择;故障替换逻辑设有‘三次重试’机制,保障系统的可靠性;多段压力控制则通过环形缓冲区存储24小时压力设定值,优化能源消耗。此外,系统还采用了频率滞回比较算法和平滑过渡策略,使得管网压力波动保持在较小范围内。 适用人群:从事工业自动化领域的工程师和技术人员,尤其是对PLC编程和变频器应用有一定基础的人群。 使用场景及目标:适用于中小型项目的恒压供水系统设计与实施。主要目标是提高系统的灵活性、可靠性和能效,减少设备磨损,降低运维成本。 其他说明:文中提到的一些具体实现方法如指针寻址、环形队列、PID参数设置等,对于理解和掌握现代工业控制系统具有重要价值。同时,文中提供的代码片段可以直接用于实际工程中,帮助工程师快速搭建高效稳定的恒压供水系统。

    MATLAB环境中基于最大重叠离散小波变换的ECG信号处理与多领域应用

    内容概要:本文详细介绍了在MATLAB环境下使用最大重叠离散小波变换(MODWT)对心电信号(ECG)进行处理的方法。首先解释了MODWT的基本概念及其相对于传统离散小波变换的优势,特别是在处理ECG信号时能够保持平移不变性。接着阐述了具体的处理流程,包括删除伪影、滤波降噪以及检测PQRST波并确定心跳等步骤。文中提供了详细的MATLAB代码示例,展示了如何通过选择合适的小波基和分解层数来优化信号处理效果。此外,还讨论了该算法在金融时间序列、地震信号和其他生理信号处理中的广泛应用潜力。 适合人群:从事生物医学信号处理的研究人员和技术爱好者,尤其是那些希望深入了解ECG信号处理原理的人群。 使用场景及目标:适用于需要精确分析一维时间序列信号的各种应用场景,如医疗诊断系统中ECG信号的自动分析,金融市场趋势预测,地震预警系统的信号处理等。目标是提高信号处理精度,减少噪声干扰,从而获得更加可靠的数据支持决策。 其他说明:文中提到的一些具体参数设置(如阈值的选择),可以根据实际情况灵活调整。同时提醒读者,在处理长时间连续记录的信号时需要注意内存管理问题。

    超表面全息技术中MIM结构的高效几何相位与FDTD仿真解析

    内容概要:本文详细介绍了基于金-氟化镁-金(MIM)结构的超表面全息技术,特别是其高效的几何相位调制和FDTD仿真方法。文章首先解释了MIM结构的独特之处,即通过磁偶极子模式降低辐射损耗,从而显著提高转换效率。接着,文章展示了如何使用FDTD Solutions进行建模,包括设置材料参数、纳米柱尺寸以及应用周期性边界条件。此外,还讨论了几何相位的计算方法及其在相位调制中的应用,并提供了具体的MATLAB代码示例。对于GS算法的应用,文中提出了改进措施以加快收敛速度并提高全息图的质量。最后,文章强调了在效率验证过程中需要注意的技术细节,如正确配置功率监视器和考虑边界效应。 适合人群:从事超表面研究、光学工程、纳米技术和电磁仿真的研究人员和技术人员。 使用场景及目标:适用于希望深入了解MIM结构在超表面全息领域的应用,掌握高效几何相位调制和FDTD仿真的具体实现方法的研究人员。目标是帮助读者理解并复现实验室级别的高效率超表面全息系统。 其他说明:文章不仅提供了详细的理论背景,还包括了大量的代码片段和实践经验,有助于读者更好地理解和应用相关技术。

    示波器基础知识.pdf### 示波器础知识总结

    内容概要:本文档详细介绍了示波器的基础知识,包括其工作原理、分类、关键组件(如CRT、偏转系统、触发系统等)以及各种控制功能。文章首先解释了示波器与普通电压表的区别,强调了示波器能以图形方式显示电压随时间的变化。接着深入探讨了模拟示波器的构造和工作方式,如垂直和水平偏转系统、灵敏度控制、耦合方式、带宽、上升时间等。随后介绍了数字存储示波器(DSO)的特点,包括数字存储、采样和数字化、预触发和后触发、峰值检测等功能。文档还对比了模拟示波器和DSO的优缺点,指出组合示波器兼具两者优势。最后,文档讨论了探头的工作原理、类型及其它附件和软件,帮助用户选择合适的示波器和探头。 适用人群:电子工程师、技术人员、科研人员以及对示波器有兴趣的学习者。 使用场景及目标:①理解示波器的工作原理和基本构造;②掌握模拟示波器和数字存储示波器的操作方法及应用场景;③选择合适的示波器和探头进行电路测试和信号分析;④利用示波器的高级功能(如预触发、峰值检测、自动测量等)提高工作效率。 其他说明:本文档不仅提供了理论知识,还结合实际应用案例,帮助读者更好地理解和使用示波器。文档内容详尽,涵盖了从基础到高级的各种知识点,适合不同层次的读者学习和参考。

    力士乐伺服系统IndraWorks Ds调试技巧与参数优化详解

    内容概要:本文详细介绍了力士乐伺服调试软件IndraWorks Ds 14V24 P5与15V16版本的调试经验和参数优化方法。主要内容涵盖参数映射规则、PID增益设置、通讯配置、心跳检测脚本、速度环调试、轴参数互锁机制、VBA脚本应用、XML配置管理、实时曲线对比、参数备份策略等方面。特别强调了不同版本之间的兼容性和特殊调试技巧,如惯量比设置、加速度斜坡时间调整、动态磁链补偿等。此外,还提供了多个实用的调试工具和技术细节,帮助工程师提高工作效率并解决常见问题。 适合人群:从事伺服控制系统调试的技术人员、自动化工程师以及相关领域的研究人员。 使用场景及目标:适用于力士乐伺服系统的安装、调试和维护过程中,旨在帮助工程师快速掌握关键调试技巧,优化系统性能,减少调试时间和错误发生率。 其他说明:文中提供的具体参数设置和脚本代码均经过实际验证,能够显著提升调试效果。建议读者结合自身应用场景灵活运用这些技术和经验。

    7000张手工修剪和标记的宝可梦图像数据集

    数据说明: 这个数据集包含的所有150只宝可梦都来自第一世代。每只宝可梦有大约25到50张图像。所有图片都以宝可梦为中心。大多数(不是全部)图像质量相对较高(有正确的标签且居中)。这些图像的分辨率不是非常高,因此非常适合一些轻度的分类学习。

    第二十六章:Seaborn库实现统计数据可视化

    资源绑定附上完整资料供读者参考学习!

Global site tag (gtag.js) - Google Analytics