- 浏览: 498218 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (339)
- C# (2)
- Java集合 (7)
- Java设计模式 (15)
- Java基础 (31)
- Java-Spring (7)
- Java-Spring AOP (9)
- Java-Spring Transaction (6)
- Java-Hibernate (13)
- Jsp (7)
- JSTL (2)
- 加密解密 (13)
- sql (3)
- 数据库技术 (7)
- JQuery (2)
- css (3)
- JavaScript (19)
- Linux (34)
- 项目管理 (5)
- Tomcat (5)
- Oracle (4)
- axis2 (5)
- Linux c/c++ (40)
- Linux 防火墙及抓包分析 (10)
- Linux 环境配置 (3)
- Linux 高级命令 (14)
- Linux Server 配置 (9)
- c++ 内存管理 (4)
- JUnit (1)
- SSL 通信 (2)
- windows 系统调试 (8)
- 字符串处理 (8)
- 排序算法 (7)
- ACE (1)
- IT技术 (1)
- 敏捷开发 (1)
- TCPIP (4)
- 汇编语言 (7)
- STL (2)
- Struts (1)
- iBatis (3)
- 音视频开发 (2)
- Java多线程 (3)
- 架构设计 (2)
- Java网络编程 (1)
- Ubantu (0)
- Eclipse (2)
最新评论
-
df270464278:
请问博主有遇到中文乱码的问题吗?就是json字符串里面包含中文 ...
cur发送json字符串, post 请求 -
ykbj117:
你们知道刘绍华么?就是北邮的一个教授,专门研究WebRTC的资 ...
WebRTC -
隐形的翅膀:
不会用powershell
去除SVN标志 -
lengbamboo:
改注册表比较危险,给个powershell的脚本:powers ...
去除SVN标志 -
hedong56:
[/b][b][i][/i][u][/u][flash=20 ...
JAVASCRIPT定义对象的四种方式
int edfd = epoll_create(int size);
生成一个Epoll专用的文件描述符,其实是申请一个内核空间,用来存放你想关注的socket fd上是否发生以及发生了什么事件。size就是你在这个Epoll fd上能关注的最大socket fd数,大小自定,只要内存足够。
int epoll_ctl(int epfd, intop, int fd, structepoll_event *event);
控制某个Epoll文件描述符上的事件:注册、修改、删除。其中参数epfd是epoll_create()创建Epoll专用的文件描述符。相对于select模型中的FD_SET和FD_CLR宏。
intepoll_wait(int epfd,structepoll_event * events,int maxevents,int timeout);
等待I/O事件的发生;参数说明:
epfd:由epoll_create() 生成的Epoll专用的文件描述符;
epoll_event:用于回传代处理事件的数组;
maxevents:每次能处理的事件数;
timeout:等待I/O事件发生的超时值;
返回发生事件数。
相对于select模型中的select函数。
生成一个Epoll专用的文件描述符,其实是申请一个内核空间,用来存放你想关注的socket fd上是否发生以及发生了什么事件。size就是你在这个Epoll fd上能关注的最大socket fd数,大小自定,只要内存足够。
int epoll_ctl(int epfd, intop, int fd, structepoll_event *event);
控制某个Epoll文件描述符上的事件:注册、修改、删除。其中参数epfd是epoll_create()创建Epoll专用的文件描述符。相对于select模型中的FD_SET和FD_CLR宏。
intepoll_wait(int epfd,structepoll_event * events,int maxevents,int timeout);
等待I/O事件的发生;参数说明:
epfd:由epoll_create() 生成的Epoll专用的文件描述符;
epoll_event:用于回传代处理事件的数组;
maxevents:每次能处理的事件数;
timeout:等待I/O事件发生的超时值;
返回发生事件数。
相对于select模型中的select函数。
// // a simple echo server using epoll in linux // // 2009-11-05 // 2013-03-22:修改了几个问题,1是/n格式问题,2是去掉了原代码不小心加上的ET模式; // 本来只是简单的示意程序,决定还是加上 recv/send时的buffer偏移 // by sparkling // #include <sys/socket.h> #include <sys/epoll.h> #include <netinet/in.h> #include <arpa/inet.h> #include <fcntl.h> #include <unistd.h> #include <stdio.h> #include <errno.h> #include <iostream> using namespace std; #define MAX_EVENTS 500 struct myevent_s { int fd; void (*call_back)(int fd, int events, void *arg); int events; void *arg; int status; // 1: in epoll wait list, 0 not in char buff[128]; // recv data buffer int len, s_offset; long last_active; // last active time }; // set event void EventSet(myevent_s *ev, int fd, void (*call_back)(int, int, void*), void *arg) { ev->fd = fd; ev->call_back = call_back; ev->events = 0; ev->arg = arg; ev->status = 0; bzero(ev->buff, sizeof(ev->buff)); ev->s_offset = 0; ev->len = 0; ev->last_active = time(NULL); } // add/mod an event to epoll void EventAdd(int epollFd, int events, myevent_s *ev) { struct epoll_event epv = {0, {0}}; int op; epv.data.ptr = ev; epv.events = ev->events = events; if(ev->status == 1){ op = EPOLL_CTL_MOD; } else{ op = EPOLL_CTL_ADD; ev->status = 1; } if(epoll_ctl(epollFd, op, ev->fd, &epv) < 0) printf("Event Add failed[fd=%d], evnets[%d]\n", ev->fd, events); else printf("Event Add OK[fd=%d], op=%d, evnets[%0X]\n", ev->fd, op, events); } // delete an event from epoll void EventDel(int epollFd, myevent_s *ev) { struct epoll_event epv = {0, {0}}; if(ev->status != 1) return; epv.data.ptr = ev; ev->status = 0; epoll_ctl(epollFd, EPOLL_CTL_DEL, ev->fd, &epv); } int g_epollFd; myevent_s g_Events[MAX_EVENTS+1]; // g_Events[MAX_EVENTS] is used by listen fd void RecvData(int fd, int events, void *arg); void SendData(int fd, int events, void *arg); // accept new connections from clients void AcceptConn(int fd, int events, void *arg) { struct sockaddr_in sin; socklen_t len = sizeof(struct sockaddr_in); int nfd, i; // accept if((nfd = accept(fd, (struct sockaddr*)&sin, &len)) == -1) { if(errno != EAGAIN && errno != EINTR) { } printf("%s: accept, %d", __func__, errno); return; } do { for(i = 0; i < MAX_EVENTS; i++) { if(g_Events[i].status == 0) { break; } } if(i == MAX_EVENTS) { printf("%s:max connection limit[%d].", __func__, MAX_EVENTS); break; } // set nonblocking int iret = 0; if((iret = fcntl(nfd, F_SETFL, O_NONBLOCK)) < 0) { printf("%s: fcntl nonblocking failed:%d", __func__, iret); break; } // add a read event for receive data EventSet(&g_Events[i], nfd, RecvData, &g_Events[i]); EventAdd(g_epollFd, EPOLLIN, &g_Events[i]); }while(0); printf("new conn[%s:%d][time:%d], pos[%d]\n", inet_ntoa(sin.sin_addr), ntohs(sin.sin_port), g_Events[i].last_active, i); } // receive data void RecvData(int fd, int events, void *arg) { struct myevent_s *ev = (struct myevent_s*)arg; int len; // receive data len = recv(fd, ev->buff+ev->len, sizeof(ev->buff)-1-ev->len, 0); EventDel(g_epollFd, ev); if(len > 0) { ev->len += len; ev->buff[len] = '\0'; printf("C[%d]:%s\n", fd, ev->buff); // change to send event EventSet(ev, fd, SendData, ev); EventAdd(g_epollFd, EPOLLOUT, ev); } else if(len == 0) { close(ev->fd); printf("[fd=%d] pos[%d], closed gracefully.\n", fd, ev-g_Events); } else { close(ev->fd); printf("recv[fd=%d] error[%d]:%s\n", fd, errno, strerror(errno)); } } // send data void SendData(int fd, int events, void *arg) { struct myevent_s *ev = (struct myevent_s*)arg; int len; // send data len = send(fd, ev->buff + ev->s_offset, ev->len - ev->s_offset, 0); if(len > 0) { printf("send[fd=%d], [%d<->%d]%s\n", fd, len, ev->len, ev->buff); ev->s_offset += len; if(ev->s_offset == ev->len) { // change to receive event EventDel(g_epollFd, ev); EventSet(ev, fd, RecvData, ev); EventAdd(g_epollFd, EPOLLIN, ev); } } else { close(ev->fd); EventDel(g_epollFd, ev); printf("send[fd=%d] error[%d]\n", fd, errno); } } void InitListenSocket(int epollFd, short port) { int listenFd = socket(AF_INET, SOCK_STREAM, 0); fcntl(listenFd, F_SETFL, O_NONBLOCK); // set non-blocking printf("server listen fd=%d\n", listenFd); EventSet(&g_Events[MAX_EVENTS], listenFd, AcceptConn, &g_Events[MAX_EVENTS]); // add listen socket EventAdd(epollFd, EPOLLIN, &g_Events[MAX_EVENTS]); // bind & listen sockaddr_in sin; bzero(&sin, sizeof(sin)); sin.sin_family = AF_INET; sin.sin_addr.s_addr = INADDR_ANY; sin.sin_port = htons(port); bind(listenFd, (const sockaddr*)&sin, sizeof(sin)); listen(listenFd, 5); } int main(int argc, char **argv) { unsigned short port = 12345; // default port if(argc == 2){ port = atoi(argv[1]); } // create epoll g_epollFd = epoll_create(MAX_EVENTS); if(g_epollFd <= 0) printf("create epoll failed.%d\n", g_epollFd); // create & bind listen socket, and add to epoll, set non-blocking InitListenSocket(g_epollFd, port); // event loop struct epoll_event events[MAX_EVENTS]; printf("server running:port[%d]\n", port); int checkPos = 0; while(1){ // a simple timeout check here, every time 100, better to use a mini-heap, and add timer event long now = time(NULL); for(int i = 0; i < 100; i++, checkPos++) // doesn't check listen fd { if(checkPos == MAX_EVENTS) checkPos = 0; // recycle if(g_Events[checkPos].status != 1) continue; long duration = now - g_Events[checkPos].last_active; if(duration >= 60) // 60s timeout { close(g_Events[checkPos].fd); printf("[fd=%d] timeout[%d--%d].\n", g_Events[checkPos].fd, g_Events[checkPos].last_active, now); EventDel(g_epollFd, &g_Events[checkPos]); } } // wait for events to happen int fds = epoll_wait(g_epollFd, events, MAX_EVENTS, 1000); if(fds < 0){ printf("epoll_wait error, exit\n"); break; } for(int i = 0; i < fds; i++){ myevent_s *ev = (struct myevent_s*)events[i].data.ptr; if((events[i].events&EPOLLIN)&&(ev->events&EPOLLIN)) // read event { ev->call_back(ev->fd, events[i].events, ev->arg); } if((events[i].events&EPOLLOUT)&&(ev->events&EPOLLOUT)) // write event { ev->call_back(ev->fd, events[i].events, ev->arg); } } } // free resource return 0; }
发表评论
-
C++析构函数为什么要为虚函数
2015-10-28 16:57 8011.为什么基类的析构函数是虚函数? 在实现多态时,当用基 ... -
#pragma 用法
2014-09-01 13:20 8811. #pragma comment(lib,&quo ... -
Linux 使用共享内存
2014-07-28 17:02 6611. 共享内存与消息队列的区别 消息队列在实现消息的收发时, ... -
Select Poll and EPoll
2014-07-28 14:46 320... -
GDB 调试
2014-06-13 09:56 914http://wiki.ubuntu.org.cn/%E7%9 ... -
采用Makefile编译C++ 多个文件
2014-06-12 14:00 130181. 假设我们下面几个c++文件 wherewhen.h ... -
Linux gcc 编译生成动态和静态库
2014-04-28 14:26 629一、基本概念 1.1什么是库 在windows平台和lin ... -
Std::Map
2014-04-08 15:23 9011. map中的元素其实就是 ... -
套接字基础
2014-03-13 10:42 7011. int socket(int domain,int t ... -
常用的头文件
2014-02-25 10:29 7671. printf,snprintf need #inclu ... -
虚函数的几个误区
2013-12-16 17:54 756纯虚函数 1. C++ 子类没有实现父类的纯虚函数,则子类也 ... -
虚函数,纯虚函数,抽象类
2013-09-22 10:01 1107定义一个函数为虚函数,不代表函数为不被实现的函数。 定义他为虚 ... -
虚基类,虚函数,虚析构函数
2013-09-22 09:36 925继承的类的前面加上virt ... -
C++基础知识 -数组,指针与字符串
2013-09-10 20:00 11761. 数组 声明: int A[10],B[10] ... -
C++基础知识
2013-09-07 21:03 8111. typedef 自定义数据类型,就是给已有数据类型起一 ... -
记录日志
2013-09-03 05:25 864openlog syslog closelog exampl ... -
Linux C 常用函数
2013-09-03 05:17 7961. Linux 常用C函数 http://man.chin ... -
Linux 内存检查
2013-08-27 09:56 846在Linux下些C语言程序,最大的问题就是没有一个好的编程ID ... -
RTP网络视频传输
2013-08-17 07:02 1100http://javahigh1.iteye.com/blog ... -
ldconfig
2013-08-15 15:45 0如何设置自己的共享库目录?/etc/ld.so.conf下增加 ...
相关推荐
在Linux系统中,epoll是I/O多路复用技术的一种高效实现,它提供了一种在高并发场景下处理大量文件描述符(file descriptors)的能力。这个“linux epoll的封装类”是为了简化epoll接口的使用,使得初学者能够更轻松...
`epoll`是Linux内核提供的一种I/O多路复用技术,它极大地提高了处理大量并发连接的效率。而`socket`则是进行网络通信的基本接口,它可以用于TCP和UDP协议。本篇文章将深入探讨如何在Linux环境下使用`epoll`与`socket...
在Linux系统中,epoll是I/O多路复用技术的一种高效实现,它极大地改进了传统的轮询方式,尤其在处理大量并发连接时表现出色。本文将深入探讨如何在多线程环境中使用epoll进行程序设计,以提高系统的并行处理能力。 ...
Linux的epoll是一种I/O多路复用技术,主要用于高并发、高性能的网络服务中,如服务器端编程。epoll相比传统的select和poll有更高的效率和可扩展性,因为它使用了内核空间的数据结构,减少了系统调用的开销。 在...
在Linux系统中,epoll是I/O复用技术的一种,它是基于事件驱动的高效I/O管理方式,尤其适合处理大量的并发连接。与传统的select和poll相比,epoll提供了更高的性能和更低的延迟,因为它可以实现水平触发和边缘触发两...
Linux的epoll是一种I/O多路复用技术,它提供了高效、灵活的处理大量并发连接的方式。在传统的轮询模型中,系统会不断检查每个文件描述符的状态,而epoll则通过事件驱动的方式,只在有实际I/O操作时才进行处理,显著...
Windows 完成端口与 Linux epoll 技术简介 Windows 完成端口与 Linux epoll 技术是两种常见的高性能 I/O 模型,在 Windows 和 Linux 平台上广泛应用于开发高性能的网络服务程序。下面我们将详细介绍 Windows 完成...
【标题】:基于Linux Epoll机制的用电信息采集系统设计 【描述】:该文档讨论了如何利用Linux的Epoll机制构建一个用电信息采集系统,旨在适应现代化电力发展需求,提高用电管理的实时化程度。 【标签】:Linux操作...
linux epoll 概念、优缺点、io复用 、脑图、Linux下的服务器模型:
Windows完成端口与Linux epoll技术简介 Windows完成端口是一种高效的I/O模型,可以实现异步I/O操作,提高服务器程序的性能和可扩展性。它是Windows操作系统提供的一种机制,允许开发者在服务器程序中实现高效的I/O...
### Linux Epoll编程实例解析 #### 一、Epoll简介 `epoll` 是 Linux 内核中的一个 I/O 复用技术,用于高效地管理大量并发连接。它通过使用事件驱动模型,允许应用程序监听多个文件描述符上的事件,如读写事件。与...
Linux下的epoll服务器是高性能网络编程中的重要组成部分,它提供了高效、可扩展的I/O多路复用机制。本文将详细解析如何利用epoll在Linux系统下构建TCP服务器,以及涉及的相关类和文件。 首先,`epoll`是Linux内核...
linux epoll ET和LT触发深入分析,深入剖析epoll触发机制。
Linux的epoll是针对大量并发连接的一种I/O多路复用技术,自Linux 2.6内核引入,以解决旧有的select和poll方法在处理大量文件描述符时性能下降的问题。 1. 为什么select落后 - select和poll在文件描述符数量增加时...
linux epoll源码,支持大型服务器,适合高手研究
在Linux系统中,`epoll`是用于I/O多路复用的一种高效机制,尤其适合高并发、大连接数的网络服务。`epoll`在传统的`poll`和`select`基础上进行了优化,解决了它们在处理大量文件描述符时效率低下的问题。本篇文章将...
编写socket tcp通信,服务器是linux epoll,客户端是windows 源代码
linux系统下,利用epoll接收串口助手发来的数据并打印。
### Linux Epoll 介绍与程序实例详解 #### 一、Epoll 的背景及引入原因 在探讨 Epoll 之前,我们需要了解 Linux 并发网络编程的一些常见模型及其不足之处,以此来理解 Epoll 引入的原因。 ##### 1.1 PPC 和 TPC ...
在Linux系统中,epoll是一种I/O事件通知机制,它被设计用来替代传统的select和poll函数,以提高在高并发环境下的性能。epoll的主要优点在于它的效率和可扩展性,使得它成为处理大量并发连接的理想选择,尤其适用于...