上篇文章使用linux内核2.6提供的epoll机制实现了一个反应式echo服务器,使用反应式服务器的最大好处就是可以按cpu的数量来配置线程池 内线程的线程数而不是根据客户端的并发量配置线程池。我是第一次使用pthread库来写线程池,使用的是工作队列方式的线程池。我感觉作队列方式的线程 池可以当成一种设计模式来用的,在很多平台上都是可以按这种方式来实现线程池,从win32 ,unix到jvm都是适用的
#include <iostream>
#include <sys/socket.h>
#include <sys/epoll.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <fcntl.h>
#include <unistd.h>
#include <stdio.h>
#include <pthread.h>
#define MAXLINE 10
#define OPEN_MAX 100
#define LISTENQ 20
#define SERV_PORT 5555
#define INFTIM 1000
//线程池任务队列结构体
struct task{
int fd; //需要读写的文件描述符
struct task *next; //下一个任务
};
//用于读写两个的两个方面传递参数
struct user_data{
int fd;
unsigned int n_size;
char line[MAXLINE];
};
//线程的任务函数
void * readtask(void *args);
void * writetask(void *args);
//声明epoll_event结构体的变量,ev用于注册事件,数组用于回传要处理的事件
struct epoll_event ev,events[20];
int epfd;
pthread_mutex_t mutex;
pthread_cond_t cond1;
struct task *readhead=NULL,*readtail=NULL,*writehead=NULL;
void setnonblocking(int sock)
{
int opts;
opts=fcntl(sock,F_GETFL);
if(opts<0)
{
perror("fcntl(sock,GETFL)");
exit(1);
}
opts = opts|O_NONBLOCK;
if(fcntl(sock,F_SETFL,opts)<0)
{
perror("fcntl(sock,SETFL,opts)");
exit(1);
}
}
int main()
{
int i, maxi, listenfd, connfd, sockfd,nfds;
pthread_t tid1,tid2;
struct task *new_task=NULL;
struct user_data *rdata=NULL;
socklen_t clilen;
pthread_mutex_init(&mutex,NULL);
pthread_cond_init(&cond1,NULL);
//初始化用于读线程池的线程
pthread_create(&tid1,NULL,readtask,NULL);
pthread_create(&tid2,NULL,readtask,NULL);
//生成用于处理accept的epoll专用的文件描述符
epfd=epoll_create(256);
struct sockaddr_in clientaddr;
struct sockaddr_in serveraddr;
listenfd = socket(AF_INET, SOCK_STREAM, 0);
//把socket设置为非阻塞方式
setnonblocking(listenfd);
//设置与要处理的事件相关的文件描述符
ev.data.fd=listenfd;
//设置要处理的事件类型
ev.events=EPOLLIN|EPOLLET;
//注册epoll事件
epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);
bzero(&serveraddr, sizeof(serveraddr));
serveraddr.sin_family = AF_INET;
char *local_addr="200.200.200.222";
inet_aton(local_addr,&(serveraddr.sin_addr));//htons(SERV_PORT);
serveraddr.sin_port=htons(SERV_PORT);
bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));
listen(listenfd, LISTENQ);
maxi = 0;
for ( ; ; ) {
//等待epoll事件的发生
nfds=epoll_wait(epfd,events,20,500);
//处理所发生的所有事件
for(i=0;i
{
if(events[i].data.fd==listenfd)
{
connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen);
if(connfd<0){
perror("connfd<0");
exit(1);
}
setnonblocking(connfd);
char *str = inet_ntoa(clientaddr.sin_addr);
std::cout<<"connec_ from >>"<<str><</str>
//设置用于读操作的文件描述符
ev.data.fd=connfd;
//设置用于注测的读操作事件
ev.events=EPOLLIN|EPOLLET;
//注册ev
epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);
}
else if(events[i].events&EPOLLIN)
{
printf("reading!\n");
if ( (sockfd = events[i].data.fd) < 0) continue;
new_task=new task();
new_task->fd=sockfd;
new_task->next=NULL;
//添加新的读任务
pthread_mutex_lock(&mutex);
if(readhead==NULL)
{
readhead=new_task;
readtail=new_task;
}
else
{
readtail->next=new_task;
readtail=new_task;
}
//唤醒所有等待cond1条件的线程
pthread_cond_broadcast(&cond1);
pthread_mutex_unlock(&mutex);
}
else if(events[i].events&EPOLLOUT)
{
rdata=(struct user_data *)events[i].data.ptr;
sockfd = rdata->fd;
write(sockfd, rdata->line, rdata->n_size);
delete rdata;
//设置用于读操作的文件描述符
ev.data.fd=sockfd;
//设置用于注测的读操作事件
ev.events=EPOLLIN|EPOLLET;
//修改sockfd上要处理的事件为EPOLIN
epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);
}
}
}
}
void * readtask(void *args)
{
int fd=-1;
unsigned int n;
//用于把读出来的数据传递出去
struct user_data *data = NULL;
while(1){
pthread_mutex_lock(&mutex);
//等待到任务队列不为空
while(readhead==NULL)
pthread_cond_wait(&cond1,&mutex);
fd=readhead->fd;
//从任务队列取出一个读任务
struct task *tmp=readhead;
readhead = readhead->next;
delete tmp;
pthread_mutex_unlock(&mutex);
data = new user_data();
data->fd=fd;
if ( (n = read(fd, data->line, MAXLINE)) < 0) {
if (errno == ECONNRESET) {
close(fd);
} else
std::cout<<"readline error"<
if(data!=NULL)delete data;
} else if (n == 0) {
close(fd);
printf("Client close connect!\n");
if(data!=NULL)delete data;
} else{
data->n_size=n;
//设置需要传递出去的数据
ev.data.ptr=data;
//设置用于注测的写操作事件
ev.events=EPOLLOUT|EPOLLET;
//修改sockfd上要处理的事件为EPOLLOUT
epoll_ctl(epfd,EPOLL_CTL_MOD,fd,&ev);
}
}
}
分享到:
相关推荐
epoll用到的所有函数都是在头文件sys/epoll.h中声明的,本文简要说明所用到的数据结构和函数。
本文研究了基于 Linux 系统的高并发服务器实现,通过使用 epoll 机制和线程池技术来提高服务器的并发能力和实时性。以下是本文的知识点概述: 1. 客户机/服务器模式(Client/Server):客户机向服务器提出请求,...
其次,本文给出了基于epoll+线程池技术设计的高并发服务器详细算法,并提供了一个在Linux环境下用C语言编写的基于epoll和线程池技术的服务器和客户端实验程序,实现了服务器和客户端之间的并发通信,以及实验结果的...
这个Web服务器的实现是基于Linux内核提供的异步I/O模型,Epoll,以及线程池策略,以优化系统资源的使用和提高并发性能。 首先,让我们理解Epoll(Event Poll)是什么。Epoll是Linux内核提供的一种I/O多路复用技术,...
在Linux 系统下面用C 语言实现的高并发服务器的代码,具体用到了Epoll,线程池,数据库连接池。 具体可以看下连接http://blog.csdn.net/wuyuxing24/article/details/48758927
首先,Epoll是Linux内核提供的一种I/O多路复用技术,相比传统的select和poll,Epoll具有更高的效率和更好的可扩展性。它通过epoll_create创建一个Epoll实例,然后使用epoll_ctl注册需要监听的文件描述符。当有事件...
java运行依赖jar包
在Linux操作系统中,为了高效地处理大量的并发连接,开发者通常会使用线程池技术,结合Epoll事件驱动机制,以优化系统性能。本压缩包文件"Linux C epoll.zip"包含了用C语言实现的Linux线程池及其与Epoll的集成应用,...
在编程实践中,理解这些基础概念以及它们在不同场景下的应用非常重要,特别是对于编写高并发、高性能的服务器程序,EPOLL 的使用显得尤为关键。正确理解和使用 EPOLL 可以显著提升程序的效率和可靠性。
在构建高性能的网络服务时,epoll和线程池是两个关键的技术概念,它们在Linux系统中被广泛用于处理高并发的TCP连接。本项目"epoll、线程池实现在线电子词典"就是利用这两种技术来实现一个高效、稳定的服务端,能够...
总结,基于EPOLL机制的Linux网络游戏服务器实现方法利用了Linux 2.6内核提供的高效I/O机制,解决了大量并发用户请求的问题,降低了系统开销,提高了服务器性能。通过合理的架构设计和优化策略,可以构建出稳定、高效...
java运行依赖jar包
赠送jar包:netty-transport-classes-epoll-4.1.74.Final.jar; 赠送原API文档:netty-transport-classes-epoll-4.1.74.Final-javadoc.jar; 赠送源代码:netty-transport-classes-epoll-4.1.74.Final-sources.jar;...
在这个“Linux下使用EPoll+队列+多线程的C++实现”项目中,开发者使用了`epoll`来监听并管理TCP服务器的连接。`epoll`的工作流程大致如下: 1. **创建epoll句柄**:首先,通过`epoll_create()`函数创建一个epoll...
赠送jar包:netty-transport-classes-epoll-4.1.73.Final.jar; 赠送原API文档:netty-transport-classes-epoll-4.1.73.Final-javadoc.jar; 赠送源代码:netty-transport-classes-epoll-4.1.73.Final-sources.jar;...
Epoll(Event Poll)是Linux 2.6内核引入的改进版的poll机制,它提供了基于文件描述符的事件多路复用技术。epoll相比旧的select和poll有更高的性能和可扩展性,尤其在处理大量并发连接时。epoll通过`epoll_create()`...
标题中的“线程池epoll多路复用服务器c++”是一个高级的计算机网络编程概念,涉及到C++语言实现的服务器架构。这个架构利用了线程池和epoll(I/O多路复用)技术来提高服务器处理并发连接的能力。下面我们将详细探讨...
Epoll是Linux内核提供的一种高效、可扩展的I/O事件通知机制。它是基于事件驱动的I/O模型,相比传统的select和poll,epoll在处理大量并发连接时表现出更好的性能和可扩展性。Epoll的核心概念包括`epoll_create()`创建...