`
li-yuan
  • 浏览: 68609 次
  • 性别: Icon_minigender_1
  • 来自: 成都
社区版块
存档分类
最新评论

linux 2.6内核epoll用法举例说明(续)--给echo服务器增加读线程池

阅读更多
上篇文章使用linux内核2.6提供的epoll机制实现了一个反应式echo服务器,使用反应式服务器的最大好处就是可以按cpu的数量来配置线程池 内线程的线程数而不是根据客户端的并发量配置线程池。我是第一次使用pthread库来写线程池,使用的是工作队列方式的线程池。我感觉作队列方式的线程 池可以当成一种设计模式来用的,在很多平台上都是可以按这种方式来实现线程池,从win32 ,unix到jvm都是适用的

 


#include <iostream>

#include <sys/socket.h>

#include <sys/epoll.h>

#include <netinet/in.h>

#include <arpa/inet.h>

#include <fcntl.h>

#include <unistd.h>

#include <stdio.h>

#include <pthread.h>

 

#define MAXLINE 10

#define OPEN_MAX 100

#define LISTENQ 20

#define SERV_PORT 5555

#define INFTIM 1000

 

//线程池任务队列结构体

struct task{

  int fd;            //需要读写的文件描述符

  struct task *next; //下一个任务

};

 

//用于读写两个的两个方面传递参数

struct user_data{

  int fd;

  unsigned int n_size;

  char line[MAXLINE];

};

 

//线程的任务函数

void * readtask(void *args);

void * writetask(void *args);

 

 

//声明epoll_event结构体的变量,ev用于注册事件,数组用于回传要处理的事件

struct epoll_event ev,events[20];

int epfd;

pthread_mutex_t mutex;

pthread_cond_t cond1;

struct task *readhead=NULL,*readtail=NULL,*writehead=NULL;

 

void setnonblocking(int sock)

{

     int opts;

     opts=fcntl(sock,F_GETFL);

     if(opts<0)

     {

          perror("fcntl(sock,GETFL)");

          exit(1);

     }

    opts = opts|O_NONBLOCK;

     if(fcntl(sock,F_SETFL,opts)<0)

     {

          perror("fcntl(sock,SETFL,opts)");

          exit(1);

     }   

}

 

int main()

{

     int i, maxi, listenfd, connfd, sockfd,nfds;

     pthread_t tid1,tid2;

    

     struct task *new_task=NULL;

     struct user_data *rdata=NULL;

     socklen_t clilen;

    

     pthread_mutex_init(&mutex,NULL);

     pthread_cond_init(&cond1,NULL);

     //初始化用于读线程池的线程

     pthread_create(&tid1,NULL,readtask,NULL);

     pthread_create(&tid2,NULL,readtask,NULL);

    

     //生成用于处理acceptepoll专用的文件描述符   

     epfd=epoll_create(256);

 

     struct sockaddr_in clientaddr;

     struct sockaddr_in serveraddr;

     listenfd = socket(AF_INET, SOCK_STREAM, 0);

     //socket设置为非阻塞方式

     setnonblocking(listenfd);

     //设置与要处理的事件相关的文件描述符

     ev.data.fd=listenfd;

     //设置要处理的事件类型

     ev.events=EPOLLIN|EPOLLET;

     //注册epoll事件

     epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);

    

     bzero(&serveraddr, sizeof(serveraddr));

     serveraddr.sin_family = AF_INET;

    

     char *local_addr="200.200.200.222";

     inet_aton(local_addr,&(serveraddr.sin_addr));//htons(SERV_PORT);

     serveraddr.sin_port=htons(SERV_PORT);

     bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));

     listen(listenfd, LISTENQ);

    

     maxi = 0;

     for ( ; ; ) {

          //等待epoll事件的发生

          nfds=epoll_wait(epfd,events,20,500);

          //处理所发生的所有事件     

        for(i=0;i

        {

               if(events[i].data.fd==listenfd)

               {

                   

                    connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen);

                    if(connfd<0){

                      perror("connfd<0");

                      exit(1);

                   }

                    setnonblocking(connfd);

                   

                    char *str = inet_ntoa(clientaddr.sin_addr);

                    std::cout<<"connec_ from >>"<<str><</str>

                    //设置用于读操作的文件描述符

                    ev.data.fd=connfd;

                    //设置用于注测的读操作事件

                 ev.events=EPOLLIN|EPOLLET;

                    //注册ev

                 epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);

               }

            else if(events[i].events&EPOLLIN)

            {

                    printf("reading!\n");                

                    if ( (sockfd = events[i].data.fd) < 0) continue;

                    new_task=new task();

                    new_task->fd=sockfd;

                    new_task->next=NULL;

                    //添加新的读任务

                    pthread_mutex_lock(&mutex);

                    if(readhead==NULL)

                    {

                      readhead=new_task;

                      readtail=new_task;

                    }   

                    else

                    {   

                     readtail->next=new_task;

                      readtail=new_task;

                    }   

                   //唤醒所有等待cond1条件的线程

                    pthread_cond_broadcast(&cond1);

                    pthread_mutex_unlock(&mutex);  

              }

               else if(events[i].events&EPOLLOUT)

               {   

              rdata=(struct user_data *)events[i].data.ptr;

                 sockfd = rdata->fd;

                 write(sockfd, rdata->line, rdata->n_size);

                 delete rdata;

                 //设置用于读操作的文件描述符

                 ev.data.fd=sockfd;

                 //设置用于注测的读操作事件

               ev.events=EPOLLIN|EPOLLET;

                 //修改sockfd上要处理的事件为EPOLIN

               epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);

               }

                             

          }

         

     }

}

void * readtask(void *args)

{

   

   int fd=-1;

   unsigned int n;

   //用于把读出来的数据传递出去

   struct user_data *data = NULL;

   while(1){

        

        pthread_mutex_lock(&mutex);

        //等待到任务队列不为空

        while(readhead==NULL)

             pthread_cond_wait(&cond1,&mutex);

        

        fd=readhead->fd;

        //从任务队列取出一个读任务

        struct task *tmp=readhead;

        readhead = readhead->next;

        delete tmp;

        pthread_mutex_unlock(&mutex);

        data = new user_data();

        data->fd=fd;

        if ( (n = read(fd, data->line, MAXLINE)) < 0) {

           

           if (errno == ECONNRESET) {

             close(fd);

             

          } else

             std::cout<<"readline error"<

           if(data!=NULL)delete data;

        } else if (n == 0) {

            close(fd);

           printf("Client close connect!\n");

           if(data!=NULL)delete data;

        } else{

        

        data->n_size=n;

        //设置需要传递出去的数据

        ev.data.ptr=data;

        //设置用于注测的写操作事件

        ev.events=EPOLLOUT|EPOLLET;

        //修改sockfd上要处理的事件为EPOLLOUT

        epoll_ctl(epfd,EPOLL_CTL_MOD,fd,&ev);

       }

   }

}

分享到:
评论

相关推荐

    Linux 2.6 内核Epoll用法举例说明

    epoll用到的所有函数都是在头文件sys/epoll.h中声明的,本文简要说明所用到的数据结构和函数。

    Linux下基于epoll_线程池高并发服务器实现研究

    本文研究了基于 Linux 系统的高并发服务器实现,通过使用 epoll 机制和线程池技术来提高服务器的并发能力和实时性。以下是本文的知识点概述: 1. 客户机/服务器模式(Client/Server):客户机向服务器提出请求,...

    Linux下基于epoll 线程池高并发服务器实现研究.pdf

    其次,本文给出了基于epoll+线程池技术设计的高并发服务器详细算法,并提供了一个在Linux环境下用C语言编写的基于epoll和线程池技术的服务器和客户端实验程序,实现了服务器和客户端之间的并发通信,以及实验结果的...

    Linux下Epoll+线程池的简单Web服务器

    这个Web服务器的实现是基于Linux内核提供的异步I/O模型,Epoll,以及线程池策略,以优化系统资源的使用和提高并发性能。 首先,让我们理解Epoll(Event Poll)是什么。Epoll是Linux内核提供的一种I/O多路复用技术,...

    Linux + C + Epoll实现高并发服务器(线程池 + 数据库连接池)

    在Linux 系统下面用C 语言实现的高并发服务器的代码,具体用到了Epoll,线程池,数据库连接池。 具体可以看下连接http://blog.csdn.net/wuyuxing24/article/details/48758927

    C-epoll-连接池-线程池.zip

    首先,Epoll是Linux内核提供的一种I/O多路复用技术,相比传统的select和poll,Epoll具有更高的效率和更好的可扩展性。它通过epoll_create创建一个Epoll实例,然后使用epoll_ctl注册需要监听的文件描述符。当有事件...

    Linux C epoll.zip_Linux下线程池_c epoll_epoll C++_epoll 线程池_linux c

    在Linux操作系统中,为了高效地处理大量的并发连接,开发者通常会使用线程池技术,结合Epoll事件驱动机制,以优化系统性能。本压缩包文件"Linux C epoll.zip"包含了用C语言实现的Linux线程池及其与Epoll的集成应用,...

    netty-transport-native-epoll-4.1.15.Final-linux-x86_64.jar

    java运行依赖jar包

    EPOLL-linux下select-poll的增强版

    在编程实践中,理解这些基础概念以及它们在不同场景下的应用非常重要,特别是对于编写高并发、高性能的服务器程序,EPOLL 的使用显得尤为关键。正确理解和使用 EPOLL 可以显著提升程序的效率和可靠性。

    epoll、线程池实现在线电子词典

    在构建高性能的网络服务时,epoll和线程池是两个关键的技术概念,它们在Linux系统中被广泛用于处理高并发的TCP连接。本项目"epoll、线程池实现在线电子词典"就是利用这两种技术来实现一个高效、稳定的服务端,能够...

    基于EPOLL机制的LINUX网络游戏服务器实现方法

    总结,基于EPOLL机制的Linux网络游戏服务器实现方法利用了Linux 2.6内核提供的高效I/O机制,解决了大量并发用户请求的问题,降低了系统开销,提高了服务器性能。通过合理的架构设计和优化策略,可以构建出稳定、高效...

    netty-transport-native-epoll-4.1.36.Final-linux-x86_64.jar

    java运行依赖jar包

    netty-transport-classes-epoll-4.1.74.Final-API文档-中文版.zip

    赠送jar包:netty-transport-classes-epoll-4.1.74.Final.jar; 赠送原API文档:netty-transport-classes-epoll-4.1.74.Final-javadoc.jar; 赠送源代码:netty-transport-classes-epoll-4.1.74.Final-sources.jar;...

    Linux下使用EPoll+队列+多线程的C++实现

    在这个“Linux下使用EPoll+队列+多线程的C++实现”项目中,开发者使用了`epoll`来监听并管理TCP服务器的连接。`epoll`的工作流程大致如下: 1. **创建epoll句柄**:首先,通过`epoll_create()`函数创建一个epoll...

    netty-transport-classes-epoll-4.1.73.Final-API文档-中文版.zip

    赠送jar包:netty-transport-classes-epoll-4.1.73.Final.jar; 赠送原API文档:netty-transport-classes-epoll-4.1.73.Final-javadoc.jar; 赠送源代码:netty-transport-classes-epoll-4.1.73.Final-sources.jar;...

    linux c epoll服务器windows 客户端通信

    Epoll(Event Poll)是Linux 2.6内核引入的改进版的poll机制,它提供了基于文件描述符的事件多路复用技术。epoll相比旧的select和poll有更高的性能和可扩展性,尤其在处理大量并发连接时。epoll通过`epoll_create()`...

    线程池epoll多路复用服务器c++

    标题中的“线程池epoll多路复用服务器c++”是一个高级的计算机网络编程概念,涉及到C++语言实现的服务器架构。这个架构利用了线程池和epoll(I/O多路复用)技术来提高服务器处理并发连接的能力。下面我们将详细探讨...

    epoll 多线程 线程池

    Epoll是Linux内核提供的一种高效、可扩展的I/O事件通知机制。它是基于事件驱动的I/O模型,相比传统的select和poll,epoll在处理大量并发连接时表现出更好的性能和可扩展性。Epoll的核心概念包括`epoll_create()`创建...

Global site tag (gtag.js) - Google Analytics