`
yuanyu5237
  • 浏览: 162736 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

简单epoll多线程服务器

 
阅读更多

学习

/* Linux 2.6 x86_64 only*/ 
#include <pthread.h> 
#include <string.h> 
#include <stdlib.h> 
#include <unistd.h> 
#include <stdio.h> 
#include <fcntl.h>

#include <arpa/inet.h> 
#include <sys/epoll.h> 
#include <sys/errno.h>
#include <sys/socket.h> 

#define THREAD_MAX 20 
#define LISTEN_MAX 20 
#define SERVER_IP "127.0.0.1" 

typedef struct {
    char ip4[128]; 
    int port; 
    int fd; 
} LISTEN_INFO; 

//服务器参数 
static LISTEN_INFO s_listens[LISTEN_MAX]; 

//线程池参数 
static unsigned int s_thread_para[THREAD_MAX][8];//线程参数 
static pthread_t s_tid[THREAD_MAX];//线程ID 
pthread_mutex_t s_mutex[THREAD_MAX];//线程锁 

//私有函数 
static int init_thread_pool(void);//初始化数据
static int init_listen4(char *ip4, int port, int max_link); //初始化监听

//线程函数 
void * test_server4(unsigned int thread_para[]);

//设置文件描述符为NonBlock
bool setNonBlock(int fd)
{
    int flags = fcntl(fd, F_GETFL, 0);
    flags |= O_NONBLOCK;
    if(-1 == fcntl(fd, F_SETFL, flags))
        return false;
    return true;
}
 
int main(int argc, char *argv[])//客户端驱动 
{ 
    //临时变量 
    int i, j, rc; 

    int sock_listen; //监听套接字 
    int sock_cli; //客户端连接 
    int listen_index; 

    int epfd; 
    int nfds; 
    struct epoll_event ev; 
    struct epoll_event events[LISTEN_MAX];
     
    socklen_t addrlen; //地址信息长度 
    struct sockaddr_in addr4; //IPv4地址结构 

    //线程池初始化 
    rc = init_thread_pool(); 
    if (0 != rc) exit(-1); 

    //初始化服务监听 
    for(i = 0; i < LISTEN_MAX; i++) { 
        sprintf(s_listens[i].ip4, "%s", SERVER_IP); 
        s_listens[i].port = 40000 + i; 
        //创建监听 
        rc = init_listen4(s_listens[i].ip4, s_listens[i].port, 64); 
        if (0 > rc) { 
            fprintf(stderr, "无法创建服务器监听于%s:%d\r\n", s_listens[i].ip4, s_listens[i].port); 
            exit(-1); 
        } else {
            fprintf(stdout, "已创建服务器监听于%s:%d\r\n", s_listens[i].ip4, s_listens[i].port);  
        } 
        s_listens[i].fd = rc; 
    } 
     
    //设置集合 
    epfd = epoll_create(8192); 
    for (i = 0; i < LISTEN_MAX; i++) { 
        //加入epoll事件集合 
        ev.events = EPOLLIN | EPOLLET;
        ev.data.u32 = i;//记录listen数组下标 
        if (epoll_ctl(epfd, EPOLL_CTL_ADD, s_listens[i].fd, &ev) < 0) { 
            fprintf(stderr, "向epoll集合添加套接字失败(fd =%d)\r\n", rc); 
            exit(-1); 
        } 
    } 
     
    //服务循环 
    for( ; ; ) { 
        //等待epoll事件 
        nfds = epoll_wait(epfd, events, LISTEN_MAX, -1); 
        //处理epoll事件 
        for(i = 0; i < nfds; i++) { 
            //接收客户端连接 
            listen_index = events[i].data.u32; 
            sock_listen = s_listens[listen_index].fd; 
            addrlen = sizeof(struct sockaddr_in); 
            bzero(&addr4, addrlen); 
             
            sock_cli = accept(sock_listen, (struct sockaddr *)&addr4, &addrlen); 
            if(0 > sock_cli) { 
                fprintf(stderr, "接收客户端连接失败\n"); 
                continue; 
            } else {
                char *myIP = inet_ntoa(addr4.sin_addr);
                printf("accept a connection from %s...\n", myIP); 
            } 
             
            setNonBlock(sock_cli);
            //查询空闲线程对 
            for(j = 0; j < THREAD_MAX; j++) { 
                if (0 == s_thread_para[j][0]) break; 
            } 
            if (j >= THREAD_MAX) { 
                fprintf(stderr, "线程池已满, 连接将被放弃\r\n"); 
                shutdown(sock_cli, SHUT_RDWR); 
                close(sock_cli); 
                continue; 
            } 
            //复制有关参数 
            s_thread_para[j][0] = 1;//设置活动标志为"活动" 
            s_thread_para[j][1] = sock_cli;//客户端连接 
            s_thread_para[j][2] = listen_index;//服务索引 
            //线程解锁 
            pthread_mutex_unlock(s_mutex + j); 
        }//end of for(i;;) 
    }//end of for(;;) 

    exit(0); 
} 

static int init_thread_pool(void) 
{ 
    int i, rc; 

    //初始化线程池参数 
    for(i = 0; i < THREAD_MAX; i++) { 
        s_thread_para[i][0] = 0;//设置线程占用标志为"空闲" 
        s_thread_para[i][7] = i;//线程池索引 
        pthread_mutex_lock(s_mutex + i);// 这个地方为什么要加锁?不加锁创建监听有时会不成功 
    } 

    //创建线程池 
    for(i = 0; i < THREAD_MAX; i++) { 
        rc = pthread_create(s_tid + i, 0, (void* (*)(void *))test_server4, (void *)(s_thread_para[i])); 
        if (0 != rc) { 
            fprintf(stderr, "线程创建失败\n"); 
            return(-1); 
        } 
    } 

    //成功返回 
    return(0); 
} 

static int init_listen4(char *ip4, int port, int max_link) 
{ 
    //临时变量 
    int sock_listen4; 
    struct sockaddr_in addr4; 
    unsigned int optval; 
    struct linger optval1; 

    //初始化数据结构 
    bzero(&addr4, sizeof(addr4)); 
    //inet_pton将点分十进制IP转换为整数
    inet_pton(AF_INET, ip4, &(addr4.sin_addr)); 
    addr4.sin_family = AF_INET; 
    //htons将无符号short从主机字节序(x86:Big-Endian)转换为网络字节序
    addr4.sin_port = htons(port); 
     
    //创建流类型的SOCKET 
    sock_listen4 = socket(AF_INET, SOCK_STREAM, 0); 
    if (0 > sock_listen4) {
        fprintf(stderr, "创建socket异常, sock_listen4:%d\n", sock_listen4);
        perror("创建socket异常");
        return(-1); 
    }
     
    //设置SO_REUSEADDR选项(服务器快速重起) 
    optval = 0x1; 
    setsockopt(sock_listen4, SOL_SOCKET, SO_REUSEADDR, &optval, 4); 

    //设置SO_LINGER选项(防范CLOSE_WAIT挂住所有套接字) 
    optval1.l_onoff = 1; 
    optval1.l_linger = 60; 
    setsockopt(sock_listen4, SOL_SOCKET, SO_LINGER, &optval1, sizeof(struct linger)); 

    if (0 > bind(sock_listen4, (struct sockaddr *)&addr4, sizeof(addr4))) { 
        fprintf(stderr, "bind socket异常, sock_listen4:%d\n", sock_listen4);
        perror("bind socket异常");
        close(sock_listen4);
        return(-1); 
    } 

    if (0 > listen(sock_listen4, max_link)) { 
        fprintf(stderr, "listen socket异常, sock_listen4:%d\n", sock_listen4);
        perror("listen socket异常");
        close(sock_listen4); 
        return(-1); 
    } 

    return (sock_listen4); 
} 

void * test_server4(unsigned int thread_para[]) 
{ 
    //临时变量 
    int sock_cli; //客户端连接 
    int pool_index; //线程池索引 
    int listen_index; //监听索引 

    char buff[32768]; //传输缓冲区 
    int i, j, len; 
    char *p; 

    //线程脱离创建者 
    pthread_detach(pthread_self()); 
    pool_index = thread_para[7]; 

wait_unlock: 
    pthread_mutex_lock(s_mutex + pool_index);//等待线程解锁 

    //线程变量内容复制 
    sock_cli = thread_para[1];//客户端连接 
    listen_index = thread_para[2];//监听索引 

    //接收请求 
    len = recv(sock_cli, buff, sizeof(buff), MSG_NOSIGNAL); 
    printf("%s\n", buff);
     
    //构造响应 
    p = buff; 
    //HTTP头 
    p += sprintf(p, "HTTP/1.1 200 OK\r\n"); 
    p += sprintf(p, "Content-Type: text/html\r\n"); 
    p += sprintf(p, "Connection: closed\r\n\r\n"); 
    //页面 
    p += sprintf(p, "<html>\r\n<head>\r\n"); 
    p += sprintf(p, "<meta content=\"text/html; charset=UTF-8\" http-equiv=\"Content-Type\">\r\n"); 
    p += sprintf(p, "</head>\r\n"); 
    p += sprintf(p, "<body style=\"background-color: rgb(229, 229, 229);\">\r\n"); 

    p += sprintf(p, "<center>\r\n"); 
    p += sprintf(p, "<H3>连接状态</H3>\r\n"); 
    p += sprintf(p, "<p>服务器地址 %s:%d</p>\r\n", s_listens[listen_index].ip4, s_listens[listen_index].port); 
    j = 0; 
    for(i = 0; i < THREAD_MAX; i++) { 
        if (0 != s_thread_para[i][0]) j++; 
    } 
    p += sprintf(p, "<H3>线程池状态</H3>\r\n"); 
    p += sprintf(p, "<p>线程池总数 %d 活动线程总数 %d</p>\r\n", THREAD_MAX, j); 
    p += sprintf(p, "</center></body></html>\r\n"); 
    len = p - buff; 
     
    //发送响应 
    send(sock_cli, buff, len, MSG_NOSIGNAL); 
    memset(buff, 0, 32768);
     
    //释放连接 
    shutdown(sock_cli, SHUT_RDWR); 
    close(sock_cli); 

    //线程任务结束 
    thread_para[0] = 0;//设置线程占用标志为"空闲" 
    goto wait_unlock; 

    pthread_exit(NULL); 
} 
 g++ epollthreadpoll.cpp lpthread
分享到:
评论
3 楼 yuanyu5237 2013-12-19  
haolifeng 写道
如果不对客户端的连接文件描述符进行监听,你这个服务器是有问题的!

这个实现确实不好,使用了epoll,就没必要多线程,这里客户端获得连接后就单独在另外的线程里处理,没有继续进行事件监听,这是我的理解,不知道对不对
2 楼 haolifeng 2013-06-08  
如果不对客户端的连接文件描述符进行监听,你这个服务器是有问题的!
1 楼 haolifeng 2013-06-08  
我对你的代码有一个问题,当获得客户端的连接文件描述符后,为什么不对这些文件描述符添加到epoll事件集合中进行事件监听?

相关推荐

    epoll多线程高并发服务器代码

    linux下完整的epoll多线程高并发服务器代码

    linux epoll多线程编程 例子

    总结来说,Linux的epoll多线程编程能够有效地提升高并发场景下的系统性能,通过结合线程池,可以更好地管理和调度资源,降低系统开销。正确理解和运用这些技术,对于开发高效、稳定的服务器程序至关重要。

    EPOLL多线程TCP服务器

    本主题聚焦于"EPOLL多线程TCP服务器",我们将深入探讨EPOLL的工作原理、多线程模型及其在TCP服务器中的应用。 EPOLL(Event Poll)是Linux内核提供的一种I/O事件通知机制,它是select和poll的升级版,具有更高的...

    linux epoll多线程编程实例,在Linux下编译通过

    具体到"Linux epoll多线程编程实例",在MyLinuxThread这个项目中,我们可以预见到以下关键部分: 1. **线程池设计**:可能采用了线程池来管理多个工作线程,线程池中的线程负责处理来自epoll的事件。 2. **事件...

    Linux下使用EPoll+队列+多线程的C++实现

    在这个“Linux下使用EPoll+队列+多线程的C++实现”项目中,开发者使用了`epoll`来监听并管理TCP服务器的连接。`epoll`的工作流程大致如下: 1. **创建epoll句柄**:首先,通过`epoll_create()`函数创建一个epoll...

    epoll 多线程 线程池

    最后,尝试自己编写一个简单的应用,例如一个使用epoll的TCP服务器,配合多线程和线程池处理客户端请求,以此巩固所学知识。 总之,epoll、多线程和线程池是构建高性能、高并发系统的关键技术,熟练掌握它们对于...

    Linux网络编程(四)——epoll+多线程实现简单的聊天(linux 服务器端 windows客户端)

    在本篇中,我们将深入探讨如何使用Linux网络编程技术,特别是epoll和多线程机制,来构建一个简单的跨平台聊天应用。这个应用涉及到Linux服务器端和Windows客户端的交互,让我们逐一解析其中的关键知识点。 首先,`...

    epoll 的并发服务器

    在开发并发服务器时,通常采用多线程或者多进程模型,结合`epoll`进行I/O事件处理。以下是一个基本流程: 1. **初始化**:创建`epoll`实例,监听套接字(监听所有客户端连接请求)加入`epoll`。 2. **循环等待**:...

    Linux下基于epoll_线程池高并发服务器实现研究

    Linux 下基于 epoll + 线程池高并发...本文提供了基于 Linux 系统的高并发服务器实现研究,涵盖了客户机/服务器模式、epoll 机制、线程池、网络编程基础等多方面的知识点,为读者提供了详细的技术指导和实践经验。

    本项目包括利用多线程、select、poll以及epoll实现的并发处理连接请求

    这两类都要使用到IO多路复用,O多路复用是指单个进程/线程就可以同时处理多个IO请求。有三个方式select、poll、epoll。 select:将文件描述符放入一个集合中,调用select时,将这个集合从用户空间拷贝到内核空间...

    linux 下高并发epoll接受 多线程回调

    “多线程回调处理消息”这部分,是指在接收到epoll事件通知后,通过多线程机制分配不同的工作线程来处理这些事件,这样可以并行地处理多个连接,进一步提高系统的处理能力。回调函数通常在事件发生时被调用,用于...

    epoll函数实现多客户端并发

    在IT行业中,网络编程是不可或缺的一部分,特别是在服务器端开发中,处理多个客户端连接并发请求的能力至关重要。`epoll`函数就是Linux系统提供的一种高效、可扩展的I/O多路复用技术,它在C语言环境下被广泛使用。...

    epoll回射服务器

    1. **I/O多路复用**:在多线程或多进程环境下,允许程序同时等待多个I/O事件,而不是依次等待,提高了系统处理并发请求的能力。 2. **epoll接口**:Linux内核提供的高效I/O事件通知机制,它支持水平触发(LT)和...

    多线程服务器.rar

    在IT领域,多线程服务器是一种能够同时处理多个客户端连接请求的服务器实现方式。这种设计模式充分利用了现代计算机的多核或多处理器能力,提高了服务的并发性和响应速度。本篇文章将深入探讨多线程服务器的工作原理...

    一个基于epoll的多线程 linux c http web服务器.zip

    《构建基于Epoll的多线程Linux C HTTP Web服务器》 在计算机科学领域,网络编程是不可或缺的一部分,尤其是在服务器端开发中。本项目专注于讲解如何使用C语言在Linux环境下构建一个基于Epoll的多线程HTTP Web服务器...

    基于epoll的包含线程池、定时器、日志的多进程多线程的WebServer服务器源码.zip

    基于epoll的包含线程池、定时器、日志的多进程多线程的WebServer服务器源码.zip基于epoll的包含线程池、定时器、日志的多进程多线程的WebServer服务器源码.zip基于epoll的包含线程池、定时器、日志的多进程多线程的...

    基于epoll 的服务器,客户端模型

    这种设计模式通常被称为“多线程服务器”。服务器首先创建一个主监听套接字,用于接收客户端的连接请求。当有新的连接到达时,服务器会创建一个新的工作线程来处理这个连接,这样可以避免单个线程处理所有连接时可能...

    epoll_sever linux下用epoll编写的服务器

    在多线程环境中,`epoll Sever`可以创建多个线程来处理不同的客户端连接。每个线程都有自己的`epoll`实例,或者所有线程共享一个`epoll`实例,这取决于具体的线程安全策略和资源管理需求。使用线程池可以更有效地...

    使用epoll的客户服务器端例子

    在IT行业中,网络编程是构建分布式系统和网络应用的基础,而`epoll`是Linux操作...你可以尝试运行这个例子,观察其运行过程,甚至修改代码以实现更复杂的功能,例如添加多线程处理、错误处理机制或改进的事件分发策略。

    windows远程桌面代理服务器 多线程,epoll

    综上所述,这个项目实现了基于Linux的Windows远程桌面代理服务器,通过多线程技术提高并发处理能力,利用epoll优化I/O事件处理,确保高效的数据包传输。这样的设计不仅满足了远程访问的需求,还能在高负载下保持良好...

Global site tag (gtag.js) - Google Analytics