/**
文件名:epoll_demo.c
编译: gcc epoll_demo.c -pthread
程序源码如下(请自行编辑宏定义SERVER_IP为自己的IP):
*/
/*Linux 2.6 x86_64 only*/
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <time.h>
#include <sys/epoll.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <netdb.h>
#include <pthread.h>
#include <errno.h>
/*线程池的线程数量*/
#define THREAD_MAX 1
/*监听端口*/
#define LISTEN_PORT 8000
/*
监听端口的数量,从LISTEN_PORT到LISTEN_PORT+LISTEN_MAX-1
*/
#define LISTEN_MAX 1
#define SERVER_IP "127.0.0.1"
typedef struct
{
char ip4[128];
int port;
int fd;
} listen_info;
//服务器参数
static listen_info s_listens[LISTEN_MAX];
//线程池参数
static unsigned int s_thread_para[THREAD_MAX][8];//线程参数
static pthread_t s_tid[THREAD_MAX];//线程ID
pthread_mutex_t s_mutex[THREAD_MAX];//线程锁
//私有函数
static int init_thread_pool(void);
static int init_listen4(char *ip4, int port, int max_link);
//线程函数
void* test_server4(unsigned int thread_para[]);
int main(int argc, char *argv[])//客户端驱动
{
//临时变量
int i, j, rc;
int sock_listen; //监听套接字
int sock_cli; //客户端连接
int listen_index;
int epfd;
int nfds;
struct epoll_event ev;
struct epoll_event events[LISTEN_MAX];
socklen_t addrlen; //地址信息长度
struct sockaddr_in addr4; //IPv4地址结构
//线程池初始化
rc = init_thread_pool();
if (0 != rc)
exit(-1);
//初始化服务监听
for (i = 0; i < LISTEN_MAX; i++)
{
sprintf(s_listens[i].ip4, "%s", SERVER_IP);
s_listens[i].port = LISTEN_PORT + i;
//创建监听
rc = init_listen4(s_listens[i].ip4, s_listens[i].port, 64);
if (0 > rc)
{
fprintf(stderr, "无法创建服务器监听于%s:%d\n", s_listens[i].ip4, s_listens[i].port);
perror(NULL);
exit(-1);
}
s_listens[i].fd = rc;
}
//设置集合
epfd = epoll_create(8192);
for (i = 0; i < LISTEN_MAX; i++)
{
//加入epoll事件集合
ev.events = EPOLLIN;
ev.data.u32 = i;//记录listen数组下标
if (epoll_ctl(epfd, EPOLL_CTL_ADD, s_listens[i].fd, &ev) < 0)
{
fprintf(stderr, "向epoll集合添加套接字失败(fd =%d)\r\n", rc);
exit(-1);
}
}
//服务循环
for ( ; ; )
{
//等待epoll事件
nfds = epoll_wait(epfd, events, LISTEN_MAX, -1);
//处理epoll事件
for (i = 0; i < nfds; i++)
{
//接收客户端连接
listen_index = events[i].data.u32;
sock_listen = s_listens[listen_index].fd;
addrlen = sizeof(struct sockaddr_in);
bzero(&addr4, addrlen);
sock_cli = accept(sock_listen, (struct sockaddr *)&addr4, &addrlen);
if (0 > sock_cli)
{
fprintf(stderr, "接收客户端连接失败\n");
continue;
}
//查询空闲线程对
for (j = 0; j < THREAD_MAX; j++)
{
if (0 == s_thread_para[j][0]) break;
}
if (j >= THREAD_MAX)
{
fprintf(stderr, "线程池已满, 连接将被放弃\r\n");
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli);
continue;
}
//复制有关参数
s_thread_para[j][0] = 1;//设置活动标志为"活动"
s_thread_para[j][1] = sock_cli;//客户端连接
s_thread_para[j][2] = listen_index;//服务索引
//线程解锁
pthread_mutex_unlock(s_mutex + j);
}//end of for(i;;)
}//end of for(;;)
exit(0);
}
static int init_thread_pool(void)
{
int i, rc;
//初始化线程池参数
for (i = 0; i < THREAD_MAX; i++)
{
s_thread_para[i][0] = 0;//设置线程占用标志为"空闲"
s_thread_para[i][7] = i;//线程池索引
pthread_mutex_lock(s_mutex + i);//线程锁
}
//创建线程池
for (i = 0; i < THREAD_MAX; i++)
{
rc = pthread_create(s_tid + i, 0, (void *)test_server4, (void *)(s_thread_para[i]));
if (0 != rc)
{
fprintf(stderr, "线程创建失败\n");
return(-1);
}
}
//成功返回
return(0);
}
static int init_listen4(char *ip4, int port, int max_link)
{
//临时变量
int sock_listen4;
struct sockaddr_in addr4;
unsigned int optval;
struct linger optval1;
//初始化数据结构
bzero(&addr4, sizeof(addr4));
inet_pton(AF_INET, ip4, &(addr4.sin_addr));
addr4.sin_family = AF_INET;
addr4.sin_port = htons(port);
//创建SOCKET
sock_listen4 = socket(AF_INET, SOCK_STREAM, 0);
if (0 > sock_listen4) return(-1);
//设置SO_REUSEADDR选项(服务器快速重起)
optval = 0x1;
setsockopt(sock_listen4, SOL_SOCKET, SO_REUSEADDR, &optval, 4);
//设置SO_LINGER选项(防范CLOSE_WAIT挂住所有套接字)
optval1.l_onoff = 1;
optval1.l_linger = 60;
setsockopt(sock_listen4, SOL_SOCKET, SO_LINGER, &optval1, sizeof(struct linger));
if (0 > bind(sock_listen4, (struct sockaddr *)&addr4, sizeof(addr4)))
{
close(sock_listen4);
return(-1);
}
if (0 > listen(sock_listen4, max_link))
{
close(sock_listen4);
return(-1);
}
return(sock_listen4);
}
void * test_server4(unsigned int thread_para[])
{
//临时变量
int pool_index; //线程池索引
int sock_cli; //客户端连接
int listen_index; //监听索引
char buff[32768]; //传输缓冲区
char *p;
int i, j, len;
//线程脱离创建者
pthread_detach(pthread_self());
pool_index = thread_para[7];
wait_unlock:
pthread_mutex_lock(s_mutex + pool_index);//等待线程解锁
//线程变量内容复制
sock_cli = thread_para[1];//客户端连接
listen_index = thread_para[2];//监听索引
//接收请求
len = recv(sock_cli, buff, 32768, MSG_NOSIGNAL);
//构造响应
p = buff;
//HTTP头
p += sprintf(p, "HTTP/1.1 200 OK\r\n");
p += sprintf(p, "Content-Type: text/html\r\n");
p += sprintf(p, "Connection: closed\r\n\r\n");
//页面
p += sprintf(p, "<html>\r\n<head>\r\n");
p += sprintf(p, "<meta content=\"text/html; charset=GBK\" http-equiv=\"Content-Type\">\r\n");
p += sprintf(p, "</head>\r\n");
p += sprintf(p, "<body style=\"background-color: rgb(229, 229, 229);\">\r\n");
p += sprintf(p, "<center>\r\n");
p += sprintf(p, "<H3>连接状态</H3>\r\n");
p += sprintf(p, "<p>服务器地址 %s:%d</p>\r\n", s_listens[listen_index].ip4, s_listens[listen_index].port);
j = 0;
for (i = 0; i < THREAD_MAX; i++)
{
if (0 != s_thread_para[i][0]) j++;
}
p += sprintf(p, "<H3>线程池状态</H3>\r\n");
p += sprintf(p, "<p>线程池总数 %d 活动线程总数 %d</p>\r\n", THREAD_MAX, j);
p += sprintf(p, "</center></body></html>\r\n");
len = p - buff;
//发送响应
send(sock_cli, buff, len, MSG_NOSIGNAL);
//释放连接
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli);
//线程任务结束
thread_para[0] = 0;//设置线程占用标志为"空闲"
goto wait_unlock;
pthread_exit(NULL);
}
分享到:
相关推荐
**epoll**是Linux内核提供的一种高效I/O事件通知机制,它替代了传统的`poll`和`select`,在高并发I/O处理场景中表现出色。本篇将深入讲解`epoll`的工作原理,以及如何实现`Level Triggered (LT)`模式和`Edge ...
这个"Linux QT Epoll 服务器Demo"应该是展示如何在QT环境下结合Epoll来构建高性能的网络服务器。 Epoll的核心概念是边缘触发(Edge Triggered)和水平触发(Level Triggered),以及它的核心接口`epoll_create()`、`...
本`epoll demo`代码示例旨在帮助初学者理解和应用epoll,以便在实际项目中构建高性能的网络服务。代码可能包括以下关键部分: 1. **创建epoll实例**: `epoll_create()`函数用于创建一个epoll实例,返回一个文件...
在IT领域,`epoll`是一种高效的I/O事件通知机制,尤其在处理大量并发连接时,它是Linux系统下的首选方案。`epoll`利用内核与用户空间的共享数据结构来减少上下文切换,提高了系统在高并发环境下的性能。本篇文章将...
在Linux系统中,`epoll`是用于I/O多路复用的一种高效机制,尤其适合高并发、大连接数的网络编程场景。本资源提供的"Linux C++ epoll使用范例"包含了客户端、服务端以及一个测试程序,旨在帮助开发者更好地理解和运用...
一个基本的epoll小demo,用于对数据库查询。
利用udt.sdk.4.11的库,在windows下简单实现了epoll功能
本篇将详细探讨"长连接"和"C语言"结合,以及如何利用"epoll非阻塞"机制来实现一个高效的服务器Demo。 首先,"长连接"是指客户端和服务端之间建立一次连接后,可以进行多次数据传输,而不需要每次通信都重新建立连接...
在Linux系统中,epoll是I/O多路复用技术的一种高效实现,它极大地改进了传统的轮询方式,尤其在处理大量并发连接时表现出色。本文将深入探讨如何在多线程环境中使用epoll进行程序设计,以提高系统的并行处理能力。 ...
epoll机制epoll_create、epoll_ctl、epoll_wait、close(在epoll的ET模式下,read和write或send和recv当返回值0且errno=EAGAIN - linking530的专栏 - CSDN博客.mht
http://blog.csdn.net/u011671986/article/details/79606746 可以看文章实现
Lua的epoll模块 更多细节,请查看sample.lua API: ok,err=epoll.setnonblocking(fd) 设置一个文件描述符非阻塞。 epfd,err=epoll.create() 创建一个 epoll 文件描述符。ok,err=epoll.register(epfd,fd,event...
在Linux系统编程中,`epoll`是一种高效、可扩展的I/O多路复用技术,主要用于处理大量的并发连接。`epoll`模型是解决高并发服务器性能瓶颈的有效手段之一,它比传统的`select`和`poll`模型更加先进,能够更有效地管理...
linux socket tcp大并发 epoll使用教程 有关epoll的一切
1. **创建epoll实例**:通过调用`epoll_create()`函数创建一个`epoll`实例,返回一个表示`epoll`句柄的文件描述符。 2. **注册事件**:使用`epoll_ctl()`函数向`epoll`实例中添加或修改文件描述符的事件类型,如`...
epoll是Linux内核为处理大量文件描述符而提供的一种高效的事件通知机制,它在Linux网络编程中被广泛使用,尤其在处理成千上万的连接时,性能远胜于select和poll这两种传统的I/O事件通知方法。 select方法的缺点在于...
在Linux系统中,epoll是I/O多路复用技术的一种高效实现,它提供了一种在高并发场景下处理大量文件描述符(file descriptors)的能力。这个“linux epoll的封装类”是为了简化epoll接口的使用,使得初学者能够更轻松...
epoll反应堆模型代码,相对于网上普通的epoll模型增加了send recv 操作,并有详细的注释epoll反应堆
- `epoll_create`:创建一个epoll实例,并返回一个epoll专用的文件描述符。 - `epoll_ctl`:将文件描述符添加到epoll实例中,并指定对每个文件描述符感兴趣的事件。 epoll使用了红黑树来管理所有注册的文件描述符,...
Python中的epoll是用于处理高并发I/O操作的高效机制,尤其在服务器编程中非常关键。它是Linux内核提供的一个接口,主要用于解决多路复用I/O问题,比如网络编程中的socket通信。在这个"python-epoll-examples"压缩包...