`

使用事件驱动模型实现高效稳定的网络服务器程序

阅读更多

前言

事件驱动为广大的程序员所熟悉,其最为人津津乐道的是在图形化界面编程中的应用;事实上,

在网络编程中事件驱动也被广泛使用,并大规模部署在高连接数高吞吐量的服务器程序中,如 http

服务器程序、ftp 服务器程序等。相比于传统的网络编程方式,事件驱动能够极大的降低资源占用,

增大服务接待能力,并提高网络传输效率。

关于本文提及的服务器模型,搜索网络可以查阅到很多的实现代码,所以,本文将不拘泥于源代码

的陈列与分析,而侧重模型的介绍和比较。使用 libev 事件驱动库的服务器模型将给出实现代码。

本文涉及到线程 / 时间图例,只为表明线程在各个 IO 上确实存在阻塞时延,但并不保证时延比例的

正确性和 IO 执行先后的正确性;另外,本文所提及到的接口也只是笔者熟悉的 Unix/Linux 接口,并

未推荐 Windows 接口,读者可以自行查阅对应的 Windows 接口。

 

阻塞型的网络编程接口

几乎所有的程序员第一次接触到的网络编程都是从 listen()、send()、recv() 等接口开始的。使用这

些接口可以很方便的构建服务器 / 客户机的模型。

我们假设希望建立一个简单的服务器程序,实现向单个客户机提供类似于“一问一答”的内容服务。

图 1. 简单的一问一答的服务器 / 客户机模型
图 1. 简单的一问一答的服务器 / 客户机模型

我们注意到,大部分的 socket 接口都是阻塞型的。所谓阻塞型接口是指系统调用(一般是 IO 接口)

不返回调用结果并让当前线程一直阻塞,只有当该系统调用获得结果或者超时出错时才返回。

实际上,除非特别指定,几乎所有的 IO 接口 ( 包括 socket 接口 ) 都是阻塞型的。这给网络编程带来

了一个很大的问题,如在调用 send() 的同时,线程将被阻塞,在此期间,线程将无法执行任何运算

或响应任何的网络请求。这给多客户机、多业务逻辑的网络编程带来了挑战。这时,很多程序员可

能会选择多线程的方式来解决这个问题。

 

多线程的服务器程序

应对多客户机的网络应用,最简单的解决方式是在服务器端使用多线程(或多进程)。多线程(或多

进程)的目的是让每个连接都拥有独立的线程(或进程),这样任何一个连接的阻塞都不会影响其他

的连接。

具体使用多进程还是多线程,并没有一个特定的模式。传统意义上,进程的开销要远远大于线程,

所以,如果需要同时为较多的客户机提供服务,则不推荐使用多进程;如果单个服务执行体需要消

耗较多的 CPU 资源,譬如需要进行大规模或长时间的数据运算或文件访问,则进程较为安全。

通常,使用 pthread_create () 创建新线程,fork() 创建新进程。

我们假设对上述的服务器 / 客户机模型,提出更高的要求,即让服务器同时为多个客户机提供一问

一答的服务。于是有了如下的模型。

图 2. 多线程的服务器模型
图 2. 多线程的服务器模型

在上述的线程 / 时间图例中,主线程持续等待客户端的连接请求,如果有连接,则创建新线程,并

在新线程中提供为前例同样的问答服务。

很多初学者可能不明白为何一个 socket 可以 accept 多次。实际上,socket 的设计者可能特意为

多客户机的情况留下了伏笔,让 accept() 能够返回一个新的 socket。下面是 accept 接口的原型:

	 int accept(int s, struct sockaddr *addr, socklen_t *addrlen);

输入参数 s 是从 socket(),bind() 和 listen() 中沿用下来的 socket 句柄值。执行完 bind() 和 listen() 后,

操作系统已经开始在指定的端口处监听所有的连接请求,如果有请求,则将该连接请求加入请求队列。

调用 accept() 接口正是从 socket s 的请求队列抽取第一个连接信息,创建一个与 s 同类的新的 socket

返回句柄。新的 socket 句柄即是后续 read() 和 recv() 的输入参数。如果请求队列当前没有请求,则

accept() 将进入阻塞状态直到有请求进入队列。

上述多线程的服务器模型似乎完美的解决了为多个客户机提供问答服务的要求,但其实并不尽然。如果

要同时响应成百上千路的连接请求,则无论多线程还是多进程都会严重占据系统资源,降低系统对外界

响应效率,而线程与进程本身也更容易进入假死状态。

很多程序员可能会考虑使用“线程池”或“连接池”。“线程池”旨在减少创建和销毁线程的频率,其维持一定

合理数量的线程,并让空闲的线程重新承担新的执行任务。“连接池”维持连接的缓存池,尽量重用已有

的连接、减少创建和关闭连接的频率。这两种技术都可以很好的降低系统开销,都被广泛应用很多大

型系统,如 websphere、tomcat 和各种数据库等。

但是,“线程池”和“连接池”技术也只是在一定程度上缓解了频繁调用 IO 接口带来的资源占用。而且,

所谓“池”始终有其上限,当请求大大超过上限时,“池”构成的系统对外界的响应并不比没有池的时候

效果好多少。所以使用“池”必须考虑其面临的响应规模,并根据响应规模调整“池”的大小。

对应上例中的所面临的可能同时出现的上千甚至上万次的客户端请求,“线程池”或“连接池”或许可以

缓解部分压力,但是不能解决所有问题。

总之,多线程模型可以方便高效的解决小规模的服务请求,但面对大规模的服务请求,多线程模型

并不是最佳方案。下一章我们将讨论用非阻塞接口来尝试解决这个问题。

 

非阻塞的服务器程序

以上面临的很多问题,一定程度是 IO 接口的阻塞特性导致的。多线程是一个解决方案,还一个方案

就是使用非阻塞的接口。

非阻塞的接口相比于阻塞型接口的显著差异在于,在被调用之后立即返回。使用如下的函数可以将

某句柄 fd 设为非阻塞状态。

	 fcntl( fd, F_SETFL, O_NONBLOCK );

下面将给出只用一个线程,但能够同时从多个连接中检测数据是否送达,并且接受数据。

图 3. 使用非阻塞的接收数据模型
图 3. 使用非阻塞的接收数据模型

在非阻塞状态下,recv() 接口在被调用后立即返回,返回值代表了不同的含义。如在本例中,

  • recv() 返回值大于 0,表示接受数据完毕,返回值即是接受到的字节数;
  • recv() 返回 0,表示连接已经正常断开;
  • recv() 返回 -1,且 errno 等于 EAGAIN,表示 recv 操作还没执行完成;
  • recv() 返回 -1,且 errno 不等于 EAGAIN,表示 recv 操作遇到系统错误 errno。

可以看到服务器线程可以通过循环调用 recv() 接口,可以在单个线程内实现对所有连接的数据接收工

作。

但是上述模型绝不被推荐。因为,循环调用 recv() 将大幅度推高 CPU 占用率;此外,在这个方案中,

recv() 更多的是起到检测“操作是否完成”的作用,实际操作系统提供了更为高效的检测“操作是否完成

“作用的接口,例如 select()。

 

使用 select() 接口的基于事件驱动的服务器模型

大部分 Unix/Linux 都支持 select 函数,该函数用于探测多个文件句柄的状态变化。下面给出 select 接

口的原型:

 FD_ZERO(int fd, fd_set* fds) 
 FD_SET(int fd, fd_set* fds) 
 FD_ISSET(int fd, fd_set* fds) 
 FD_CLR(int fd, fd_set* fds) 
 int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, 
        struct timeval *timeout)

这里,fd_set 类型可以简单的理解为按 bit 位标记句柄的队列,例如要在某 fd_set 中标记一个值为 16

的句柄,则该 fd_set 的第 16 个 bit 位被标记为 1。具体的置位、验证可使用 FD_SET、FD_ISSET

等宏实现。在 select() 函数中,readfds、writefds 和 exceptfds 同时作为输入参数和输出参数。如果

输入的 readfds 标记了 16 号句柄,则 select() 将检测 16 号句柄是否可读。在 select() 返回后,可以

通过检查 readfds 有否标记 16 号句柄,来判断该“可读”事件是否发生。另外,用户可以设置 timeout

时间。

下面将重新模拟上例中从多个客户端接收数据的模型。

图 4. 使用 select() 的接收数据模型
图 4. 使用 select() 的接收数据模型

上述模型只是描述了使用 select() 接口同时从多个客户端接收数据的过程;由于 select() 接口可以

同时对多个句柄进行读状态、写状态和错误状态的探测,所以可以很容易构建为多个客户端提供独

立问答服务的服务器系统。

图 5. 使用 select() 接口的基于事件驱动的服务器模型
图 5. 使用 select() 接口的基于事件驱动的服务器模型

这里需要指出的是,客户端的一个 connect() 操作,将在服务器端激发一个“可读事件”,所以 select()

也能探测来自客户端的 connect() 行为。

上述模型中,最关键的地方是如何动态维护 select() 的三个参数 readfds、writefds 和 exceptfds。作为

输入参数,readfds 应该标记所有的需要探测的“可读事件”的句柄,其中永远包括那个探测 connect()

的那个“母”句柄;同时,writefds 和 exceptfds 应该标记所有需要探测的“可写事件”和“错误事件”的句

柄 ( 使用 FD_SET() 标记 )。

作为输出参数,readfds、writefds 和 exceptfds 中的保存了 select() 捕捉到的所有事件的句柄值。程

序员需要检查的所有的标记位 ( 使用 FD_ISSET() 检查 ),以确定到底哪些句柄发生了事件。

上述模型主要模拟的是“一问一答”的服务流程,所以,如果 select() 发现某句柄捕捉到了“可读事件”,

服务器程序应及时做 recv() 操作,并根据接收到的数据准备好待发送数据,并将对应的句柄值加入

writefds,准备下一次的“可写事件”的 select() 探测。同样,如果 select() 发现某句柄捕捉到“可写事

件”,则程序应及时做 send() 操作,并准备好下一次的“可读事件”探测准备。下图描述的是上述模型

中的一个执行周期。

图 6. 一个执行周期
图 6. 一个执行周期

这种模型的特征在于每一个执行周期都会探测一次或一组事件,一个特定的事件会触发某个特定的

响应。我们可以将这种模型归类为“事件驱动模型”。

相比其他模型,使用 select() 的事件驱动模型只用单线程(进程)执行,占用资源少,不消耗太多

CPU,同时能够为多客户端提供服务。如果试图建立一个简单的事件驱动的服务器程序,这个模型

有一定的参考价值。

但这个模型依旧有着很多问题。

首先,select() 接口并不是实现“事件驱动”的最好选择。因为当需要探测的句柄值较大时,select()

接口本身需要消耗大量时间去轮询各个句柄。很多操作系统提供了更为高效的接口,如 linux 提供了

epoll,BSD 提供了 kqueue,Solaris 提供了 /dev/poll …。如果需要实现更高效的服务器程序,类似

epoll 这样的接口更被推荐。遗憾的是不同的操作系统特供的 epoll 接口有很大差异,所以使用类似

于 epoll 的接口实现具有较好跨平台能力的服务器会比较困难。

其次,该模型将事件探测和事件响应夹杂在一起,一旦事件响应的执行体庞大,则对整个模型是灾难

性的。如下例,庞大的执行体 1 的将直接导致响应事件 2 的执行体迟迟得不到执行,并在很大程度

上降低了事件探测的及时性。

图 7. 庞大的执行体对使用 select() 的事件驱动模型的影响
图 7. 庞大的执行体对使用 select() 的事件驱动模型的影响

幸运的是,有很多高效的事件驱动库可以屏蔽上述的困难,常见的事件驱动库有 libevent 库,还有

作为 libevent 替代者的 libev 库。这些库会根据操作系统的特点选择最合适的事件探测接口,并且加

入了信号 (signal) 等技术以支持异步响应,这使得这些库成为构建事件驱动模型的不二选择。下章

将介绍如何使用 libev 库替换 select 或 epoll 接口,实现高效稳定的服务器模型。

 

使用事件驱动库 libev 的服务器模型

Libev 是一种高性能事件循环 / 事件驱动库。作为 libevent 的替代作品,其第一个版本发布与 2007

年 11 月。Libev 的设计者声称 libev 拥有更快的速度,更小的体积,更多功能等优势,这些优势在

很多测评中得到了证明。正因为其良好的性能,很多系统开始使用 libev 库。本章将介绍如何使用

Libev 实现提供问答服务的服务器。

(事实上,现存的事件循环 / 事件驱动库有很多,作者也无意推荐读者一定使用 libev 库,而只是为了

说明事件驱动模型给网络服务器编程带来的便利和好处。大部分的事件驱动库都有着与 libev 库相类

似的接口,只要明白大致的原理,即可灵活挑选合适的库。)

与前章的模型类似,libev 同样需要循环探测事件是否产生。Libev 的循环体用 ev_loop 结构来表达,

并用 ev_loop( ) 来启动。

	 void ev_loop( ev_loop* loop, int flags )

Libev 支持八种事件类型,其中包括 IO 事件。一个 IO 事件用 ev_io 来表征,并用 ev_io_init() 函数

来初始化:

	 void ev_io_init(ev_io *io, callback, int fd, int events)

初始化内容包括回调函数 callback,被探测的句柄 fd 和需要探测的事件,EV_READ 表“可读事件”,

EV_WRITE 表“可写事件”。

现在,用户需要做的仅仅是在合适的时候,将某些 ev_io 从 ev_loop 加入或剔除。一旦加入,下个

循环即会检查 ev_io 所指定的事件有否发生;如果该事件被探测到,则 ev_loop 会自动执行 ev_io 的

回调函数 callback();如果 ev_io 被注销,则不再检测对应事件。

无论某 ev_loop 启动与否,都可以对其添加或删除一个或多个 ev_io,添加删除的接口是 ev_io_start()

和 ev_io_stop()。

	 void ev_io_start( ev_loop *loop, ev_io* io ) 
	 void ev_io_stop( EV_A_* )

由此,我们可以容易得出如下的“一问一答”的服务器模型。由于没有考虑服务器端主动终止连接机制,

所以各个连接可以维持任意时间,客户端可以自由选择退出时机。

图 8. 使用 libev 库的服务器模型
图 8. 使用 libev 库的服务器模型

上述模型可以接受任意多个连接,且为各个连接提供完全独立的问答服务。借助 libev 提供的事件循

环 / 事件驱动接口,上述模型有机会具备其他模型不能提供的高效率、低资源占用、稳定性好和编写

简单等特点。

由于传统的 web 服务器,ftp 服务器及其他网络应用程序都具有“一问一答”的通讯逻辑,所以上述使

用 libev 库的“一问一答”模型对构建类似的服务器程序具有参考价值;另外,对于需要实现远程监视

或远程遥控的应用程序,上述模型同样提供了一个可行的实现方案。

 

总结

本文围绕如何构建一个提供“一问一答”的服务器程序,先后讨论了用阻塞型的 socket 接口实现的模型,

使用多线程的模型,使用 select() 接口的基于事件驱动的服务器模型,直到使用 libev 事件驱动库的

服务器模型。文章对各种模型的优缺点都做了比较,从比较中得出结论,即使用“事件驱动模型”可以

的实现更为高效稳定的服务器程序。文中描述的多种模型可以为读者的网络编程提供参考价值。

参考资料

学习

摘自:http://www.ibm.com/developerworks/cn/linux/l-cn-edntwk/

分享到:
评论

相关推荐

    Socket网络事件通讯模型

    Socket网络事件通讯模型是计算机网络编程中的一个重要概念,主要用于实现客户端和服务器端的高效通信。在这一模型中,事件驱动机制被用来处理网络连接、数据传输以及错误处理等任务,从而提高了程序的响应速度和资源...

    并发编程-事件驱动模型1

    事件驱动模型是一种常见的并发编程模型,尤其适用于网络服务器和用户界面(UI)应用程序。 1、**传统的编程模式** 在传统的编程模式中,程序按照预定的顺序执行,从开始到结束,每个代码块按照既定的流程依次执行。...

    高并发事件驱动服务器研究

    - **混合架构设计**:在高负载情况下,通过使用事件驱动模型处理I/O密集型任务,而多线程则用于处理CPU密集型任务,这样可以充分利用系统的硬件资源。 - **高级Petri网建模**:为了更好地理解和优化这种混合架构,...

    网络编程模型示例

    在C++中,可以使用非阻塞I/O配合事件通知来实现事件驱动模型。例如,使用`epoll`,当有新的连接或数据到达时,`epoll_wait()`会返回相应的事件。然后,程序可以处理这些事件,如接受新连接、读取数据或写入数据。...

    socketEventMode 事件驱动socket端口通讯

    在事件驱动模型中,程序并不主动去检查是否有新的网络事件发生,而是设置一组事件对象(如套接字的读写事件),然后调用“WSAWaitForMultipleEvents”进行等待。这个函数会阻塞直到至少有一个事件发生,或者超时。...

    C事件驱动循环的网络IO编程框架源代码.rar

    本资料“C事件驱动循环的网络IO编程框架源代码.rar”显然是一个使用C语言实现的事件驱动网络I/O框架,下面我们将详细探讨相关的知识点。 首先,让我们理解事件驱动循环的基本原理。事件驱动循环的核心在于一个循环...

    cpp-多线程epolllibevent网络库分别实现的三个网络HTTP服务器程序

    本项目“cpp-多线程epoll.libevent网络库分别实现的三个网络HTTP服务器程序”旨在探讨如何利用多线程、epoll事件驱动和libevent事件库来实现高效的HTTP服务器。 1. **多线程**:多线程是处理并发请求的常见方式,...

    基于EPOLL机制的LINUX网络游戏服务器实现方法

    文章中提到的“高效网络游戏服务器思想”主要是指利用EPOLL机制来处理大量并发客户的I/O请求。EPOLL利用事件驱动的特性来提高网络响应速度和处理能力。在传统的IO处理模型中,服务器会为每个连接创建一个线程或者...

    基于c++ muduo网络库的集群聊天服务器,使用nginx实现负载均衡,使用reids消息队列实现跨服务器通信.zip

    本项目采用C++的muduo网络库作为基础,通过Nginx实现负载均衡,并利用Redis消息队列实现跨服务器通信,从而构建出一个高效、稳定且易于扩展的集群聊天服务器。 muduo网络库是C++中的一个高性能网络库,特别适用于...

    惠普服务器DL380/DL388/DL580 G10驱动

    惠普服务器DL380/DL388/DL580 G10驱动是针对惠普企业级服务器产品线的重要软件组件,这些驱动程序确保了服务器硬件与操作系统之间的兼容性和高效运行。以下是对这些服务器型号及驱动的详细说明: 1. **惠普服务器...

    嵌入式Linux网络驱动程序的研究与实现.pdf

    在实际开发过程中,开发者需要对硬件接口有深入理解,熟悉Linux内核的网络子系统,包括网络设备模型、设备驱动模型、网络协议栈的层次结构等。同时,还需要掌握一定的编程技巧,如错误处理、同步机制等,以确保驱动...

    TCPIP高效编程:改善网络程序的44个技巧 PDF中文版带书签-目录

    说明--TCPIP高效编程:改善网络程序的44个技巧 PDF中文版带书签-目录 下载链接放在文档中 《TCP/IP高效编程:改善网络程序的44个技巧》是TCP/IP 领域历久弥新的经典著作,网络编程人员必备,对TCP/IP 网络编程中存在...

    IO 模型网络程序实验

    Winsock API 提供了对这些模型的支持,如`WSAAsyncSelect`用于实现I/O复用模型,`WSAEventSelect`则用于构建异步事件驱动的I/O模型。在实验中,你会学习如何使用这些接口函数来创建网络连接、监听客户端请求、接收和...

    Windows_CE中实现蓝牙串口驱动程序

    在实现蓝牙串口驱动程序时,考虑到蓝牙协议的特点,更倾向于使用分层驱动程序模型。 ##### 2.2 蓝牙仿真串口驱动程序实现 蓝牙仿真串口驱动程序主要是利用蓝牙RFCOMM协议来实现无缆无线串口通信。与本机设备驱动...

    实现日志服务器采用udp,epoll机制 多进程驱动模型(进程池) 采用redis缓存,NFS持久存储

    总的来说,这个日志服务器设计利用了UDP的高速传输,epoll的高效事件驱动,多进程驱动模型的并行处理,Redis的快速缓存以及NFS的分布式存储,实现了高性能、高可用的日志处理系统。这样的设计不仅能够处理大规模的...

    WSAEventSelect事件选择网络模型

    通过以上讲解,我们了解了WSAEventSelect在网络编程中的核心作用,以及如何使用它来构建事件驱动的网络模型。在实际开发中,结合"WSAEventSelect by zy.pdf"和"WSAEventSelect"提供的详细说明文档和流程图,开发者...

    多线程网络服务器的常用编程模型

    在IT领域,构建高效、可扩展的网络服务器是至关重要的,尤其在当今互联网服务日益繁重的场景下。多线程网络服务器的编程模型是一种常见的解决方案,它利用多线程技术来处理并发连接,以提高服务性能。本文将深入探讨...

    事件驱动的异步Socket

    总之,事件驱动的异步Socket是.NET Framework 3.5提供的一种高效、灵活的网络编程模型,它通过非阻塞的事件回调方式,使得程序在进行网络通信时能够并发地执行其他任务,提高了整体程序的效率和响应速度。...

    UNIX网络的服务器程序设计方法.doc

    通过对不同网络模式的理解,结合TCP/IP协议下的Socket编程技术,可以设计出高效、稳定的服务器程序。在实际开发过程中,开发者还需要根据具体需求选择合适的编程接口和设计方法,以满足不同场景下的应用需求。

Global site tag (gtag.js) - Google Analytics