首先我们来定义流的概念,一个流可以是文件, socket , pipe 等等可以进行 I/O 操作的内核对象。
不管是文件,还是套接字,还是管道,我们都可以把他们看作流。
之后我们来讨论 I/O 的操作。通过 read ,我们可以从流中读入数据;通过 write ,我们可以往流写入数据。现在假定一个情形,我们需要从流中读数据,但是流中还没有数据,(典型的例子为,客户端要从 socket 读取数据,但是服务器还没有把数据传回来),这时候该怎么办?
阻塞:阻塞是个什么概念呢?比如某个时候你在等快递,但是你不知道快递什么时候过来,而且你没有别的事可以干(或者说接下来的事要等快递来了才能做);那么你可以去睡觉了,因为你知道快递把货送来时一定会给你打个电话(假定一定能叫醒你)。
非阻塞忙轮询:接着上面等快递的例子,如果用忙轮询的方法,那么你需要知道快递员的手机号,然后每分钟给他挂个电话:“你到了没?”
很明显一般人不会用第二种做法,不仅显得很无脑,浪费话费不说,还占用了快递员大量的时间。
大部分程序也不会用第二种做法,因为第一种方法经济而简单,经济是指消耗很少的 CPU 时间,如果线程睡眠了,就掉出了系统的调度队列,暂时不会去瓜分 CPU 宝贵的时间片了。
为了了解阻塞是如何进行的,我们来讨论缓冲区,以及内核缓冲区,最终把 I/O 事件解释清楚。缓冲区的引入是为了减少频繁 I/O 操作而引起频繁的系统调用(你知道它很慢的),当你操作一个流时,更多的是以缓冲区为单位进行操作,这是相对于用户空间而言。对于内核来说,也需要缓冲区。
假设有一个管道,进程 A 为管道的写入方, B 为管道的读出方。
假设一开始内核缓冲区是空的, B 作为读出方,被阻塞着。然后首先 A 往管道写入,这时候内核缓冲区由空的状态变到非空状态,内核就会产生一个
事件告诉 B 该醒来了,这个事件姑且称之为“缓冲区非空”。
但是“缓冲区非空”事件通知 B 后, B 却还没有读出数据;且内核许诺了不能把写入管道中的数据丢掉。这个时候, A 写入的数据会滞留在内核缓冲区中,如果内核缓冲区满了, B 仍未开始读数据,最终内核缓冲区会被填满,这个时候会产生一个 I/O
事件,告诉进程 A ,你该等等(阻塞)了,我们把这个事件定义为“缓冲区满”。
假设后来 B 终于开始读数据了,于是内核的缓冲区空了出来,这时候内核会告诉 A ,内核缓冲区有空位了,你可以从长眠中醒来了,继续写数据了,我们把这个
事件叫做“缓冲区非满”。
也许事件 Y1 已经通知了 A ,但是 A 也没有数据写入了,而 B 继续读出数据,直到内核缓冲区空了。这个时候内核就告诉 B ,你需要阻塞了!我们把这个
事件定为“缓冲区空”。
这四个情形涵盖了四个 I/O 事件,缓冲区满,缓冲区空,缓冲区非空,缓冲区非满(注:都是说的内核缓冲区,且这四个术语都是我生造的,仅为解释其原理而造)。这四个 I/O 事件是进行阻塞同步的根本(如果不能理解“同步”是什么概念,请学习操作系统的锁,信号量,条件变量等任务同步方面的相关知识)。
然后我们来说说阻塞 I/O 的缺点。
在阻塞 I/O 模式下,一个线程只能处理一个流的 I/O 事件。如果想要同时处理多个流,要么多进程( fork ),要么多线程( pthread_create ),很不幸这两种方法效率都不高。
于是再来考虑非阻塞忙轮询的 I/O 方式,我们发现我们可以同时处理多个流了(把一个流从阻塞模式切换到非阻塞模式在此不予讨论):
while true {
for i in stream[]; {
if i has data
read until unavailable
}
}
我们只要不停地把所有流从头到尾问一遍,又从头开始,这样就可以处理多个流了。但这样的做法显然不好,因为如果所有的流都没有数据,那么只会白白浪费 CPU 。这里要补充一点,阻塞模式下,内核对于 I/O 事件的处理是阻塞或者唤醒;而非阻塞模式下则把 I/O 事件交给其他对象(后文介绍的 select 以及 epoll )处理甚至直接忽略。
为了避免 CPU 空转,可以引进一个代理(一开始有一位叫做 select 的代理,后来又有一位叫做 poll 的代理,不过两者的本质是一样的)。
这个代理比较厉害,可以同时观察许多流的 I/O 事件,在空闲的时候,会把当前线程阻塞掉,当有一个或多个流有 I/O 事件时,就从阻塞态中醒来,于是我们的程序就会轮询一遍所有的流(于是我们可以把“忙”字去掉了)。代码长这样:
while true {
select(streams[])
for i in streams[] {
if i has data
read until unavailable
}
}
于是,如果没有 I/O 事件产生,我们的程序就会阻塞在 select 处。但是依然有个问题,我们从 select 那里仅仅知道了,有 I/O 事件发生了,但却并不知道是哪几个流(可能有一个、多个、甚至全部),我们只能无差别轮询所有流,找出能读出数据、或者写入数据的流,对它们进行操作。
但是使用 select ,我们有 O(n) 的无差别轮询复杂度,同时处理的流越多,每一次无差别轮询时间就越长。
说了这么多,终于能好好解释 epoll 了。
epoll 可以理解为 event poll ,不同于忙轮询和无差别轮询, epoll 会把哪个流发生了怎样的 I/O 事件通知我们。此时我们对这些流的操作都是有意义的(复杂度降低到了 O(1) )。
在讨论 epoll 的实现细节之前,先把 epoll 的相关操作列出:
epoll_create 创建一个 epoll 对象,一般 epollfd = epoll_create()
epoll_ctl (epoll_add/epoll_del 的合体),往 epoll 对象中增加/删除某一个流的某一个事件,比如
epoll_ctl(epollfd, EPOLL_CTL_ADD, socket, EPOLLIN); // 注册缓冲区非空事件,即有数据流入了
epoll_ctl(epollfd, EPOLL_CTL_DEL, socket, EPOLLOUT); // 注册缓冲区非满事件,即流可以被写入了
epoll_wait(epollfd,...) 等待直到注册的事件发生(注:当对一个非阻塞流的读写发生缓冲区满或缓冲区空, write/read 会返回-1,并设置 errno=EAGAIN 。而 epoll 只关心缓冲区非满和缓冲区非空事件)。
一个 epoll 模式的代码大概的样子是:
while true {
active_stream[] = epoll_wait(epollfd)
for i in active_stream[] {
read or write until unavailable
}
}
限于篇幅,我只说这么多,以揭示原理性的东西,至于 epoll 的使用细节,请参考 man 和 google ,实现细节,请参阅 linux kernel source 。
原文链接:
http://blog.csdn.net/mango_song/article/details/42643971
我推测的 redis 读写操作
客户端 C1, C2, C3 同时到达服务器 S 。
C1 --> S
1. 建立 pipe
2. 把这个 pipe 上的非空事件注册给 epoll
3. epoll 有发现非空事件发生的能力(通过 epoll_wait ),并能精确定位到是哪个 pipe 上发生的事件
4. 服务器 S 做 hash 定位等计算,得到 value
5. 服务器 S 把 value 写回管道
6. epoll 发现了该事件
7. epoll 唤醒阻塞的 C1 的 pipe
8. C1 读取管道中的 value
9. 关闭管道,删掉 epoll 上注册的事件
10. 结束
- 大小: 14 KB
分享到:
相关推荐
`epoll`模型是解决高并发服务器性能瓶颈的有效手段之一,它比传统的`select`和`poll`模型更加先进,能够更有效地管理和监控文件描述符(FDs)的状态变化。 `epoll`的核心概念包括`epoll_create`、`epoll_ctl`和`...
网络编程中的`epoll`模型是Linux操作系统提供的一种高效、高性能的I/O多路复用技术,主要用于管理和调度大量的并发连接。在这个模型中,`epoll`替代了传统的`select`和`poll`,解决了它们在处理大量文件描述符时性能...
### Epoll模型详解 #### 一、Epoll概述 在Linux网络编程中,早期广泛使用的事件触发机制主要是基于`select`。然而随着技术的发展以及应用需求的提高,`select`逐渐暴露出了一些明显的局限性,比如它对于大量文件...
epoll模型http server
epoll反应堆模型代码,相对于网上普通的epoll模型增加了send recv 操作,并有详细的注释epoll反应堆
标题所指的知识点为“epoll反应堆模型”,而描述部分重复强调了这一点,即“epoll c++ linux 技术探讨,新手必备”。结合给出的内容片段,可以了解到这是一个关于在Linux环境下使用C++语言实现epoll模型的教程。...
Epoll模型相比传统的select、poll等I/O多路复用模型,具有更好的性能和可扩展性。这个"linux下Epoll模型实例代码"是一个展示如何在Linux环境下使用Epoll进行I/O事件监控的程序示例。 Epoll的核心概念包括以下几个...
- **水平触发(Level Triggered, LT)**:只要事件就绪,`epoll_wait`就会返回,即使事件已经被处理过,只要条件满足,仍会返回。LT模式更安全,不会丢失事件。 5. **红黑树优化**:`epoll`内部使用红黑树存储文件...
### Linux 下 epoll 网络模型介绍 在深入探讨 Linux 下的 epoll 模型之前,我们先了解一下 epoll 的背景以及它为何成为 Linux 内核中 I/O 多路复用的关键技术之一。 #### 1. epoll 的背景与优势 早期 Linux 内核...
接下来,我们讨论epoll模型。epoll是Linux系统提供的一种高效I/O事件通知机制,尤其适用于高并发的网络服务器。它替代了传统的select和poll,解决了它们在大量文件描述符时性能下降的问题。epoll通过内核用户空间...
- **注册监听事件**:首先,程序通过`epoll_create()`创建一个epoll实例,然后使用`epoll_ctl()`将感兴趣的文件描述符(如socket)添加到epoll实例的监控列表中,并指定监控的事件类型(读、写、错误等)。...
在Android系统中,Epoll模型是一种高效的I/O多路复用技术,主要用于处理大量的并发连接。JNI(Java Native Interface)是Java平台标准的一部分,它允许Java代码和其他语言写的代码进行交互。当我们需要在Android应用...
用思维导图的方式总结了Epoll模型,非常的好理解。文件需要用MindMange打开。
**EPOLL模型详解** Linux 2.6内核引入了EPOLL模型,作为解决I/O多路复用问题的一种高效机制,特别是在处理大量socket描述符(FD)时。EPOLL对比传统的select和poll模型,具有以下显著优点: 1. **不受FD数量限制**...
Linux IO模型 epoll 多进程模型 Socket
这个"自己封装的epoll事件驱动模型"是一个基于epoll实现的echo服务器,旨在逐步完善功能,包括添加序列化处理以支持复杂数据的传输,处理网络数据包粘包问题,以及实现心跳机制以确保连接的可靠性。回调函数的使用让...
首先,`epoll`模型通过`epoll_create`、`epoll_ctl`、`epoll_wait`和`close`四个主要函数来管理事件。`epoll_create`创建一个`epoll`实例,`epoll_ctl`用来添加、删除或修改监控的文件描述符,`epoll_wait`则阻塞...
linux epoll 概念、优缺点、io复用 、脑图、Linux下的服务器模型:
《Epoll模型详解》 在Linux的网络编程领域,Epoll模型是替代传统select模型的一种高效解决方案。Epoll的优势在于其高效性和可扩展性,它避免了随着监听文件描述符(fd)数量增加而导致的性能下降问题。传统的select...