Linux网络I/O模型
Linux的内核将所有的外部设备都看做一个文件来操作,对文件的读写会调用内核提供的系统命令,返回一个file descriptor(fd,文件操作符)。而对于socket的读写也会返回一个相应的描述符,称为socketfd(socket描述符),描述符就是一个数字,它指向内核中的一个结构体(文件路径,数据区等一些属性)。
操作系统在处理I/O的时候,主要分为两步:
- 操作一:等待数据传到操作系统内核。
- 操作二:将数据从操作系统内核复制到应用内存中(进程的缓冲区)。
而根据着来年各个阶段的不同,就有了下面的不同的I/O模型。
根据Unix网络编程对IO模型的分类,Unix提供了5种模型,分别如下:
堵塞IO模型:最常用的IO模型。缺省情况下,所有的文件操作都是堵塞的。我们以套接字接口为例来讲解此模型:在进程空间中调用recvfrom,其系统调用直到数据包到达并且被复制到应用进程的缓冲区中或者发生错误时返回。在此期间一直会等待,进程从调用recvfrom到它返回这段时间一直都是堵塞状态。在这个模型中,一旦执行了系统调用,如果操作一即数据还没有传输到系统内核中,进程会堵塞,等待数据传输完到了,再进行数据复制,此时也是堵塞的。需要注意的是,这里说的堵塞是并不会造成CPU的浪费,CPU只是不执行I/O操作,还是会去执行其他操作
非堵塞IO模型:recvfrom从应用层到内核的时候,如果该缓冲区没有数据的话,就直接返回一个EWOULDBLOCK错误,一般都对非堵塞IO模型进行轮训检查这个状态,看内核是不是有数据到来。相比于堵塞的/O模型,
非堵塞的I/O模型通过缓冲区来达到非堵塞,具体的表现是操作一是非堵塞的,应用从缓冲区读取数据,通过轮询的方式来查看是否有数据可以读取。IO复用模型:前面说的都是处理一个fd操作,但需要处理多个fd时,因为后面的fd必须等到前面的fd操作而完成了才可以执行,即使后面的fd比前面的先准备好也只能等待,这样是效率很低的。为此,我们可以用多线程来解决,但是启动太多的线程也未必是一件好事,会造成资源的浪费。I/O多路复用技术通过将多个I/O的堵塞复用在一个select的堵塞上,从而使得系统在单线程的情况下可以同时处理多个客户端的请求。IO复用技术最大的优点就是系统开销少,因为不需要额外的进程或者线程来处理,只需要一个线程即可以处理多个fd操作。Linux内核提供了select/poll,进程通过将一个或者多个fd传递给select或者poll系统调用,堵塞在select操作上,这样select/poll可以帮我们侦测多个fd是否处于就绪状态。select/poll是顺序扫描fd是否就绪,而且支持的fd的数量有限,因此他的使用受到了一些限制。Linux还提供了一个epoll提供调用,epoll使用基于事件驱动方式代替了顺序扫描,因此效率更高。当有fd就绪时,立即回调函数rollback。
信号驱动IO模型:首先开启套接口驱动IO功能,并通过系统调用sigaction执行一个信号处理函数(此系统调用立即返回,进程继续工作,它是非堵塞的)。当数据准备就绪的时候,就为进程生成一个sigio信号,通过信号回调通知引用程序调用recvfrom来读取数据,并通知主循环函数处理。
异步IO模型:告知内核启动摸个操作,并让内核在整个操作完成后(包括将数据从内核中复制到用户缓存中)通知我们。这种模型与信号模型的主要区别是:信号驱动IO由内核通知我们何时开始一个IO操作,异步IO模型由内核告诉我们何时已经完成一个IO操作。
IO多路复用技术:
在IO编程过程中,当需要同时处理多个客户端请求时,可以利用多线程或者IO多路复用技术进行处理。IO多路复用技术通过把多个IO的堵塞复用到一个select的堵塞上,从而使系统在单线程的情况下可以同时处理多个用户请求。与传统的多线程/多进程模型相比,IO多路复用的最大优势是系统开销小,系统不需要创建新的额外的进程或者线程,也不需要维护这些线程或者进程的运行,降低了系统的维护工作量,节省了系统资源,IO多路复用的主要用用场景如下:
- 服务器需要同时处理多个出于监听状态或者链接状态的套接字。
- 服务器需要同时处理多种网络协议的套接字。
在之前的Linux网络编程中,很长一段时间都是使用select,然而因为select的一些缺陷不得不寻找一个更好的解决方法,这就找到了epoll。epoll其实和select的原理比较类似,为了克服select的缺点,epoll进行了很大的改进。
支持一个进程打开的socket描述符没有限制(仅受限于操作系统的最大文件句柄数)。
select的FD_SETSIZE的默认设置是1024,虽然可以通过修改这个宏重新编译内核,不过会带来网络效率的下降。epoll没有这限制。
IO效率不会随着FD数目的增加而现行下降。
传统的select/poll有一个致命的弱点,当你拥有很大的socket集合的时候,由于网络延时或者链路空闲,只有一部分的socket处于活跃的状态。select/poll每次调用都会通过线性扫描所有的集合。所以socket集合越多,扫描的时间就越久。而epoll就没有这个问题,它只处理活跃的socket,因为只有活跃的socket才会主动的调用callback函数。
使用mmmap加速内核与用户控件的消息传递。
无论是select还是epoll都需要内核把FD消息通知给用户空间,如何避免不必要的内存复制显得非常重要。epoll是通过内核和用户空间mmap同一块内存来实现。
epool的API更加简单。
包括创建一个epoll描述符,添加监听事件,阻塞等待所有监听大的事件发生,关闭epoll。
相关连接:
详细解读
BIO
NIO
AIO