《LINUX教程:Linux下的I/O模型以及各自的优缺点》要点:
本文介绍了LINUX教程:Linux下的I/O模型以及各自的优缺点,希望对您有用。如果有疑问,可以联系我们。
其实关于这方面的知识,我阅读的是《UNIX网络编程:卷一》,书里是以UNIX为中心展开描述的,根据这部门知识,在网上参考了部门资料.以Linux为中心整理了这篇博客.
UNIX 收集编程(第2版)第1卷:套接口API和X/Open 传输接口API PDF
UNIX网络编程卷1:套接字联网API(第3版) 中文高清带完备书签 PDF
和Unix的I/O模型根本一致,Linux下一共有5种I/O模型[1]
上面这个列表,算是绝大部门关于Linux I/O模型博客中都会贴出来的.
在上述5种I/O模子中,前4种,其实都可以划分为同步I/O方式,只有最有一种异步I/O模子才使用异步I/O方式.
为什么这么划分呢,就得仔细看看这5种I/O模子到底是什么.
下文中对各个模型的描述,都是使用数据报(UDP)套接字作为例子进行说明的.
因为UDP相对与TCP来说比拟简单——要么整个数据报已经收到,要么还没有——而对于TCP来说,套接字低水位标记等额外变量开始起作用,导致整个概念变得复杂.(加粗字体的内容在写这篇博客时,并没有搞清楚是什么,可能后续会陆续搞懂)
通常我们使用的I/O都是阻塞式I/O,在编程时使用的年夜多数也是阻塞式I/O.在默认情况下,所有的套接字(socket)都是阻塞的.下图解释了阻塞式I/O模型的流程
上图中,我们说从调用recvfrom开始到它返回的整段时间内是被阻塞的,recvfrom胜利返回后,引用程序才开始处理数据报.
优点:
阻塞式I/O很容易上手,一般程序依照read-process的顺序进行处理就好.通常来说我们编写的第一个TCP的C/S程序就是阻塞式I/O模型的.并且该模型定位错误,在阻塞时整个进程将被挂起,基本不会占用CPU资源.
缺点:
该模型的缺点也十分明显.作为服务器,需要处理同时多个的套接字,使用该模型对具有多个的客户端并发的场景时就显得力不从心.
当然也有补救方法,我们使用多线程技术来弥补这个缺陷.但是多线程在具有大量连接时,多线程技术带来的资源消耗也不容小看:
如果我们现在有1000个连接时,就必要开启1000个线程来处理这些连接,于是就会出现下面的情况
- 线程有内存开销,假设每个线程必要512K的存放栈,那么1000个连接就必要月512M的内存.当并发量高的时候,这样的内存开销是无法接受的.
- 线程切换有CPU开销,这个CPU开销体现在上下文切换上,如果线程数越多,那么大多数CPU时间都用于上下文切换,这样每个线程的时间槽会非常短,CPU真正处理数据的时间就会少了非常多.
有阻塞I/O,那么也会有非阻塞I/O,在上文说过默认情况下,所有的套接字都是阻塞的,那么通过设置套接字的NONBLOCK(一般在open()
,socket()
等调用中设置)标志或者设置recv
、send
等输入输出函数的MSG_DONTWAIT标志就可以实现非阻塞操作.
那我们来看看非阻塞I/O模型的运行流程吧
可以看到,前三次recvfrom时没有数据可以返回,此时内核不阻塞进程,转而立即返回一个EWOULDBLOCK差错.第四次调用recvfrom时已经有一个数据报准备好了,此时它将被复制到应用进程的缓冲区,于是recvfrom调用成功返回.
当一个应用进程像这样对一个非阻塞描述符循环调用recvfrom时,我们称之为轮询(polling)
优点:
这种I/O方式也有明显的优势,即不会阻塞在内核的等待数据过程,每次发起的I/O哀求可以立即返回,不用阻塞等待.在数据量收发不均,等待时间随机性极强的情况下比较常用.
缺点
轮询这一个特征就已近暴露了这个I/O模型的缺点.轮询将会不断地询问内核,这将占用大量的CPU时间,系统资源利用率较低.同时,该模型也不便于使用,需要编写复杂的代码.
上文中说到,在出现大量的链接时,使用多线程+阻塞I/O的编程模型会占用大量的内存.那么I/O复用技术在内存占用方面,就有着很好的控制.
当前的高性能反向代理服务器Nginx使用的便是I/O复用模型(epoll),它以高性能和低资源消耗著称,在大规模并发上也有着很好的表现.
那么,我们就来看一看I/O复用模型的面目吧
那到底什么是I/O复用(I/O multiplexing).根据我的理解,复用指的是复用线程,从阻塞式I/O来看,基本一个套接字就占领了整个线程.例如当对一个套接字调用recvfrom调用时,整个线程将被阻塞挂起,直到数据报准备完毕.
多路复用就是复用一个线程的I/O模型,Linux中拥有几个调用来实现I/O复用的系统调用——select
,poll
,epoll
(Linux 2.6+)
线程将阻塞在上面的三个系统挪用中的某一个之上,而不是阻塞在真正的I/O系统挪用上.I/O复用允许对多个套接字进行监听,当有某个套接字准备就绪(可读/可写/异常)时,系统挪用将会返回.
然后我们可能将重新启用一个线程并挪用recvfrom来将特定套接字中的数据报从内核缓冲区复制到进程缓冲区.
优点
I/O复用技术的优势在于,只需要使用一个线程就可以管理多个socket,系统不需要建立新的进程或者线程,也不必维护这些线程和进程,所以它也是很大程度上减少了资源占用.
另外I/O复用技术还可以同时监听不同协议的套接字
缺点
在只处理连接数较小的场合,使用select的服务器不必定比多线程+阻塞I/O模型效率高,可能延迟更大,因为单个连接处理需要2次系统调用,占用时间会有增加.
当然你可能会想到使用信号这一机制来避免I/O时线程陷入阻塞状态.那么内核开发者怎么可能会想不到.那么我们来看看信号驱动式I/O模子的具体流程
从上图可以看到,我们首先开启套接字的信号驱动式I/O功能,并通过sigaction系统调用来安装一个信号处理函数,我们进程不会被阻塞.
当数据报准备好读取时,内核就为该进程发生一个SIGIO信号,此时我们可以在信号处理函数中调用recvfrom读取数据报,并通知数据已经准备好,正在等待处理.
长处
很明显,我们的线程并没有在等待数据时被阻塞,可以提高资源的利用率
缺点
其实在Unix中,信号是一个被过度设计的机制(这句话来自知乎大神,有待考究)
信号I/O在大量IO操作时可能会因为信号队列溢出导致没法通知——这个是一个非常严重的问题.
稍微歇息一下,还记得我们前面说过这4种I/O模型都可以划分为同步I/O方式,那我们来看看为什么.
了解了4种I/O模型的调用过程后,我们可以注意到,在数据从内核缓冲区复制到用户缓冲区时,都必要进程显示调用recvfrom,并且这个复制过程是阻塞的.
也就是说真正I/O过程(这里的I/O有点狭义,指的是内核缓冲区到用户缓冲区)是同步阻塞的,不同的是各个I/O模型在数据报准备好之前的动作不一样.
下面所说的异步I/O模型将会有所分歧
异步I/O,是由POSIX规范定义的.这个规范定义了一些函数,这些函数的工作机制是:告知内核启动某个操作,并让内核在整个操作完成后再通知我们.(包含将数据从内核复制到我们进程的缓冲区)
照样,先看模型的流程
全程没有阻塞,真正做到了异步
异步的优点还用阐明吗?
but
异步I/O在Linux2.6才引入,并且到现在仍然未成熟.
虽然有知名的异步I/O库 glibc
,但是听说glibc
采用多线程模拟,但存在一些bug和设计上的不合理.wtf?多线程模拟,那还有杀卵用.
引入异步I/O可能会代码难以理解的问题,这个站在软件工程的角度也是必要细细衡量的.
关于对Linux 的I/O模型的学习就写到这里,每个模型都有本身使用的范围
Talk is cheap, show me the code
实践出真知.
关于I/O模子的实验代码会在2017年10月前放到我的github仓库中.
UNIX 网络编程(第2版)第1卷:套接口API和X/Open 传输接口API PDF
UNIX网络编程卷1:套接字联网API(第3版) 中文高清带完备书签 PDF
本文永远更新链接地址:
欢迎参与《LINUX教程:Linux下的I/O模型以及各自的优缺点》讨论,分享您的想法,维易PHP学院为您提供专业教程。
转载请注明本页网址:
http://www.vephp.com/jiaocheng/8838.html