网络I/O的4个要素
网络IO首先是一种I/O,按照我们上一节中对于“I/O”的定义,网络I/O也符合4个要素:
1.源头(source):一台电脑的磁盘或内存;
2.目标(target):另一台电脑的磁盘或内存;
3.通道(channel):网线,WiFi等
4.液体(fluid):数据(通常是字节形式)
5种不同的I/O模型
然而网络I/O相对与其他I/O更为复杂,因此Unix提供了5种不同的I/O模型,分别是
阻塞I/O(blocking I/O)
非阻塞I/O(non-blocking I/O)
I/O复用(I/O multiplexing)
信号驱动式I/O(signal-driven I/O)
异步I/O(asynchronous I/O)
BIO
让我们先从BIO,即阻塞IO(blocking I/O)说起:
通常网络I/O在建立链接后,数据的传输通常包括俩个阶段
阶段一:等待数据传输到本服务器;
阶段二:内核将接受到的数据由"内核缓冲区"复制到“应用缓冲区”;
对应阻塞IO而言,这两个阶段又被分为了4个步骤:
用户的应用线程调用recvfrom,开始读取数据,进入阻塞状态;
系统内核等待接收网络传输的数据;(阶段一)
系统内核将传输的数据由内核缓冲区拷贝到应用缓冲区;(阶段二)
应用进程从阻塞中恢复,读取应用缓冲区的数据;
备注:
“阻塞”可以理解为线程被内核“挂起”,让出CPU使用权,并等待被“唤醒”,重新获取CPU使用权;
recvfrom()为Unix函数,类似于在JAVA编程中,我们使用read()来读取网络传输的数据;
BIO的缺点:
1.在数据传输与复制过程中,线程都处于阻塞状态,因此在存在大量访问链接时,应用必须启用多个线程进行处理,系统需要为每个线程都分配相应的内存资源;
2.线程的切换成本是很高的。操作系统发生线程切换的时候,需要保留线程的上下文,然后执行系统调用。如果线程数过高,可能执行线程切换的时间甚至会大于线程执行的时间;
总结:BIO由于在数据传输与数据拷贝两个阶段,都需要阻塞线程,因此很难满足高并发,大量客户端同时访问服务端,传输数据的要求。因此在实际开发中,很少使用;或仅限于少量客户端链接的场景;
面试题:
BIO真的就一无是处了吗,哪些场景BIO的效率会更优秀呢?
答:我们说BIO是无法满足“大量链接”同时访问,传输数据的请求;但如果是链接数量较少,但单一链接的传输数据量较大的情况下,因为BIO省去了频繁询问的过程(这个后面NIO会讲),也是依然适用于这种模型的。