虚拟内存的由来
为什么会存在虚拟内存呢?原来,在以前的计算机体系中是没有虚拟内存的,程序都是直接运行在物理内存上面的。但是随着我们程序越写越大,想要实现的功能越来越多,直接将程序运行在物理内存上会带来一些问题。
- 多程序运行影响内存使用效率。
- 修改内存数据可能导致程序崩溃。
先来回答问题一,现在有多个程序需要运行,但是内存空间不足,此时我们需要把内存中的某个程序拷贝到硬盘里面,再将新的程序装入内存。这整个过程是很耗时的,而且大量数据频繁装入装出,使得内存的使用效率很低。
然后来看问题二,由于多程序运行在物理内存上,程序之间没有什么安全保护措施,我们访问 A 程序的数据地址时,可能由于我们的疏忽,错访问成了 B 程序的数据地址,这样就可能导致 B 程序出现莫名其妙的问题或者直接崩溃。
针对以上问题,优秀的程序员发明了虚拟内存管理机制,很好地解决了种种问题。下面就跟我一起来看看虚拟内存究竟是如何解决上面问题的吧。
虚拟内存系统概述
CPU 通过生成一个虚拟地址来访问主存,这个虚拟地址在被送到内存之前先转换成适当的物理地址。将虚拟地址转换成物理地址需要内存管理单元(MMU,Memory Management Unit)进行配合,而 MMU 属于 CPU 芯片硬件的一部分。
这样看起来很完美,但其实并不是这样的。MMU 地址翻译过程中存在一种叫页表的数据结构,是由它来保存虚拟地址转换成物理地址的映射关系。每次 MMU 将一个虚拟地址转换为物理地址时,都会从内存中读取对应的页表。这样非常消耗时间,MMU 地址翻译效率会极大地降低。
有没有可改进的空间呢?答案是当然有。把页表缓存起来不就行了嘛。事实上他们也是这样做的。他们在 MMU 中包含了一个关于页表的缓存,称为翻译后备缓冲器(Translation Lookaside Buffer,TLB)。简而言之,TLB 的作用就是加速 MMU 的地址转换。
虚拟内存的整体流程可分为 4 步:
1.CPU 产生一个虚拟地址
2.MMU 从 TLB 中获取页表,翻译成物理地址
3.MMU 把物理地址发送给主存
4.主存将地址对应的数据返回给 CPU
整体流程如图 1 所示。
虚拟内存的细节
虚拟地址与物理地址的映射关系如图 2 所示。
1.页与页表
虚拟内存系统将虚拟内存分割成固定大小的块,也被称为虚拟页。类似地,物理内存也被分割成固定大小的块,称为物理页。
要实现虚拟页与物理页之间的映射关系,我们需要一种叫作页表的数据结构。页表实际上就是一个页表条目(Page Table Entry,PTE)的数组。
每条 PTE 都由一个有效位和一个 n 位地址组成。如果 PTE 的有效位为 1,则 n 位地址表示相应物理页的起始位置,即虚拟地址能够在物理内存中找到相应的物理页。如果 PTE 的有效位为 0,且后面跟着的地址为空,那么表示该虚拟地址指向的虚拟页还没有被分配。如果 PTE 的有效位为 0,且后面跟着指向虚拟页的地址,表示该虚拟地址在物理内存中没有相对应的物理地址,指向该虚拟页在磁盘上的起始位置,我们通常把这种情况称为缺页。
此时,若出现缺页现象,MMU 会发出一个缺页异常,缺页异常调用内核中的缺页处理异常程序,该程序会选择主存的一个牺牲页,将我们需要的虚拟页替换到原牺牲页的位置。
2.多级页表
我们目前为止讨论的只是单页表,但在实际的环境中虚拟空间地址都是很大的(一个32位系统的地址空间有 2^32 = 4GB,更别说 64 位系统了)。在这种情况下,使用一个单页表明显是效率低下的。
常用方法是使用层次结构的页表。假设我们的环境为一个 32 位的虚拟地址空间,它有如下形式:
虚拟地址空间被分为 4KB 的页,每个 PTE 都是 4 字节。内存的前 2K 个页面分配给了代码和数据.之后的 6K 个页面还未被分配。再接下来的 1023 个页面也未分配,其后的 1 个页面分配给了用户栈。
下图 3 是为该虚拟地址空间构造的二级页表层次结构(真实情况中多为四级或更多),一级页表( 1024 个 PTE 正好覆盖 4GB 的虚拟地址空间,同时每个 PTE 只有 4 字节,这样一级页表与二级页表的大小也正好与一个页面的大小一致都为 4KB)的每个 PTE 负责映射虚拟地址空间中一个 4MB 的片(chunk),每一片都由 1024 个连续的页面组成。二级页表中的每个PTE负责映射一个 4KB 的虚拟内存页面。
详情可参考「深入理解计算机系统」P571~P572。
最后
回到最初的问题,由于虚拟内存 MMU 与 TLB 的存在,多进程运行时效率不会大打折扣;与此同时,每个进程都存在属于自己的页表,所以进程之间也不会相互影响。