链表:数据存储结构
我们通过一个简单的场景,了解一下链表的数据存储结构。那就是LRU缓存淘汰算法。
缓存是一种提高数据读取性能的技术,在硬件设计、软件开发中都有着非常广泛的应用,比如常见的CPU缓存、数据库缓存、浏览器缓存等等。
缓存的大小有限,当缓存被用满时,哪些数据应该被清理出去,哪些数据应该被保留?这就需要缓存淘汰策略来决定。常见的策略有三种:
1).先进先出策略FIFO ( First In, FirstOut)、
2).最少使用策略LFU (Least Frequently Used)、
3).最近最少使用策略LRU ( Least Recently Used )。
如何使用链表来实现LRU缓存淘汰策略呢???
相比数组,链表是一种稍微复杂一点的数据结构。对于初学者来说,掌握起来也要比数组稍微难一些。这两个非常基础,非常常用的数据结构,我们常常会放到一起比较。所以,我们先了解一下他们之间的区别吧!!!
二者区别
首先从底层存储结构来看:
结合下图,可以看出,数组需要一块连续的内存空间来存储,对内存的要求比较高。如果我们申请100MB大小的数组,当内存中没有连续的,足够大的存储空间时,即便内存的剩余总可用空间大于100MB,仍然会申请失败
而链表确恰恰相反,它并不需要一块连续的内存空间,他通过"指针"将一组零散的内存块串联起来使用,所以如果我们申请的是100MB大小的链表,根本不会有问题
链表结构五花八门,我们了解三种主要的链表,也是最常见的三种链表结构,它们分别是:单链表、双向链表和循环链表。
单链表
链表通过指针将一组零散的内存块串联在一起。其中,我们把内存块称为链表的“结点”。为了将所有的结点串起来,每个链表的结点除了存储数据之外,还需要记录链上的下一个结点的地址。如图所示,我们把这个记录下个结点地址的指针叫作后继指针 next。
从上图可以看出,有两个特殊的结点,分别是第一个和最后一个。我们习惯性吧第一个节点叫做头结点,把最后一个节点叫做尾结点。其中头结点是用来记录链表的基地址。有了它,我们就可以通过遍历得到整条链表。而尾结点的特殊地方是:指针不指向下一个结点,而是指向一个空地址null,表示这是链表上的最后一个结点
与数组一样,链表也支持数据的查找,插入和删除操作。
我们知道,在数组进行插入和删除的时候,为了确保数据的连续性,会涉及到大量的数据搬移操作,所以时间复杂度是O(n)。而在链表中插入或者删除一个数据,我们不需要保证数据的连续性,而作大量的数据搬移工作,因为链表的存储空间本身就不是连续的。所以在链表中删除一个数据是非常快的。
针对链表的插入和删除操作,我们只需要考虑相邻结点的指针改变,所以对应的时间复杂度是O(n)。可以参考下图进行理解。
但是有利就有弊。链表要想访问第k个元素,就没有数组那么高效了。因为链表数据并非连续存储。所以无法像数组那样,根据首地址和下标,通过寻址公式就能计算出对应的内存地址,而是需要根据指针一个结点一个结点的依次遍历,直到找到相应的结点。所以链表的查询操作的时间复杂度就是O(n)
循环链表
循环链表是一种特殊的单链表。其实循环链表也是很简单的,它和单链表的唯一区别就在尾结点上。我们知道单链表的尾结点指针是指向空地址NULL的,而循环链表的尾结点指针是指向头结点的。正如下图所示:
和单链表相比,循环链表的优点就是从链尾到链头比较方便。当要处理的数据具有环形的结构特点时,就特别适合采用循环链表。尽管用单链表也可以实现,但是用循环链表实现的话,代码会简洁很多。
双向链表
单向链表只有一个方向,结点只有一个后继指针next指向后面的结点。而双向链表,顾名思义,它支持两个方向,每个结点不止有一个后继指针next指向后面的结点,还有一个前驱指针指向前面的结点。
通过上图可以看出,双向链表需要额外的两个空间来存储后继结点和前驱结点的地址。所以,存储同样多的数据,双向链表就要比单链表占用更多的内存空间。虽然两个指针比较浪费空间,但是支持双向遍历,这样也带来双向链表操作的灵活性。
双向链表可以解决那些问题呢???
从结构上看,双向链表可以支持O(1)时间复杂度的情况找到前驱结点,正是这样的特点,也是双向链表在某些情况下的插入、删除等操作都要比单链表简单、高效。
这样说可能会有一些疑问,单链表的效率已经够高了,双链表还能在高到什么程度么?我们了解一下。
插入、删除操作
在实际的开发中,从链表中删除数据,无非就两种情况:
- 删除结点中"值等于某个给定值"的结点。
- 删除指定指针指向的结点。
第一种情况,不管是单链表还是双链表,为了查找值等于给定值的结点,都需要从头结点开始一个一个依次遍历找到对应的结点,这样的时间复杂度就是O(n)。然后进行删除操作,时间复杂度为O(1)。尽管删除操作的时间复杂度O(1),但是需要找到这个结点,那么就必须要通过遍历找到这个结点,根据时间复杂度分析中的加法法则,删除值等于给定值的结点对应的链表操作的总时间复杂度就是O(n)
第二种情况,我们已经找到了要删除的结点,但是删除某个结点q需要知道其前驱结点,而单链表并不支持直获取前驱结点,所以,为了找到前驱结点,我们还是要从头结点开始遍历链表,知道p->next=q,说明p是q的前驱结点。
但是对于双链表来讲,这种情况就比较有优势了。因为双链表中的结点已经保存了前驱结点的指针,不需要像单链表那样遍历查找了。这样对于这种情况的删除操作来讲,单链表的删除操作的时间复杂度就是O(n),而双链表的时间复杂度就是O(1)。
插入操作同理,大家可以自己思考一下。
除了插入、删除操作有优势之外,对于一个有序链表,双向链表的按值查询的效率也要比单链表高一些。因为,我们可以记录上次查找的位置p ,每次查询时,根据要查找的值与p的大小关系,决定是往前还是往后查找,所以平均只需要查找一半的数据。
现在,是不是觉得双向链表要比单链表更加高效呢?这就是为什么在实际的软件开发中,双向链表尽管比较费内存,但还是比单链表的应用更加广泛的原因。如果熟悉Java语言,肯定用过LinkedHashMap这个容器。如果深入研究LinkedHashMap的实现原理,就会发现其中就用到了双向链表这种数据结构。
实际上,这里有一个更加重要的知识点需要你掌握,那就是用空间换时间的设计思想。当内存空间充足的时候,如果我们更加追求代码的执行速度,我们就可以选择空间复杂度相对较高、但时间复杂度相对很低的算法或者数据结构。相反,如果内存比较紧缺,比如代码跑在手机或者单片机上,这个时候,就要反过来用时间换空间的设计思路。
总结:对于执行慢的程序,可以通过消耗更多的内存(空间换时间)来进行优化;而消耗过多内存的程序,可以通过消耗更多的时间(时间换空间)来降低内存的消耗。
双向循环链表
双向循环链表:就是将双向链表和循环链表结合到一起
链表VS数组性能大比拼
通过全面的学习,我们知道了数组和链表是两种截然不同的内存组织方式。正式因为这样内存存储的区别,它们插入、删除、随机访问操作的时间复杂度恰好相反。
不过,数组和链表的对比,并不能局限于时间复杂度。而且,在实际的软件开发中,不能仅仅利用复杂度分析就决定使用哪个数据结构来存储数据。
数组简单易用,在实现上使用的是连续的内存空间,可以借助CPU的缓存机制,预读数组中的数据,所以访问效率更高。而链表在内存中并不是连续存储,所以对CPU缓存不友好,没办法有效预读。
数组的缺点是大小固定,一经声明就要占用整块连续内存空间。如果声明的数组过大,系统可能没有足够的连续内存空间分配给它,导致"内存不足( out of memory)"。如果声明的数组过小,则可能出现不够用的情况。这时只能再申请一个更大的内存空间 ,把原数组拷贝进去,非常费时。链表本身没有大小的限制,天然地支持动态扩容,我觉得这也是它与数组最大的区别。
你可能会说,我们Java中的ArrayList容器,也可以支持动态扩容啊?我们上一节课讲过,当我们往支持动态扩容的数组中插入一个数据时,如果数组中没有空闲空间了,就会申请一个更大的空间,将数据拷贝过去,而数据拷贝的操作是非常耗时的。
我举一个稍微极端的例子。如果我们用ArrayList存储了了1GB大小的数据, 这个时候已经没有空闲空间了,当我们再插入数据的时候, ArrayList 会申请一个1.5GB大小的存储空间,并且把原来那1GB的数据拷贝到新申请的空间上。听起来是不是就很耗时?
除此之外,如果你的代码对内存的使用非常苛刻,那数组就更适合你。因为链表中的每个结点都需要消耗额外的存储空间去存储一份指向下一 个结点的指针,所以内存消耗会翻倍。而且, 对链表进行频繁的插入、删除操作,还会导致频繁的内存申请和释放,容易造成内存碎片,如果是Java语言,就有可能会 导致频繁的GC ( Garbage Collection ,垃圾回收)。
所以,在我们实际的开发中,针对不同类型的项目,要根据具体情况,权衡究竟是选择数组还是链表。
解笞开篇,如何基于链表实现LRU缓存淘汰算法?
我的思路是这样的:我们维护一个有序单链表,越靠近链表尾部的结点是越早之前访问的。当有一个 新的数据被访问时,我们从链表头开始顺序遍历链表。
1.如果此数据之前已经被缓存在链表中了,我们遍历得到这个数据对应的结点,并将其从原来的位置删除, 然后再插入到链表的头部。
2.如果此数据没有在缓存链表中,又可以分为两种情况:
- 如果此时缓存未满,则将此结点直接插入到链表的头部;
- 如果此时缓存已满,则链表尾结点删除,将新的数据结点插入链表的头部。
这样我们就用链表实现了一个LRU缓存,是不是很简单?
现在我们来看下m缓存访问的时间复杂度是多少。因为不管缓存有没有满,我们都需要遍历一遍链表,所以这种基于链表的实现思路,缓存访问的时间复杂度为O(n)。
实际上,我们可以继续优化这个实现思路,比如引入散列表( Hash table )来记录每个数据的位置,将缓存访问的时间复杂度降到0(1)。涉及到的数据结构散列表,在后面的文章会有所解析。
知识延伸,如何基于数组实现LRU缓存淘汰策略?
方式一:首位置保存最新访问数据,末尾位置优先清理
当访问的数据未存在于缓存的数组中时,直接将数据插入数组第一个元素位置,此时数组所有元素需要向后移动1个位置,时间复杂度为O(n);当访问的数据存在于缓存的数组中时,查找到数据并将其插入数组的第一个位置,此时亦需移动数组元素,时间复杂度为O(n)。缓存用满时,则清理掉末尾的数据,时间复杂度为O(1)。
方式二:首位置优先清理,末尾位置保存最新访问数据
当访问的数据未存在于缓存的数组中时,直接将数据添加进数组作为当前最后一个元素时间复杂度为O(1);当访问的数据存在于缓存的数组中时,查找到数据并将其插入当前数组最后一个元素的位置,此时亦需移动数组元素,时间复杂度为O(n)。缓存用满时,则清理掉数组首位置的元素,且剩余数组元素需整体前移一位,时间复杂度为O(n)。(优化:清理的时候可以考虑一次性清理一定数量,从而降低清理次数,提高性能。)
知识拓展:
“数组简单易用,在实现上使用的是连续的内存空间,可以借助 CPU 的缓存机制,预读数组中的数据,所以访问效率更高。而链表在内存中并不是连续存储,所以对 CPU 缓存不友好,没办法有效预读。” 这里的CPU缓存机制指的是什么?为什么就数组更好了?
CPU在从内存读取数据的时候,会先把读取到的数据加载到CPU的缓存中。而CPU每次从内存读取数据并不是只读取那个特定要访问的地址,而是读取一个数据块(这个大小我不太确定。。)并保存到CPU缓存中,然后下次访问内存数据的时候就会先从CPU缓存开始查找,如果找到就不需要再从内存中取。这样就实现了比内存访问速度更快的机制,也就是CPU缓存存在的意义:为了弥补内存访问速度过慢与CPU执行速度快之间的差异而引入。
对于数组来说,存储空间是连续的,所以在加载某个下标的时候可以把以后的几个下标元素也加载到CPU缓存这样执行速度会快于存储空间不连续的链表存储。
HashMap采用Entry数组来存储key-value对,每一个键值对组成了一个Entry实体,Entry类实际上是一个单向的链表结构,它具有Next指针,可以连接下一个Entry实体,依次来解决Hash冲突的问题,因为HashMap是按照Key的hash值来计算Entry在HashMap中存储的位置的,如果hash值相同,而key内容不相等,那么就用链表来解决这种hash冲突。
【HashMap是单链表结构】
LinkedHashMap继承了HashMap,比其多了两个属性head 和tail,加了一种链表的数据。LinkedHashMap其实没有重写HashMap的put方法,它并有放弃HashMap的散列链表,只是在这个基础上加上了自己的链表。 来看HashMap的源码,put方法调用了newNode方法,LinkedHashMap只需要重写此方法就可以在put时把元素也放在自己的链表中,新节点变成尾节点
【LinkedHashMap是双链表结构】