redis内存淘汰策略

出处:juejin.im/post/5d674ac2e51d4557ca7fdd70


小结:

本文主要包括三个部分。
如何通过文件或命令修改配置信息;
redis的6种内存淘汰策略;
LRU和LFU算法的介绍及应用。LRU表示最少使用,redis使用近似LRU算法,主要也是从性能上考虑,每次是随机取出部分key,然后从里面淘汰掉最少使用的,3.0版本针对近似LRU做了优化。LFU是4.0新增淘汰策略,根据访问频率进行淘汰,能够避免假热点的情况。

Redis占用内存大小

我们知道Redis是基于内存的key-value数据库,因为系统的内存大小有限,所以我们在使用Redis的时候可以配置Redis能使用的最大的内存大小。

1、通过配置文件配置

通过在Redis安装目录下面的redis.conf配置文件中添加以下配置设置内存大小

//设置Redis最大占用内存大小为100Mmaxmemory 100mb复制代码

redis的配置文件不一定使用的是安装目录下面的redis.conf文件,启动redis服务的时候是可以传一个参数指定redis的配置文件的

2、通过命令修改

Redis支持运行时通过命令动态修改内存大小

//设置Redis最大占用内存大小为100M127.0.0.1:6379> configsetmaxmemory 100mb//获取设置的Redis能使用的最大内存大小127.0.0.1:6379> config get maxmemory复制代码

如果不设置最大内存大小或者设置最大内存大小为0,在64位操作系统下不限制内存大小,在32位操作系统下最多使用3GB内存

Redis的内存淘汰

既然可以设置Redis最大占用内存大小,那么配置的内存就有用完的时候。那在内存用完的时候,还继续往Redis里面添加数据不就没内存可用了吗?

实际上Redis定义了几种策略用来处理这种情况:

noeviction(默认策略):对于写请求不再提供服务,直接返回错误(DEL请求和部分特殊请求除外)

allkeys-lru:从所有key中使用LRU算法进行淘汰

volatile-lru:从设置了过期时间的key中使用LRU算法进行淘汰

allkeys-random:从所有key中随机淘汰数据

volatile-random:从设置了过期时间的key中随机淘汰

volatile-ttl:在设置了过期时间的key中,根据key的过期时间进行淘汰,越早过期的越优先被淘汰

当使用volatile-lruvolatile-randomvolatile-ttl这三种策略时,如果没有key可以被淘汰,则和noeviction一样返回错误

如何获取及设置内存淘汰策略

获取当前内存淘汰策略:

127.0.0.1:6379> config get maxmemory-policy

通过配置文件设置淘汰策略(修改redis.conf文件):

maxmemory-policy allkeys-lru

通过命令修改淘汰策略:

127.0.0.1:6379> configsetmaxmemory-policy allkeys-lru

LRU算法

什么是LRU?

上面说到了Redis可使用最大内存使用完了,是可以使用LRU算法进行内存淘汰的,那么什么是LRU算法呢?

LRU(Least Recently Used),即最近最少使用,是一种缓存置换算法。在使用内存作为缓存的时候,缓存的大小一般是固定的。当缓存被占满,这个时候继续往缓存里面添加数据,就需要淘汰一部分老的数据,释放内存空间用来存储新的数据。这个时候就可以使用LRU算法了。其核心思想是:如果一个数据在最近一段时间没有被用到,那么将来被使用到的可能性也很小,所以就可以被淘汰掉。

使用java实现一个简单的LRU算法

```

public classLRUCache{

    //容量

    private int capacity;

    //当前有多少节点的统计

    private int count;

    //缓存节点

    private Map<k, Node<k, v>> nodeMap;

    private Node<k, v> head;

    private Node<k, v> tail;

    publicLRUCache(intcapacity){

        if (capacity < 1) {

            throw new IllegalArgumentException(String.valueOf(capacity));

        }

        this.capacity = capacity;

        this.nodeMap = new HashMap<>();

        //初始化头节点和尾节点,利用哨兵模式减少判断头结点和尾节点为空的代码

        Node headNode = new Node(null, null);

        Node tailNode = new Node(null, null);

        headNode.next = tailNode;

        tailNode.pre = headNode;

        this.head = headNode;

        this.tail = tailNode;

    }

    publicvoidput(k key, v value){

        Node<k, v> node = nodeMap.get(key);

        if (node == null) {

            if (count >= capacity) {

                //先移除一个节点

                removeNode();

            }

            node = new Node<>(key, value);

            //添加节点

            addNode(node);

        } else {

            //移动节点到头节点

            moveNodeToHead(node);

        }

    }

    publicNodeget(k key){

        Node<k, v> node = nodeMap.get(key);

        if (node != null) {

            moveNodeToHead(node);

        }

        return node;

    }

    privatevoidremoveNode(){

        Node node = tail.pre;

        //从链表里面移除

        removeFromList(node);

        nodeMap.remove(node.key);

        count--;

    }

    privatevoidremoveFromList(Node<k, v> node){

        Node pre = node.pre;

        Node next = node.next;

        pre.next = next;

        next.pre = pre;

        node.next = null;

        node.pre = null;

    }

    privatevoidaddNode(Node<k, v> node){

        //添加节点到头部

        addToHead(node);

        nodeMap.put(node.key, node);

        count++;

    }

    privatevoidaddToHead(Node<k, v> node){

        Node next = head.next;

        next.pre = node;

        node.next = next;

        node.pre = head;

        head.next = node;

    }

    publicvoidmoveNodeToHead(Node<k, v> node){

        //从链表里面移除

        removeFromList(node);

        //添加节点到头部

        addToHead(node);

    }

    classNode{

        k key;

        v value;

        Node pre;

        Node next;

        publicNode(k key, v value){

            this.key = key;

            this.value = value;

        }

    }

}

```

上面这段代码实现了一个简单的LUR算法,代码很简单,也加了注释,仔细看一下很容易就看懂。

LRU在Redis中的实现

近似LRU算法

Redis使用的是近似LRU算法,它跟常规的LRU算法还不太一样。近似LRU算法通过随机采样法淘汰数据,每次随机出5(默认)个key,从里面淘汰掉最近最少使用的key。

可以通过maxmemory-samples参数修改采样数量:

例:maxmemory-samples 10

maxmenory-samples配置的越大,淘汰的结果越接近于严格的LRU算法

Redis为了实现近似LRU算法,给每个key增加了一个额外增加了一个24bit的字段,用来存储该key最后一次被访问的时间。

Redis3.0对近似LRU的优化

Redis3.0对近似LRU算法进行了一些优化。新算法会维护一个候选池(大小为16),池中的数据根据访问时间进行排序,第一次随机选取的key都会放入池中,随后每次随机选取的key只有在访问时间小于池中最小的时间才会放入池中,直到候选池被放满。当放满后,如果有新的key需要放入,则将池中最后访问时间最大(最近被访问)的移除。

当需要淘汰的时候,则直接从池中选取最近访问时间最小(最久没被访问)的key淘汰掉就行。

LRU算法的对比

我们可以通过一个实验对比各LRU算法的准确率,先往Redis里面添加一定数量的数据n,使Redis可用内存用完,再往Redis里面添加n/2的新数据,这个时候就需要淘汰掉一部分的数据,如果按照严格的LRU算法,应该淘汰掉的是最先加入的n/2的数据。生成如下各LRU算法的对比图(图片来源):


你可以看到图中有三种不同颜色的点:

浅灰色是被淘汰的数据

灰色是没有被淘汰掉的老数据

绿色是新加入的数据

我们能看到Redis3.0采样数是10生成的图最接近于严格的LRU。而同样使用5个采样数,Redis3.0也要优于Redis2.8。

 redis如何管理热点数据

前面我们讲述字符串对象时,提到了redisObject对象中存在一个lru属性:

```

typedef struct redisObject {

unsignedtype:4;//对象类型(4位=0.5字节)

unsigned encoding:4;//编码(4位=0.5字节)

unsigned lru:LRU_BITS;//记录对象最后一次被应用程序访问的时间(24位=3字节)

int refcount;//引用计数。等于0时表示可以被垃圾回收(32位=4字节)

void *ptr;//指向底层实际的数据存储结构,如:SDS等(8字节)

} robj;

```

lru属性是创建对象的时候写入,对象被访问到时也会进行更新。正常人的思路就是最后决定要不要删除某一个键肯定是用当前时间戳减去lru,差值最大的就优先被删除。但是Redis里面并不是这么做的,Redis中维护了一个全局属性lru_clock,这个属性是通过一个全局函数serverCron每隔100毫秒执行一次来更新的,记录的是当前unix时间戳。

最后决定删除的数据是通过lru_clock减去对象的lru属性而得出的。那么为什么Redis要这么做呢?直接取全局时间不是更准确吗?

这是因为这么做可以避免每次更新对象的lru属性的时候可以直接取全局属性,而不需要去调用系统函数来获取系统时间,从而提升效率(Redis当中有很多这种细节考虑来提升性能,可以说是对性能尽可能的优化到极致)。

不过这里还有一个问题,我们看到,redisObject对象中的lru属性只有24位,24位只能存储194天的时间戳大小,一旦超过194天之后就会重新从0开始计算,所以这时候就可能会出现redisObject对象中的lru属性大于全局的lru_clock属性的情况。

正因为如此,所以计算的时候也需要分为2种情况:

当全局lruclock>lru,则使用lruclock-lru得到空闲时间。

当全局lruclock

需要注意的是,这种计算方式并不能保证抽样的数据中一定能删除空闲时间最长的。这是因为首先超过194天还不被使用的情况很少,再次只有lruclock第2轮继续超过lru属性时,计算才会出问题。

比如对象A记录的lru是1天,而lruclock第二轮都到10天了,这时候就会导致计算结果只有10-1=9天,实际上应该是194+10-1=203天。但是这种情况可以说又是更少发生,所以说这种处理方式是可能存在删除不准确的情况,但是本身这种算法就是一种近似的算法,所以并不会有太大影响。


LFU算法

LFU算法是Redis4.0里面新加的一种淘汰策略。它的全称是Least Frequently Used,它的核心思想是根据key的最近被访问的频率进行淘汰,很少被访问的优先被淘汰,被访问的多的则被留下来。

当我们采用LFU回收策略时,lru属性的高16位用来记录访问时间(last decrement time:ldt,单位为分钟),低8位用来记录访问频率(logistic counter:logc),简称counter。

访问频次递增

LFU计数器每个键只有8位,它能表示的最大值是255,所以Redis使用的是一种基于概率的对数器来实现counter的递增。r

给定一个旧的访问频次,当一个键被访问时,counter按以下方式递增:

提取0和1之间的随机数R。

counter- 初始值(默认为5),得到一个基础差值,如果这个差值小于0,则直接取0,为了方便计算,把这个差值记为baseval。

概率P计算公式为:1/(baseval * lfu_log_factor + 1)。

如果R < P时,频次进行递增(counter++)。

公式中的lfu_log_factor称之为对数因子,默认是10,可以通过参数来进行控制:

```

lfu_log_factor 10

```

下图就是对数因子lfu_log_factor和频次counter增长的关系图:

可以看到,当对数因子lfu_log_factor为100时,大概是10M(1000万)次访问才会将访问counter增长到255,而默认的10也能支持到1M(100万)次访问counter才能达到255上限,这在大部分场景都是足够满足需求的。

访问频次递减

如果访问频次counter只是一直在递增,那么迟早会全部都到255,也就是说counter一直递增不能完全反应一个key的热度的,所以当某一个key一段时间不被访问之后,counter也需要对应减少。

counter的减少速度由参数lfu-decay-time进行控制,默认是1,单位是分钟。默认值1表示:N分钟内没有访问,counter就要减N。

lfu-decay-time 1

具体算法如下:

获取当前时间戳,转化为分钟后取低16位(为了方便后续计算,这个值记为now)。

取出对象内的lru属性中的高16位(为了方便后续计算,这个值记为ldt)。

当lru>now时,默认为过了一个周期(16位,最大65535),则取差值65535-ldt+now:当lru<=now时,取差值now-ldt(为了方便后续计算,这个差值记为idle_time)。

取出配置文件中的lfu_decay_time值,然后计算:idle_time / lfu_decay_time(为了方便后续计算,这个值记为num_periods)。

最后将counter减少:counter - num_periods。

看起来这么复杂,其实计算公式就是一句话:取出当前的时间戳和对象中的lru属性进行对比,计算出当前多久没有被访问到,比如计算得到的结果是100分钟没有被访问,然后再去除配置参数lfu_decay_time,如果这个配置默认为1也即是100/1=100,代表100分钟没访问,所以counter就减少100。

LFU算法能更好的表示一个key被访问的热度。假如你使用的是LRU算法,一个key很久没有被访问到,只刚刚是偶尔被访问了一次,那么它就被认为是热点数据,不会被淘汰,而有些key将来是很有可能被访问到的则被淘汰了。如果使用LFU算法则不会出现这种情况,因为使用一次并不会使一个key成为热点数据。

LFU一共有两种策略:

volatile-lfu:在设置了过期时间的key中使用LFU算法淘汰key

allkeys-lfu:在所有的key中使用LFU算法淘汰数据

设置使用这两种淘汰策略跟前面讲的一样,不过要注意的一点是这两周策略只能在Redis4.0及以上设置,如果在Redis4.0以下设置会报错


参考链接:

[redis内存耗尽会发生什么?](https://mp.weixin.qq.com/s?__biz=MzIyNDU2ODA4OQ==&mid=2247488487&idx=1&sn=dc0a98cb3e9883a701fc5778008427f9&chksm=e80da591df7a2c87a405a8d1acfbff318c3d5277d34f917d0dde926ad0433d0d0b05a1a5d955&scene=21#wechat_redirectn)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,036评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,046评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,411评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,622评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,661评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,521评论 1 304
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,288评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,200评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,644评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,837评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,953评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,673评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,281评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,889评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,011评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,119评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,901评论 2 355

推荐阅读更多精彩内容