关系服务redis层代码级别优化失败

场景:

关系服务,负责维护用户的关注关系,粉丝关系,如微博中的关注关系,其中使用redis HASH结构维护用户的粉丝关系

结构如图下:


问题:

对于业务场景需要查询A,B,C,D是否为E的粉丝,HASH结构效率最高。现实中遇到的问题是,对于大V用户有千万粉丝时,缓存失效后load操作

时间太长,通过后台日志,一个20w粉丝的主播,loadDB数据至缓存需要1s以上,要知道,这期间,redis可是不响应任何其他请求的。

优化:

redis层优化

首先先浏览了一下redis的源码,解压包后,查看src目录下的t_hash.c

hmset操作,则是我调用的方法,查看可知,内部是循环调用hashTypeSet,将应用端传进去的批量key-value逐个添加,

除此之外,系统会对目前hash结构引用的type类型进行判定,来选择合适的编码规则,redis hash有两种编码,ziplist,

hash_table,当存入key-value字节长度少于64,并且hash内size少于512时,redis会使用ziplist存储,反之会使用hash_table

做存储。

其中

hashTypeTryConversion方法校验key-value是否过长,

hashTypeSet插入key-value时,会检测容器容量,当容量大于hash_max_ziplist_entries时,

会做类型转换操作。默认的配置为:

hash容量扩充,与rehash,由代码可知,当初始容量为0时,会取系统配置

DICT_HT_INITIAL_SIZE做初始化,当容量满了时,会取当前已用容量2倍来做初始化。


dictExpand做扩容操作,dict结构体维护着两个table 一个代表扩容前,一个代表扩容后,扩容时

扩容后的table则为ht[1].

笔者通过修改hash扩容时的配置,使得不是使得当前容量2倍进行扩容,而是直接每次扩容增加20w,这样的话,笔者的30w粉丝数,大约进行两次扩容即可。比之前由4开始的初始容量进行扩容会减少7次左右的扩容操作。

不过还是无法解决问题,redis基于内存级的扩容没有我们想象中那么慢,至少修改后,对于30w的量只有数十毫秒级的优化,对于秒级的时间总量,这点优化远远不够。所以笔者放弃了此种方法。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容