Leveldb解析之四:Compaction

1 简述

这一篇我们来解析leveldb的Compaction机制,要把这个讲清楚,需要回答下面的问题:

  • 什么是Compaction?
  • 什么时候会触发Compaction?
  • Compact到底怎么做? 选择哪一个Layer和哪些Table文件做Compact? 具体怎么压缩?

什么是Compaction?

随着Put/Delete操作增多,sstable文件会越来越多,占用的磁盘空间也越来越大。删除无效的key(被标记删除的key,被新版本覆盖的老版本的key),然后重新生成sstable文件,可以有效减少sstable文件的数量,这个过程就是Compaction。

什么时候会触发Compaction?

Compaction的入口函数是MaybeScheduleCompaction(),触发的时机:

  • Open()
    打开数据库时,会发生Recover,重做log文件中的写操作,这可能会引发Compaction。
  • Write()
    mem写满时,会把mem改成imm,然后刷入sstable,这可能会触发Compaction。
  • Get()
    leveldb对Get()进行统计,当一个文件多次未命中key时,我们可以认为这是一个冷数据文件,对这个文件进行Compact,把它推到更高的level,减少它被查找的机会,从而提高Get()效率。
  • Iterator
    与Get()类似,使用Iterator访问数据时,也会进行key的命中统计,触发对冷数据sstable的Compaction。
  • Compact()
    主动调用Compact(begin, Slice),所有Layer当中key值与[begin,end]有重叠的sstable都会进行Compact。
  • BackgroundCompaction()
    压缩过程会在level+1产生新的sstable文件,可能再次触发Compaction

Compact到底怎么做? 选择哪一个Layer和哪些Table文件做Compact? 具体怎么压缩?

leveldb是在后台线程执行Compact,目前只允许单线程,也就是说Compact只能串行执行。

入口函数是DBImpl::BackgroundCompaction(),流程如下:

1) if (imm != nullptr),调用CompactMemTable(),把imm生成sstable文件落盘。
2) 选择进行Compact的layer和文件:
   if (is_manual) {  // 优先考虑主动调用Compact()操作
     选定所有layer当中与[begin,end]区间有重叠的sstable文件;
   } else {
     调用VersionSet::PickCompaction()选择最需要压缩的layer和文件,具体算法下面代码有解释;
   }
3) 进行压缩
   if (IsTrivialMove()) { // 修改文件layer就可以
      修改文件layer;
      把version修改历史生成record写入MANIFEST文件;
   } else {  // 真正需要压缩
      生成InputIterator{inpus},遍历key,删除无效数据(已经被删除的key,被新版本覆盖的key),生成sstable文件;
      Compact过程中,除了正常的sstable文件大小限制之外,还要判断生成的level+1文件与level+2层文件的重叠情况;
      如果重叠的文件过多,则结束当前文件,开启新的文件,避免将来level+1向level+2压缩时涉及的文件太多;
    }

2 源码解析

VersionSet::LogAndApply()触发Compaction

leveldb通过VersionSet::PickCompaction()来选择要压缩的Layer和Table,怎么做到的呢?

原来,在每个Version生成的时候,会计算哪个Layer需要进行Compaction,方法是计算每个layer的compaction_score,选择得分最高的layer,这是由LogAndApply()函数完成的:

LogAndApply() 生成Version的最后一步是调用VersionSet::Finalize(),计算compaction_score:
  1)对于level-0,因为每次read都要对所有文件进行merge,文件太多影响读效率,因此主要考虑文件数据量,
     compaction_score = file_num/kL0_CompactionTrigger
  2)对于其他level,因为文件之间key不重叠,主要考虑文件大小,
     compaction_score = file_size/MaxBytesForLevel()
最后选出compaction_score最高的layer作为compaction_level。

注:当max_compaction_score>1时,需要Compaction,否则不需要。

调用LogAndApply()生成Version的时机:

1) Open数据库时,会合并历史VersionEdit,生成新的Version。
2) Compaction过程,会生成新的Version。
   具体是BackgroundCompaction()、CompactMemTable()、InstallCompactionResults()这几个函数。
DBImpl::Get()触发Compaction,把冷数据推导更高的Level:
  // Get()入口
  Status DBImpl::Get(const ReadOptions& options, const Slice& key, std::string* value)  {
    ....
    // 调用VersionSet::Get()查找key
    // VersionSet::Get()在查找key之余,会通过GetStat返回查找过程中第一个未命中key的文件
    s = current->Get(options, lkey, value, &stats);
    ......
    // 根据GetStat判断是否触发Compaction,判断标准 f->allowed_seeks<0
    if (have_stat_update && current->UpdateStats(stats)) {
      MaybeScheduleCompaction();
  }
   
  // f->allowed_seeks这个值是怎么来的呢?
  // 原来是在sstable文件加入到Version时,会根据文件大小,设置查找次数 allowed_seeks,参考:
  void VersionSet::Builder::Apply(VersionEdit* edit) {
    ......
    
    // We arrange to automatically compact this file after
    // a certain number of seeks.  Let's assume:
    //   (1) One seek costs 10ms
    //   (2) Writing or reading 1MB costs 10ms (100MB/s)
    //   (3) A compaction of 1MB does 25MB of IO:
    //         1MB read from this level
    //         10-12MB read from next level (boundaries may be misaligned)
    //         10-12MB written to next level
    // This implies that 25 seeks cost the same as the compaction
    // of 1MB of data.  I.e., one seek costs approximately the
    // same as the compaction of 40KB of data.  We are a little
    // conservative and allow approximately one seek for every 16KB
    // of data before triggering a compaction.
    f->allowed_seeks = static_cast<int>((f->file_size / 16384U));
    if (f->allowed_seeks < 100) f->allowed_seeks = 100;

    ......
  }

Iterator触发Compaction,删除过期key(被新版本覆盖):
// 调用DBImpl::NewIterator()生成一个Iterator,而后遍历key,每隔一段会读取一些样本,判断是否过期数据:
bool DBIter::ParseKey(ParsedInternalKey* ikey) {
  Slice k = iter_->key();

  size_t bytes_read = k.size() + iter_->value().size();
  while (bytes_until_read_sampling_ < bytes_read) {
    bytes_until_read_sampling_ += RandomCompactionPeriod();  // [0,2*kReadBytesPeriod]之间的随机数
    db_->RecordReadSample(k);  // 读取数据样本,判断是否需要Compact
  }
  assert(bytes_until_read_sampling_ >= bytes_read);
  bytes_until_read_sampling_ -= bytes_read;

  ......
}

// DBImpl::RecordReadSample() 实质上是调用Version::RecordReadSample()调用统计样本
void DBImpl::RecordReadSample(Slice key) {
  MutexLock l(&mutex_);
  if (versions_->current()->RecordReadSample(key)) {
    MaybeScheduleCompaction();
  }
}

// 真正干活的地方
bool Version::RecordReadSample(Slice internal_key) {
  ParsedInternalKey ikey;
  if (!ParseInternalKey(internal_key, &ikey)) {
    return false;
  }

  struct State {
    GetStats stats;  // Holds first matching file
    int matches;

    static bool Match(void* arg, int level, FileMetaData* f) {
      State* state = reinterpret_cast<State*>(arg);
      state->matches++;
      if (state->matches == 1) {
        // 当一个key存在多个版本时,最先读到的也最老的版本
        // Remember first match.
        state->stats.seek_file = f;
        state->stats.seek_file_level = level;
      }
      // We can stop iterating once we have a second match.
      return state->matches < 2;
    }
  };

  State state;
  state.matches = 0;
  ForEachOverlapping(ikey.user_key, internal_key, &state, &State::Match);

  // Must have at least two matches since we want to merge across
  // files. But what if we have a single file that contains many
  // overwrites and deletions?  Should we have another mechanism for
  // finding such files?
  if (state.matches >= 2) {  // key存在多个版本
    // 1MB cost is about 1 seek (see comment in Builder::Apply).
    return UpdateStats(state.stats);  // 更新Compaction统计,认为key的第一个(最老)版本所在的文件未命中
  }
  return false;
}

选择Layer和Table的过程头绪比较多,具体实施Compaction的过程相对比较好理解,用下面这张图表述Compaction的整个过程:


leveldb_compaction
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,869评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,716评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,223评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,047评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,089评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,839评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,516评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,410评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,920评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,052评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,179评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,868评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,522评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,070评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,186评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,487评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,162评论 2 356

推荐阅读更多精彩内容