RocksDB有一个广泛使用的功能就是当flush或compact速度小于外部数据写入速度的时候可以阻写。如果没有这个功能的话,那么当用户持续写入的数据超过磁盘所能处理的数据时,数据库就会出现以下情况:
- 空间放大,导致磁盘写满(compact来不及删除冗余数据);
- 读放大,严重降低读性能(冗余数据来不及删除导致读遍历的sst文件数量变多)。
解决上述问题的方法就是将写入速度降低到数据库可以正常处理的速度。有时候数据库会面临突发的大量写请求,或者硬件处理速度比较慢(比如机械硬盘),这时你在访问数据库时就可能出现意想不到的缓慢或查询超时。
可以通过以下方法来判断你的DB是否存在阻写问题:
- 查看LOG文件,看是否有阻写的log输出;
-
查看LOG文件的Compatction状态,如下图:
以下原因可能会导致阻写:
- memtable太多。当需要flush的memtable数量大于等于max_write_buffer_number时,会写阻塞,直到memtable flush完成。另外,如果max_write_buffer_number大于3,并且待flush的memtable大于等于max_write_buffer_number - 1时,写限速。在这种情况下,你可以在LOG文件中查看到大概如下的log:
Stopping writes because we have 5 immutable memtables (waiting for flush), max_write_buffer_number is set to 5
Stalling writes because we have 4 immutable memtables (waiting for flush), max_write_buffer_number is set to 5
- level-0层的SST文件太多。当level-0层的文件数量到达level0_slowdown_writes_trigger时,会写限速。当level-0层的文件数量到达level0_stop_writes_trigger时,会写阻塞,直到level-0层的SST文件合并到level-1层,使level-0层的文件数目减少。在这种情况下,你可以在LOG文件中查看到大概如下的log:
Stalling writes because we have 4 level-0 files
Stopping writes because we have 20 level-0 files
- 预计的compaction数据量太多。当预计的compaction数据量到达soft_pending_compaction_bytes时,会写限速。当预计的compaction数据量到达hard_pending_compaction_bytes时,会写阻塞,等待compaction。在这种情况下,你可以在LOG文件中查看到大概如下的log:
Stalling writes because of estimated pending compaction bytes 500000000
Stopping writes because of estimated pending compaction bytes 1000000000
不管什么时候触发了阻写,RocksDB都会降低写速度为delayed_write_rate,如果预计的compaction数据量还在不断的累积,那么写入速度降到比delayed_write_rate还要低。有一点值得注意,虽然写限速/阻塞配置和预计compaction数据量大小配置在每个colum family中,但阻写是针对整个数据库的,换句话说就是如果一个column family触发了阻写,那么整个数据库就会阻写。
RockDB有许多选项可以用来对阻写进行调优,这样可以满足不同的场景(有的可以接受阻写,有的则不能)。你可以将某些写设置为低优先级写,从而避免阻塞那些对延迟要求较高的写。
如果阻写是flush触发的,你可以试试以下方法:
- 增大max_background_flushes(增加flush线程)
- 增大max_write_buffer_number(增大memtable数量,应对突发的大量写)
如果阻写是由于level-0层有太多的文件或是预计compaction数据量太大,或是compaction速度赶不上写入速度。注意,可以通过降低写放大来减少compaction时需要写入的数据量,因此可以设置compaction.Option中的以下参数:
- 增大max_background_compactions(增大compact线程)
- 增大write_buffer_size(增大memtable,降低写放大)
- 增大min_write_buffer_number_to_merge(多少个memtable才会触发一次flush,比如设置成2,则有两个immutable memtables时才会flush到磁盘上。如果多个memtable被一次性merge,那么就会有更少的key写入磁盘,因为多个memtable中重复的key会被合并)