5.4-分片及其生命周期

分⽚的内部原理

  • 什么是 ES 的分⽚

    • ES 中最⼩的⼯作单元 / 是⼀个 Lucene 的 Index
  • ⼀些问题:

    • 为什么 ES 的搜索是近实时的(1 秒后被搜到)

    • ES 如何保证在断电时数据也不会丢失

    • 为什么删除⽂档,并不会⽴刻释放空间

倒排索引不可变性

  • 倒排索引采⽤ Immutable Design,⼀旦⽣成,不可更改

  • 不可变性,带来了的好处如下:

    • ⽆需考虑并发写⽂件的问题,避免了锁机制带来的性能问题

    • ⼀旦读⼊内核的⽂件系统缓存,便留在哪⾥。只要⽂件系统存有⾜够的空间,⼤部分请求就会直接请求内 存,不会命中磁盘,提升了很⼤的性能

    • 缓存容易⽣成和维护 / 数据可以被压缩

  • 不可变更性,带来了的挑战:如果需要让⼀个新的⽂档可以被搜索,需要重建整个索引。

Lucene Index

image.png
  • 在 Lucene 中,单个倒排索引⽂件被称为 Segment。Segment 是⾃包含的,不可变更的。 多个 Segments 汇总在⼀起,称为 Lucene 的 Index,其对应的就是 ES 中的 Shard

  • 当有新⽂档写⼊时,会⽣成新 Segment,查询 时会同时查询所有 Segments,并且对结果汇 总。Lucene 中有⼀个⽂件,⽤来记录所有 Segments 信息,叫做 Commit Point

  • 删除的⽂档信息,保存在“.del”⽂件中

什么是 Refresh

image.png
  • 将 Index buffer 写⼊ Segment 的过程叫 Refresh。Refresh 不执⾏ fsync 操作

  • Refresh 频率:默认 1 秒发⽣⼀次,可通过 index.refresh_interval 配置。Refresh 后, 数据就可以被搜索到了。这也是为什么 Elasticsearch 被称为近实时搜索

  • 如果系统有⼤量的数据写⼊,那就会产⽣很 多的 Segment

  • Index Buffer 被占满时,会触发 Refresh,默 认值是 JVM 的 10%

什么是 Transaction Log

image.png
  • Segment 写⼊磁盘的过程相对耗时,借助 ⽂件系统缓存,Refresh 时,先将 Segment 写⼊缓存以开放查询

  • 为了保证数据不会丢失。所以在 Index ⽂ 档时,同时写 Transaction Log,⾼版本 开始,Transaction Log 默认落盘。每个 分⽚有⼀个 Transaction Log

  • 在 ES Refresh 时,Index Buffer 被清空, Transaction log 不会清空

什么是 Flush

image.png
  • ES Flush & Lucene Commit

    • 调⽤ Refresh,Index Buffer 清空并 且 Refresh

    • 调⽤ fsync,将缓存中的 Segments 写⼊磁盘

    • 清空(删除)Transaction Log

    • 默认 30 分钟调⽤⼀次

    • Transaction Log 满 (默认 512 MB)

Merge

  • Segment 很多,需要被定期被合并

    • 减少 Segments / 删除已经删除的⽂档
  • ES 和 Lucene 会⾃动进⾏ Merge 操作

    • POST my_index/_forcemerge

本节知识点回顾

  • Shard 和 Lucene Index

    • Index Buffer / Segment / Transaction Log
  • Refresh & Flush

  • Merge

生命周期

1)客户端发起数据写入请求,对你写的这条数据根据_routing规则选择发给哪个Shard。

  • 确认Index Request中是否设置了使用哪个Filed的值作为路由参数,

  • 如果没有设置,则使用Mapping中的配置,

  • 如果mapping中也没有配置,则使用_id作为路由参数,然后通过_routing的Hash值选择出Shard,最后从集群的Meta中找出出该Shard的Primary节点。

2)写入请求到达Shard后,先把数据写入到内存(buffer)中,同时会写入一条日志到translog日志文件中去。

  • 当写入请求到shard后,首先是写Lucene,其实就是创建索引。

  • 索引创建好后并不是马上生成segment,这个时候索引数据还在缓存中,这里的缓存是lucene的缓存,并非Elasticsearch缓存,lucene缓存中的数据是不可被查询的。

3)执行refresh操作:从内存buffer中将数据写入os cache(操作系统的内存),产生一个segment file文件,buffer清空。

  • 写入os cache的同时,建立倒排索引,这时数据就可以供客户端进行访问了。

  • 默认是每隔1秒refresh一次的,所以es是准实时的,因为写入的数据1秒之后才能被看到。

  • buffer内存占满的时候也会执行refresh操作,buffer默认值是JVM内存的10%。

  • 通过es的restful api或者java api,手动执行一次refresh操作,就是手动将buffer中的数据刷入os cache中,让数据立马就可以被搜索到。

  • 若要优化索引速度, 而不注重实时性, 可以降低刷新频率。

4)translog会每隔5秒或者在一个变更请求完成之后,将translog从缓存刷入磁盘。

  • translog是存储在os cache中,每个分片有一个,如果节点宕机会有5秒数据丢失,但是性能比较好,最多丢5秒的数据。。

  • 可以将translog设置成每次写操作必须是直接fsync到磁盘,但是性能会差很多。

  • 可以通过配置增加transLog刷磁盘的频率来增加数据可靠性,最小可配置100ms,但不建议这么做,因为这会对性能有非常大的影响。

5)每30分钟或者当tanslog的大小达到512M时候,就会执行commit操作(flush操作),将os cache中所有的数据全以segment file的形式,持久到磁盘上去。

  • 第一步,就是将buffer中现有数据refresh到os cache中去。

  • 清空buffer 然后强行将os cache中所有的数据全都一个一个的通过segmentfile的形式,持久到磁盘上去。

  • 将commit point这个文件更新到磁盘中,每个Shard都有一个提交点(commit point), 其中保存了当前Shard成功写入磁盘的所有segment。

  • 把translog文件删掉清空,再开一个空的translog文件。

  • flush参数设置:

    • index.translog.flush_threshold_period:

    • index.translog.flush_threshold_size:

    • 控制每收到多少条数据后flush一次

    • index.translog.flush_threshold_ops:

6)Segment的merge操作:

  • 随着时间,磁盘上的segment越来越多,需要定期进行合并。

  • Es和Lucene 会自动进行merge操作,合并segment和删除已经删除的文档。

  • 我们可以手动进行merge:POST index/_forcemerge。一般不需要,这是一个比较消耗资源的操作。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容