Elastic日报第3期

[TOC]

地址:https://elasticsearch.cn/article/203

Elasticsearch 6.0 将严格校验 Content-Type

地址:https://www.elastic.co/blog/strict-content-type-checking-for-elasticsearch-rest-requests

大家知道 Elasticsearch 是 HTTP+Restfu 风格的,在 5.x 及以前的版本,Content-Type 一直是松散不校验的,从而存在跨站脚本攻击的可能,所以从 6.0 开始,所有带请求体的 HTTP 请求都需要带上正确的 Content-type 才能正常执行

Elasticsearch: How to avoid index throttling, deep dive in segments merging

地址:https://www.outcoldman.com/en/archive/2017/07/13/elasticsearch-explaining-merge-settings/

max_merged_segment的默认大小为5GB,这意味着,更多的分片可以容纳更多的数据,max_merged_segment默认5gb的默认值会使多个段合并成一个索引,这会使搜索速度变慢。

实现步骤

  1. 获取一系列按照大小倒序排列好的段(segments);
Collections.sort(infosSorted, new SegmentByteSizeDescending(writer));
  1. 计算索引总大小totIndexBytes以及最小的段的大小minSegmentBytes
long totIndexBytes = 0;
long minSegmentBytes = Long.MAX_VALUE;
for(SegmentCommitInfo info : infosSorted) {
  final long segBytes = size(info, writer);
  // ... skipped ... //

  minSegmentBytes = Math.min(segBytes, minSegmentBytes);
  // Accum total byte size
  totIndexBytes += segBytes;
}
  1. 排除大小大于max_merged_segment/2.0的段;
int tooBigCount = 0;
while (tooBigCount < infosSorted.size()) {
  long segBytes = size(infosSorted.get(tooBigCount), writer);
  if (segBytes < maxMergedSegmentBytes/2.0) {
    break;
  }
  totIndexBytes -= segBytes;
  tooBigCount++;
}
  1. 如果最小的段的大小小于2m(floor_segment),则将其大小设置为2m;
  2. 计算allowedSegCount
minSegmentBytes = floorSize(minSegmentBytes);

long levelSize = minSegmentBytes;
long bytesLeft = totIndexBytes;
double allowedSegCount = 0;
while(true) {
  final double segCountLevel = bytesLeft / (double) levelSize;
  if (segCountLevel < segsPerTier) {
    allowedSegCount += Math.ceil(segCountLevel);
    break;
  }
  allowedSegCount += segsPerTier;
  bytesLeft -= segsPerTier * levelSize;
  levelSize *= maxMergeAtOnce;
}
int allowedSegCountInt = (int) allowedSegCount;

合并策略

  1. 从已排好序的段开始,跳过段大小大于max_merged_segment/2的段,按照大小从大到小进行合并;
  2. 合并时,最多合并的段的个数不超过max_merge_at_once,默认为10;
  3. 合并时,合并的结果的大小不超过max_merged_segment,默认为5g
  4. 如果剩下的段的个数依旧大于allowedSegCountInt,则继续从大到小进行合并。
    段合并示例图

其他要点

  1. 改变floor_segment或者调用refresh会造成minSegmentBytes的值非常大,以至于allowedSegCountInt的值则变得很小,使得段合并操作比较频繁;
  2. 改变segments_per_tier的值可以调整段合并的频率;
  3. max_merge_at_oncesegments_per_tier大小均为10。
  4. 段合并会自动跳过max_merged_segment/2的段,即便该段中文档删除比已经超过了expunge_deletes_allowed(默认为10%)。如果你有很多这样的段,且这些段的空间不能被回收,你可以使用强制合并或者更改配置。
  5. 对于小于max_merged_segment/2的段,如果文档删除比例大于expunge_deletes_allowed,那么这些文档可以被删除,如果没有其他合并的段被发现;
  6. 如果一个段的大小恰好为max_merged_segment/2.0 - 1byte,那这个段则不会被合并;
  7. 常规重建索引对提高搜索速度有一定帮助;
  8. max_merge_count = index.merge.scheduler.max_thread_count(**Math.min(4, numberOfProcessors / 2)**) + 5
  9. 推荐将max_merge_count设置为一个较大的值,可以避免
curl -XPUT http://localhost:9200/*/_settings -d'{
  "index.merge.scheduler.max_merge_count": 100
}'

其他摘录

来源:http://blog.csdn.net/jingkyks/article/details/41810609

  1. ES在发现merge操作落后与index的摄入量的时候,日志中会出现以"now throttling indexing"开头的INFO日志;
  2. ES的默认设置对此是有考虑的:不想让search的性能受到merge的影响,但是在一些情况下(比如ssd,或者index-heavy),限制设置的上限确实有些低。默认是20mb/s,对于splnning disk而言,这个默认值非常合理。如果是ssd disk,可以考虑增加到100-200mb/s,对应设置项为indices.store.throttle.max_bytes_per_sec:"100mb",逐个测试哪一个具体的数值更合适一些。
  3. 如果是在做buck操作而无需考虑search性能的情况狂下,你当然想要让index的性能达到disk的极限了,因此设置indices.store.throttle.type:"none",完全禁止merge。当index结束后,重新开启即可。
  4. 如果是在使用spinning disk而非ssd,在elasticsearch.yml中增加以下设置:index.merge.scheduler.max_thread_count:1。Spinning disk在处理并发io的时候较慢,因此需要减少访问disk的并发线程数。上述设置将会允许3个thread。如果是ssd的话,可以忽略,默认的设置工作的就很好,Math.min(3,Runtime.getRuntime().availableProcessors()/2)。
  5. 调整index.translog.flush_threshold_size,默认200mb,比如增加到1gb。这样会使得大的segment在flush之前先在内存中聚合。通过生成更大的segment,减少flush的频率,同时较少了merge的频率。以上所有的措施都在致力于较少disk io,以提升index性能

Making your search not suck with Elasticsearch

适合初学者看的入门文章

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,509评论 6 504
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,806评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,875评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,441评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,488评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,365评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,190评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,062评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,500评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,706评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,834评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,559评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,167评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,779评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,912评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,958评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,779评论 2 354

推荐阅读更多精彩内容