ElasticSearch 6.2.2 学习笔记(1):4.IK分词器插件 2019-04-05

一、elasticsearch-analysis-ik

源码地址:https://github.com/medcl/elasticsearch-analysis-ik

releases:https://github.com/medcl/elasticsearch-analysis-ik/releases

复制版本地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.2.2/elasticsearch-analysis-ik-6.2.2.zip

二、安装插件

1、第一种方式

(1)elasticsearch-plugin

./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.2.2/elasticsearch-analysis-ik-6.2.2.zip

(2)查看目录

cd plugins/analysis-ik/

2、第二种方式

(1)下载ik分词器

wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.2.2/elasticsearch-analysis-ik-6.2.2.zip

(2)解压

unzip elasticsearch-analysis-ik-6.2.2.zip

(3)将解压文件移动到plugin下

mv elasticsearch-analysis-ik-6.2.2 elasticsearch/plugin/analysis-ik/

三、重启elasticsearch

#直接启动

./elasticsearch 

#后台启动elasticsearch

./elasticsearch -d



四、测试IK分词器

GET _analyze

{

  "analyzer": "ik_max_word",

  "text": "奖学金"

}

附:

ik_max_word :会将文本做最细粒度的拆分;尽可能多的拆分出词语

ik_smart:会做最粗粒度的拆分;已被分出的词语将不会再次被其它词语占有

ik_max_word,这种分词会把词句分为最小和各种组合:

举例:我想去少年宫

分词是: 我,想,去,少,年,宫

用户查找的时候,输入任何一个包含的词句都会查找的到记录,

使用ik_smart: 会分词:想去,少年宫

用户输入 少年,会查不到记录。



五、自定义词典

https://github.com/medcl/elasticsearch-analysis-ik

config/IKAnalyzer.cfg.xml



最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容