使用因为Elasticsearch中默认的标准分词器分词器对中文分词不是很友好,会将中文词语拆分成一个一个中文的汉字。
因此引入中文分词器es-ik插件:
在下载使用插件时候 一定要注意 版本对应!
github地址:
Releases · medcl/elasticsearch-analysis-ik · GitHubThe IK Analysis plugin integrates Lucene IK analyzer into elasticsearch, support customized dictionary. - Releases · medcl/elasticsearch-analysis-ikhttps://github.com/medcl/elasticsearch-analysis-ik/releases/
1.download or compile
optional 1 - download pre-build package from here: Releases · medcl/elasticsearch-analysis-ik · GitHubhttps://github.com/medcl/elasticsearch-analysis-ik/releases
create plugin folder cd your-es-root/plugins/ && mkdir ik
unzip plugin to folder your-es-root/plugins/ik
2.restart elasticsearch
Analyzer: ik_smart , ik_max_word , Tokenizer: ik_smart , ik_max_word
自定义分词词汇:在plugins里的ik目录里,config目录下的IKAnalyzer.cfg.xml
IK Analyzer 扩展配置
重启es后:



