栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Elasticsearch分词器(ik)

Elasticsearch分词器(ik)

分词

就是把一段中文或者别的拆分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看作一个词,比如"小韩喜欢赚钱"会被分为“小”,“韩”,“喜”,“欢”,“赚”,“钱”,这样显然是不符合索引列表要求的,所有我们需要安装中文分词器IK来解决这个问题。

ik分词器的安装

1.下载路径:https://github.com/medcl/elasticsearch-analysis-ik

2.然后将其解压缩到D:Elasticsearchelasticsearch-7.15.2plugins中即可(最好包一个ik包)

3.然后重启观察Es。会发现加载了ik分词器。

IK提供两个分词算法

ik_smart: 最少切分

ik_max_word: 最细粒度划分

在自定义词汇时,ik是不会识别的。这时就需要将自定义的词汇添加到ik分词器字典中。

ik 分词器增加自己的配置
1.先添加自己的自定义字典,其中填写想要的词汇(不同的词汇直接回车区分)        后缀.dic文件

2.在IKAnalyzer.cfg.xml将自定义的字典声明注入

 然后重启es就会在日志中发现自定义的字典被加载。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/758192.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号