分词器是ES处理词汇的组件,英文为Analyzer,它的组成部分如下:
- Character Filter 针对原始文本进行处理,比如去除html标签
- Tokenizer 将原始文本按照一定的规则切分为单词
- Token Filter 针对Tokenizer处理的单词进行再加工,比如转小写,删除,新增(近义词,同义词)

分词器是ES处理词汇的组件,英文为Analyzer,它的组成部分如下:
- Character Filter 针对原始文本进行处理,比如去除html标签
- Tokenizer 将原始文本按照一定的规则切分为单词
- Token Filter 针对Tokenizer处理的单词进行再加工,比如转小写,删除,新增(近义词,同义词)