Elasticsearch之Analyze

Posted fat-girl-spring

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Elasticsearch之Analyze相关的知识,希望对你有一定的参考价值。

1、analyzer的组成

CharacterFilters:针对原始文本进行处理例如去掉html

Tokenizer:按照规则切分单词

Token Filter:将切分好的单词进行二次加工

2、分词器

standard 默认分词器,按词切分,小写处理

stop  小写处理,停用词过滤(a,the,is)

simple  按照非字母切分(符号被过滤),小写处理

whitespace  按照空格切分,不转小写

keyword  不分词,直接输入当做输出

pattern  正则表达式,默认W+(非字符分割)

language 提供了30多种常见的语言分词器

customer  自定义分词器

3、使用_analyzer API

指定analyzer进行测试

技术图片

返回结果字段含义:
token是一个实际被存储在索引中的词
position指明词在原文本中是第几个出现的
start_offset和end_offset表示词在原文本中占据的位置。

4、中文分词(ik+pingyin)

ik+pinyin插件的安装

https://github.com/medcl/elasticsearch-analysis-pinyin/releases

https://github.com/medcl/elasticsearch-analysis-ik/releases

将下载的安装包分别放在此路径下对应的目录中

技术图片

 选择对应的版本,保持与ES版本一致

以上是关于Elasticsearch之Analyze的主要内容,如果未能解决你的问题,请参考以下文章

elasticsearch入门到放弃之elasticsearch-head

ElasticSearch系列之什么是ElasticSearch?

运维实操——日志分析系统ELK(上)之elasticsearch

日志分析系统ELK之Elasticsearch

日志分析系统ELK之Elasticsearch

elasticsearch之python操作(非原生)