ElasticSearch搜索引擎安装配置中文分词器IK插件

Posted yijialong

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ElasticSearch搜索引擎安装配置中文分词器IK插件相关的知识,希望对你有一定的参考价值。

一、IK简介

ElasticSearch(以下简称ES)默认的分词器是标准分词器Standard,如果直接使用在处理中文内容的搜索时,中文词语被分成了一个一个的汉字,因此引入中文分词器IK就能解决这个问题,同时用户可以配置自己的扩展字典、远程扩展字典等。

 

二、IK安装

1、首先前往GitHub下载安装包(注意版本与ES对应,若无对应版本,解压后修改pom.xml文件中<elasticsearch.version>,建议查看修改一下版本号),上传至/home/目录,并解压至当前目录,如下图所示:

技术分享图片     

 

1 vim /home/elasticsearch-analysis-ik-6.3.2/pom.xml

技术分享图片

 

2、然后切换至解压目录进行编译(若无安装Maven工具,首先安装Maven才能编译,具体参考Linux安装Maven):

1 [[email protected] elasticsearch-analysis-ik-6.3.2]# mvn package

编译之后,会在当前目录下的target/releases找到对应的zip包,如下图所示:

技术分享图片

 

3、然后在/usr/java/elasticsearch/elasticsearch-6.3.2/plugins/目录下创建analysis-ik,再将上述中的zip包解压至该目录,如下图所示:

1 [[email protected] elasticsearch-analysis-ik-6.3.2]# unzip /home/elasticsearch-analysis-ik-6.3.2/target/releases/elasticsearch-analysis-ik-6.3.2.zip -d /usr/java/elasticsearch/elasticsearch-6.3.2/plugins/analysis-ik/

 

技术分享图片                技术分享图片

 

4、切换至非root用户,重新启动ES即可,并且可在Head插件中查看插件信息,如下图所示:

技术分享图片

 

 

三、IK测试

IK分词器的两种分词模式:

ik_max_word: 会将文本做最细粒度的拆分,

ik_smart: 会做最粗粒度的拆分。

这里使用_analyze api对中文段落进行分词,如下图所示:

技术分享图片

 

 

 

技术分享图片

 

 

 

至此是关于介绍在Linux系统中ElasticSearch搜索引擎安装配置中文分词器IK插件,后续会介绍ElasticSearch拼音插件pinyin。

如有疏漏错误之处,还请不吝赐教!

 

以上是关于ElasticSearch搜索引擎安装配置中文分词器IK插件的主要内容,如果未能解决你的问题,请参考以下文章

Elasticsearch拼音分词和IK分词的安装及使用

ElasticSearch搜索引擎✧完结

[Spring Boot]12 ElasticSearch实现分词搜索功能

elasticsearch中文分词+全文搜索

Elasticsearch 分布式搜索引擎 -- 安装IK分词器ik分词器-拓展词库 / 停用词库

浅入深出ElasticSearch构建高性能搜索架构