Elasticsearch 分布式搜索引擎 -- elasticsearch-analysis-pinyin 拼音分词器的安装和介绍

Posted CodeJiao

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Elasticsearch 分布式搜索引擎 -- elasticsearch-analysis-pinyin 拼音分词器的安装和介绍相关的知识,希望对你有一定的参考价值。

1. 拼音分词器

要实现根据字母做补全,就必须对文档按照拼音分词。在GitHub上恰好有elasticsearch拼音分词插件

7.12.1 版本(因为我的es是7.12.1版本)


1.1.1 在线安装

安装步骤:

# 进入容器内部
docker exec -it es /bin/bash

# 在线下载并安装
./bin/elasticsearch-plugin  install https://github.com/medcl/elasticsearch-analysis-pinyin/releases/download/v7.12.1/elasticsearch-analysis-pinyin-7.12.1.zip

#退出
exit
#重启容器
docker restart es

说明:安装的链接怎么获得

我这里linux在下载的时候超时了,所以我选择离线安装


1.1.2 离线安装(推荐)

查看数据卷目录:

安装插件需要知道elasticsearch的plugins目录位置,而我们用了数据卷挂载,因此需要查看elasticsearch的数据卷目录,通过下面命令查看:

docker volume inspect es-plugins

显示结果:

说明plugins目录被挂载到了:/var/lib/docker/volumes/es-plugins/_data 这个目录中。

解压缩分词器安装包:

把下载好的ik分词器解压缩,重命名为ik


上传到es容器的插件数据卷中:

也就是/var/lib/docker/volumes/es-plugins/_data

重启容器:

docker restart 容器名

测试:


分词结果


  "tokens" : [
    
      "token" : "kuai",
      "start_offset" : 0,
      "end_offset" : 0,
      "type" : "word",
      "position" : 0
    ,
    
    # 这个是 kuai le shi jian 的首字母集合
      "token" : "klsj",
      "start_offset" : 0,
      "end_offset" : 0,
      "type" : "word",
      "position" : 0
    ,
    
      "token" : "le",
      "start_offset" : 0,
      "end_offset" : 0,
      "type" : "word",
      "position" : 1
    ,
    
      "token" : "shi",
      "start_offset" : 0,
      "end_offset" : 0,
      "type" : "word",
      "position" : 2
    ,
    
      "token" : "jian",
      "start_offset" : 0,
      "end_offset" : 0,
      "type" : "word",
      "position" : 3
    
  ]




以上是关于Elasticsearch 分布式搜索引擎 -- elasticsearch-analysis-pinyin 拼音分词器的安装和介绍的主要内容,如果未能解决你的问题,请参考以下文章

ElasticSearch logo 分布式搜索引擎 ElasticSearch

550Elasticsearch详细入门教程系列 -分布式全文搜索引擎 Elasticsearch 2023.03.31

十次方项目第四天(分布式搜索引擎ElasticSearch)

分布式搜索引擎ElasticSearch学习(安装)

分布式全文搜索引擎——Elasticsearch

分布式爬虫之elasticsearch基础1