30.IK分词器配置文件讲解以及自定义词库

Posted Outback

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了30.IK分词器配置文件讲解以及自定义词库相关的知识,希望对你有一定的参考价值。

主要知识点:

  • 知道IK默认的配置文件信息
  • 自定义词库

   

一、ik配置文件

   

ik配置文件地址:es/plugins/ik/config目录

   

IKAnalyzer.cfg.xml:用来配置自定义词库

main.dicik原生内置的中文词库,总共有27万多条,只要是这些单词,都会被分在一起

quantifier.dic:放了一些单位相关的词

suffix.dic:放了一些后缀

surname.dic:中国的姓氏

stopword.dic:英文停用词

   

ik原生最重要的两个配置文件

   

main.dic:包含了原生的中文词语,会按照这个里面的词语去分词

stopword.dic:包含了英文的停用词

   

停用词(stopword)是指如 a the 等这样的对于搜索无意义的单词,停用词,会在分词的时候,直接被排除掉,也就是说不会建立在倒排索引中

   

二、自定义词库

   

1、自己建立词库:每年都会涌现一些特殊的流行词,如网红,蓝瘦香菇,喊麦,鬼畜,一般不会在ik的原生词典里,这时就需要自己补充自己的最新的词语,到ik的词库里面去。分下面两步

  • IKAnalyzer.cfg.xml进行配制文件地址,一般不会更改,就按IKAnalyzer.cfg.xml里面的要求建立文件夹和文件就行
  • 在对应的文件中加入自已的词语,一般在custom/mydict.dic里进行增加主要词
  • 然后需要重启es,才能生效

   

2、自己建立停用词库:比如了,的,啥,么,我们可能并不想去建立索引

步骤和上面一样,只是在custom/ext_stopword.dic中进行增加。

以上是关于30.IK分词器配置文件讲解以及自定义词库的主要内容,如果未能解决你的问题,请参考以下文章

solr添加中文IK分词器,以及配置自定义词库

架构师成长记_第八周_11_ES- ik中文分词器与自定义中文词库

2022还在使用Mysql进行数据检索?ElasticSearch自定义扩展词库完成检索

ELK专栏之IK分词器和Java api操作索引--05

Elasticsearch之中文分词器插件es-ik的热更新词库

Lucene使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库