中文分词性能对比

Posted 思知机器人

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了中文分词性能对比相关的知识,希望对你有一定的参考价值。

中文分词性能对比

以下分词工具均能在Python环境中直接调用(排名不分先后)。

  • jieba(结巴分词) 免费使用

  • HanLP(汉语言处理包) 免费使用

  • SnowNLP(中文的类库) 免费使用

  • FoolNLTK(中文处理工具包) 免费使用

  • Jiagu(甲骨NLP) 免费使用

  • pyltp(哈工大语言云) 商用需要付费

  • THULAC(清华中文词法分析工具包) 商用需要付费

  • NLPIR(汉语分词系统) 付费使用

分词工具使用方式见Tutorial。每个分词工具可能有多种分词模式,本文所对比的为默认分词模式。


计算公式:

使用方式:

pip install jieba
pip install pyhanlp
pip install snownlp
pip install foolnltk
pip3 install jiagu
pip install pyltp      # 需要下载模型,模型地址见上诉Tutorial教程,模型所放的路径与Tutorial同pip install thulac
pip install pynlpir    # 安装好后需要使用证书,见上诉Tutorial教程git clone https://github.com/ownthink/evaluation.gitcd evaluation
python3 test.py   # 测试工具是否能够使用python3 eval.py  # 测试(时间较长)

测试集:

  • msr

  • pku

  • other

  1. msr测试结果

中文分词性能对比

  1. pku测试结果

中文分词性能对比

  1. other测试结果

  1. 时间测试结果


以上是关于中文分词性能对比的主要内容,如果未能解决你的问题,请参考以下文章

11大Java开源中文分词器的使用方法和分词效果对比

干货 | 史上最全中文分词工具整理

NLP三种中文分词工具的对比使用

ElasticSearch 中文分词器对比

jieba分词的功能和性能分析

为Elasticsearch添加中文分词,对比分词器效果