PyNLPIR python中文分词工具
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyNLPIR python中文分词工具相关的知识,希望对你有一定的参考价值。
NLPIR分词系统前身为2000年发布的ICTCLAS词法分析系统,从2009年开始,为了和以前工作进行大的区隔,并推广NLPIR自然语言处理与信息检索共享平台,调整命名为NLPIR分词系统。
其主要的功能有中文分词,标注词性和获取句中的关键词。
主要用到的函数有两个: pynlpir.segment(s, pos_tagging=True, pos_names=‘parent‘, pos_english=True)
pynlpir.get_key_words(s, max_words=50, weighted=False)
分词:pynlpir.segment(s, pos_tagging=True, pos_names=‘parent‘, pos_english=True)
S: 句子
pos_tagging:是否进行词性标注
pos_names:显示词性的父类(parent)还是子类(child) 或者全部(all)
pos_english:词性显示英语还是中文
获取关键词:pynlpir.get_key_words(s, max_words=50, weighted=False)
s: 句子
max_words:最大的关键词数
weighted:是否显示关键词的权重
import pynlpir
import jieba
pynlpir.open()
s = ‘最早的几何学兴起于公元前7世纪的古埃及‘
# s = ‘hscode为0110001234的进口‘
segments = pynlpir.segment(s, pos_names=‘all‘,pos_english=False)
for segment in segments:
print (segment[0], ‘\\t‘, segment[1])
key_words = pynlpir.get_key_words(s, weighted=True)
for key_word in key_words:
print (key_word[0], ‘\\t‘, key_word[1])
pynlpir.close()
以上是关于PyNLPIR python中文分词工具的主要内容,如果未能解决你的问题,请参考以下文章