如何用 Python 中的 NLTK 对中文进行分析和处理

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何用 Python 中的 NLTK 对中文进行分析和处理相关的知识,希望对你有一定的参考价值。

参考技术A 一、NLTK进行分词
用到的函数:
nltk.sent_tokenize(text) #对文本按照句子进行分割
nltk.word_tokenize(sent) #对句子进行分词
二、NLTK进行词性标注
用到的函数:
nltk.pos_tag(tokens)#tokens是句子分词后的结果,同样是句子级的标注
三、NLTK进行命名实体识别(NER)
用到的函数:
nltk.ne_chunk(tags)#tags是句子词性标注后的结果,同样是句子级
上例中,有两个命名实体,一个是Xi,这个应该是PER,被错误识别为GPE了; 另一个事China,被正确识别为GPE。
四、句法分析
nltk没有好的parser,推荐使用stanfordparser
但是nltk有很好的树类,该类用list实现
可以利用stanfordparser的输出构建一棵python的句法树本回答被提问者采纳

以上是关于如何用 Python 中的 NLTK 对中文进行分析和处理的主要内容,如果未能解决你的问题,请参考以下文章

2 如何用Python进行数据计算

学习爬虫:《Python网络数据采集》中英文PDF+代码

如何为 NLTK 中的歧义句子生成多个解析树?

在 NLTK/Python 中使用电影评论语料库进行分类

如何用mybatis进行分页?

如何用ajax显示页面?