Python利用jieba获取中文词汇等

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python利用jieba获取中文词汇等相关的知识,希望对你有一定的参考价值。

import jieba
import os
import jieba.analyse

data = cleaned_comments # 数据来源于评论数据
seg = jieba.lcut(data)
print(seg)

# 增加自定义词表库
mydict = os.getcwd()+"/mydict.txt"
jieba.load_userdict(mydict)
seg = jieba.lcut(data)
print(seg)

import jieba.posseg as pseg
posseg = pseg.lcut(data)
print(posseg)

# 抽取出现次数最多的词汇
extracttext = jieba.analyse.extract_tags(data, topK=20,withWeight=False, allowPOS=())
print(extracttext)

 

以上是关于Python利用jieba获取中文词汇等的主要内容,如果未能解决你的问题,请参考以下文章

Python文本分析(NLTK,jieba,snownlp)

用python对单一微博文档进行分词——jieba分词(加保留词和停用词)

jieba库的使用与词频统计

数据可视化 | 利用jieba进行中文分词制作词云

Python jieba库的使用

python 利用jieba库词频统计