jieba分词与worldcloud词云

Posted sksitigarbha

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了jieba分词与worldcloud词云相关的知识,希望对你有一定的参考价值。

中文分词的优秀库。

安装:pip install jieba

主要有三种模式,但是最主要有一个函数

模式:精确模式:把文本精确的切分开,不存在冗余单词

  全模式:把文本中所有可能的词语都扫描出来,有冗余

  搜索引擎模式:在精确模式上,对长词再次切分

函数:jieba.lcut(str):精确模式,返回一个列表

  jieba.lcut(str,cut_all=True):就变成全模式,存在冗余

  jieba.lcut_for_search(str):搜索引擎模式,返回列表,有冗余

  jieba.add_word(str):向分词词典增加新的分词str

 

词云优秀库。

安装:pip insatll wordcloud

wordcloud将词云视为WordCloud对象

w = wordcloud.WordCloud()代表一个文本对应的词云

  有两个可选参数,width=400,height=200,min_font_size=字体最小默认4,max_font_size=字体最大,根据高度自动调节,

  font_step=2字体间隔,font_path=‘‘字体路径,max_words=200词云数量,stop_words={‘str‘}排除词,background_color=‘white‘词云背景颜色默认黑色

w.generate(txt)  # txt是str,向w对象中加载txt文本

w.tofile(filename)  # 将词云输出为图像文件,为png/jpg文件,默认400*200像素(分隔,统计,字体,布局)

对于显示非矩形词云,需要使用mask

from scipy.misc import imread

mk = imread(‘pic.png‘)  # 形状的图片,背景白色。

w = wordcloud.WordCloud(mask=mk)

以上是关于jieba分词与worldcloud词云的主要内容,如果未能解决你的问题,请参考以下文章

jieba库的分词和词云

完整的使用jieba分词后生成词云

意境级讲解 jieba分词和词云关键词抽取:TextRankTF-IDF

jieba和词云

python爬虫——京东评论jieba分词wordcloud词云统计

jieba库使用和好玩的词云