中文词频统计

Posted dream higher

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了中文词频统计相关的知识,希望对你有一定的参考价值。

中文分词

  1. 下载一中文长篇小说,并转换成UTF-8编码。
  2. 使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
  3. 排除一些无意义词、合并同一词。
  4. 对词频统计结果做简单的解读。
import jieba     #导入jieba库
txt=open(\'weicheng.txt\',\'r\',encoding=\'utf-8\').read()#读文件,把文件改为utf-8编码
words=list(jieba.cut(txt))  #对中文小说进行词语切分

exp={\',\',\'\',\'\',\'\'}
keys=set(words)-exp      #排除一些无意义的标点符号,合并同一词

dic={}
for k in keys:
    if len(k)>1:                      #去除无意义词
        dic[k]=words.count(k)         #统计词数

wc=list(dic.items())
wc.sort(key=lambda x:x[1],reverse=True)  #对词进行排序

for i in range(20):
    print(wc[i])       #输出前20出现次数最多的词

 

这是围城第九章时,鸿渐和柔嘉结婚之后的一些矛盾,还有和方老太太之间的一些矛盾和讨论。

以上是关于中文词频统计的主要内容,如果未能解决你的问题,请参考以下文章

Spark编程实战-词频统计

Spark编程实战-词频统计

中文词频统计

中文词频统计

中文词频统计

Python 分词后词频统计