中文词频统计

Posted FF

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了中文词频统计相关的知识,希望对你有一定的参考价值。

import jieba

f=open(\'novel.txt\',\'r\',encoding=\'utf-8\')
content=f.read()
f.close()

symbol=\'\'\'。,“”!?\\n();\'\'\'
for i in symbol:
    content=content.replace(i,\' \')

# 使用jieba进行中文分词
contentList=list(jieba.cut(content))

# 生成词频统计
contentDict={}
for i in contentList:
    contentDict[i]=contentList.count(i)

# 排除语法型词汇,代词、冠词、连词
exclude={\' \',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',
         \'\',\'\',\'\',\'\'}
for i in exclude:
    del contentDict[i]

# 排序
contentDict=sorted(contentDict.items(),key=lambda e:e[1],reverse=True)

# 输出词频最大TOP20
for i in range(20):
    print(contentDict[i])

运行结果:

 

以上是关于中文词频统计的主要内容,如果未能解决你的问题,请参考以下文章

Spark编程实战-词频统计

Spark编程实战-词频统计

中文词频统计

中文词频统计

中文词频统计

Python 分词后词频统计