中文词频统计

Posted After17

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了中文词频统计相关的知识,希望对你有一定的参考价值。

下载一长篇中文文章。

从文件读取待分析文本。

news = open(\'gzccnews.txt\',\'r\',encoding = \'utf-8\')

安装与使用jieba进行中文分词。

pip install jieba

import jieba

list(jieba.lcut(news))

生成词频统计

排序

排除语法型词汇,代词、冠词、连词

输出词频最大TOP20

 

将代码与运行结果截图发布在博客上。

import jieba
text = open(\'jinpingmei.txt\',encoding=\'utf-8\').read()
textList = list(jieba.lcut(text))
useless = {\'\',\'\',\' \',\'\',\'\',\'\',\'\',\'\',\'\\n\',\'\',\'\',\'\',\'\',\'\',\'\',\\
           \'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\',\'\', \\
           \'\',\'\',\'\',\'\',\'\',\'便\',\'\',\'说道\',\'\',\'\',\'\',\'\',\'\',\'\',\'那里\',\\
           \'\',\'一个\',}

textDic = {}
for i in textList:
    textDic[i] = textDic.get(i,0)+1
    
for d in useless:
    del textDic[d]
    
textLs = list(textDic.items())
textLs.sort(key=lambda e:e[1],reverse=True)
for s in range(20):
    print(textLs[s])

 

以上是关于中文词频统计的主要内容,如果未能解决你的问题,请参考以下文章

Spark编程实战-词频统计

Spark编程实战-词频统计

中文词频统计

中文词频统计

中文词频统计

Python 分词后词频统计