中文词频统计

Posted Jay

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了中文词频统计相关的知识,希望对你有一定的参考价值。

中文分词

  1. 下载一中文长篇小说,并转换成UTF-8编码。
  2. 使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
  3. 排除一些无意义词、合并同一词。
  4. 对词频统计结果做简单的解读。
  5. import jieba
    
    #读入待分析的字符串
    fo=open(\'test.txt\',\'r\',encoding=\'utf-8\')
    news=fo.read()
    fo.close()
    
    
    #分解提取单词 
    for i in \'\'\',。?!、:“”‘’"\'-\\n\\u3000\'\'\':
        news=str.replace(i,\'\')
    words=list(jieba.cut(news))
    
    #排除语法型词汇
    dic={}
    exp=set([\'\',\'\',\'\',\'\',\'\',\'电讯\',\'新华社\',\'这里\'])
    keys=set(words)-exp 
    
    #创建计数字典
    for i in keys:
        if(len(i)>1):
            dic[i]=words.count(i)    
    items=list(dic.items()) 
    
    #排序
    items.sort(key=lambda x:x[1],reverse=True)
    
    #输出TOP(20)
    print(\'输出TOP20:\')
    for i in range(20):
        print(items[i])

  6.   这则新闻主要讲的是再新时期中国应创造更多具有时代精神的,反应广大人民生活的优秀作品。

以上是关于中文词频统计的主要内容,如果未能解决你的问题,请参考以下文章

Spark编程实战-词频统计

Spark编程实战-词频统计

中文词频统计

中文词频统计

中文词频统计

Python 分词后词频统计