python进行分词及统计词频

Posted watm

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python进行分词及统计词频相关的知识,希望对你有一定的参考价值。

#!/usr/bin/python
# -*- coding: UTF-8 -*-
#分词统计词频
import jieba
import re
from collections import Counter
content=""
filename=r"../data/commentText.txt";
result = "result_com.txt"
r=‘[0-9\s+\.\!\/_,$%^*()?;;:-【】+\"\‘]+|[+——!,;:。?、 ~@#¥%……&*()]+‘
with open(filename,‘r‘,encoding=‘utf-8‘) as fr:
    print("ss")
    content=re.sub(r," ",fr.read())
    #re.sub(pattern, repl, string, count=0, flags=0)
    # pattern:表示正则表达式中的模式字符串;
    # repl:被替换的字符串(既可以是字符串,也可以是函数);
    # string:要被处理的,要被替换的字符串;
    # count:匹配的次数, 默认是全部替换
    # flags:具体用处不详
    data=jieba.cut(content,cut_all=False)

data=dict(Counter(data))#dict() 函数用于创建一个字典。Counter 是实现的 dict 的一个子类,可以用来方便地计数。
with open(result,‘w‘,encoding="utf-8")as fw:
     for k,v in data.items():
         if(len(k)>1):
            fw.write(k)
            fw.write("\t%d\n"%v)

  语言:Python3.7 包:jieba counter re

  出错内容:由于没有在写入文件中规定其编码方式,导致为16进制写入,设置编码方式即可

以上是关于python进行分词及统计词频的主要内容,如果未能解决你的问题,请参考以下文章

Python 分词后词频统计

如何用python和jieba分词,统计词频?

Python之酒店评论分词词性标注TF-IDF词频统计词云

中文词频统计及词云制作

python统计word文档中的词频

中文词频统计及词云制作