如何计算文本文件中重复单词的频率?

Posted

技术标签:

【中文标题】如何计算文本文件中重复单词的频率?【英文标题】:How to count the frequency of words repeated in a text file? 【发布时间】:2016-01-23 21:39:02 【问题描述】:

我应该使用函数。基本上,任务包括将所有单词从文本文件复制到字典并计算重复的次数。

因此,如果作为单词的键在字典中,我们计数或添加到字典计数 1

这是我尝试过的代码。但是什么都没有打印出来:

def wordCount(file1):
    file1 = open('declarationofInd.txt','r')
    mydict = 
    file1.strip()
    mydict[key] = file1
    mydict.keys()
    print mydict

【问题讨论】:

SO 不是代码编写服务。展示你的尝试。请read this 家庭作业是为了学习新的东西,所以去学习吧。显然你知道这个算法,所以问题只是用你选择的语言来实现它。 我更新了它。对吗? 您正在使用文件指针 file1。您需要 read 文件指针,例如text = file1.read()。请参阅 Python 教程中的file I/O section。 mydict[key]? key 是什么? 【参考方案1】:

我想你想计算一个单词在文本文档中出现的次数。

file=open('yourfilehere')
text=file.read().split()
mydict=
for word in text:
    if word not in mydict.keys():
        mydict[word]=1
    else:
        count=mydict[word]
        mydict[word]=count+1
print(mydict)

如果这是您打算创建的,那么这应该符合您的意图。如果您不是在 IDLE 或命令提示符下执行此操作,那么您应该调用该函数,最好是在一个新文件中。

顺便说一句,我建议你在发帖前把你的问题弄得更清楚,并多研究一下这个话题。

【讨论】:

以上是关于如何计算文本文件中重复单词的频率?的主要内容,如果未能解决你的问题,请参考以下文章

用Hash Table(哈希散列表)实现统计文本每个单词重复次数(频率)

使用 R 进行文本挖掘来计算单词的频率

C语言一个简单的问题:输入一段文本,计算其中每个单词的出现频率:下面是代码

如何从文本文件中删除重复并包含某些单词的行?

导入文本查询字母单词个数

2022-11-10:写一个 bash 脚本以统计一个文本文件 words.txt 中每个单词出现的频率。 为了简单起见,你可以假设: words.txt只包括小写字母和 ‘ ‘ 。 每个单词只由小写