通过R语言统计考研英语单词出现频率

Posted alldata

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了通过R语言统计考研英语单词出现频率相关的知识,希望对你有一定的参考价值。

通过R语言统计考研英语(二)单词出现频率

大家对英语考试并不陌生,首先是背单词,就是所谓的高频词汇。厚厚的一本单词,真的看的头大。最近结合自己刚学的R语言,为年底的考研做准备,想统计一下最近考研英语(二)真正单词出现的频率次数。

整体思路:

收集数据-->整理数据-->统计分析-->输出结果

使用工具:

`Rstudio,文本编辑器,CSV`

涉及到的包: "jiebaR"(中文分词引擎),“plyr",

第一步收集数据:

从网络搜索2013-2018考研英语二真题,存成txt格式。

技术分享图片

第二步整理数据

针对每个文件进行简单整理,去除不必要的文字。 例如:”2017年全国硕士研究生入学统一考试英语“、”答案 “,或者乱码之类。手工完成。

第三步:统计分析

3.1 打开R语言,安装所需要的包

    install.packages("jiebaRD") #安装jiebaR之前先按照"jiebaRD"
    install.packages("jiebaR")
    install.packages("plyr")
  -- 加载包--
    library(jiebaRD)
    library(jiebaR)
    library(plyr)
    search() #查看已经按照的包

 

search() [1] ".GlobalEnv" "package:xlsx" 
[3] "package:xlsxjars" "package:rJava" 
[5] "package:wordcloud" "package:RColorBrewer" [7] "package:plyr" "package:jiebaR" 
[9] "package:jiebaRD" "tools:rstudio" 
[11] "package:stats" "package:graphics" 
[13] "package:grDevices" "package:utils" 
[15] "package:datasets" "package:methods" 
[17] "Autoloads" "package:base"

3.2加载文件,分析

setwd("d:/R") #设置文件所在根目录
--加载文件
test_file_2018 <- readLines("2018.txt",encoding = "UTF-8") #读取文件,编码格式是"UTF-8"
test_file_2017 <- readLines("2017.txt",encoding = "UTF-8")
test_file_2016 <- readLines("2016.txt",encoding = "UTF-8")
test_file_2015 <- readLines("2015.txt",encoding = "UTF-8")
test_file_2014 <- readLines("2014.txt",encoding = "UTF-8")
test_file_2013 <- readLines("2013.txt",encoding = "UTF-8")

--合并文件 用c() 把多个元素组成一个向量。
test_file <- c(test_file_2018,test_file_2017,test_file_2016,test_file_2015,test_file_2014,test_file_2013)
test_file <-tolower(test_file) #把所有的字符转为小写    
cutter=worker() #设置分词引擎
segWords <- segment(test_file,cutter)  #对文本进行分词处理
--设置停顿词这里其实就是过滤词,一行一个单词,有些自认为很简单的词,比如:选项里 a,b,c,d,the,and,an 等等,或者先过滤这一步,等到统计频率出来,在根据需求一一添加即可。在相同的目录建一个文件"stopword.txt"   

f <- readLines("stopword.txt")
stopwords <- c(NULL)
for (i in 1:length(f))
{
  stopwords[i]<- f[i]
}

segWords<- filter_segment(segWords,stopwords) #过滤单词,filter_segment(源文本,过滤的词)

segWords<-gsub("[0-9[:punct:]]+?","",segWords) #去除数字  0-9 表示数字,[:punct:]表示特殊字符 “! " # $ % & ‘ ( ) * + , - . / : ; < = > ? @ [  ] ^ _ ` { | } ~”


tableWord <- count(segWords) #统计词频
view(tableWord)

 

停顿词示例stopword.txt:

技术分享图片

第四步、输出结果

write.csv(tableWord,"tableWord.csv",fileEncoding = "UTF-8")#处出结果存为tableWord.csv 文件。 

技术分享图片

参考来源:https://blog.csdn.net/zx403413599/article/details/46730801

 





以上是关于通过R语言统计考研英语单词出现频率的主要内容,如果未能解决你的问题,请参考以下文章

单词统计

单词统计

python 关于词频统计的程序 打印出的高频率单词把他们用便利贴记下来帮助自己学英语(统计小说,或者爬虫采集英文小说)

统计一篇英文文章内每个单词出现频率,并返回出现频率最高的前10个单词及其出现次数

统计单词出现的频率

导入文本查询字母单词个数