遍历大量文件时出现readLines错误。
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了遍历大量文件时出现readLines错误。相关的知识,希望对你有一定的参考价值。
我需要迭代一些文件(实际上是很多),并通过gsub修复一些问题。
library(xml2)
library(magrittr)
lapply(list.files(folder, full.names = TRUE), function(file)
tryCatch(a1 <- xml2::read_xml(file),
error = function(e)
fix_to_write <- readLines(file) %>%
gsub("&", "and", .)
writeLines(fix_to_write, file)
)
)
问题是过了一会儿,我得到了一个错误,它不能打开我的文件: 。
In readLines(file_to_open) : kann Datei 'Volumesdataweltxml_out2012-0213858485.xml' nicht öffnen: 太多打开的文件 Ausführung angehalten rm: varfolders39z521yg593sx8_thrj843qj_r0000gnT/Rtmpw4AKJr: 太多打开的文件。
我尝试了各种解决方案,如 "closeAllConnections() "或 "close(file)"。没有任何效果。有什么建议吗?我在Mac上工作...
尊敬的朋友
答案
我只是猜测,因为我自己从来没有遇到过这样的问题,但我认为这个应该可以。
lapply(list.files(folder, full.names = TRUE), function(file)
tryCatch(a1 <- xml2::read_xml(file),
error = function(e)
con <- file(description = file)
fix_to_write <- readLines(file) %>%
gsub("&", "and", .)
close(con)
writeLines(fix_to_write, file)
)
)
readLines
如果给它一个字符串,它就会打开与文件的连接。这应该在退出时关闭,但也许显式地这样做更有意义。如果这有帮助,请告诉我。
以上是关于遍历大量文件时出现readLines错误。的主要内容,如果未能解决你的问题,请参考以下文章
使用 pd.read_json 读取 JSON 文件时出现 ValueError 错误
在 Python Pandas 中使用 read_parquet 从 AWS S3 读取镶木地板文件时出现分段错误
在 read_csv 之后选择 pandas 数据框中的列时出现关键错误