如何从单个文本文件中提取不同的文章?
Posted
技术标签:
【中文标题】如何从单个文本文件中提取不同的文章?【英文标题】:How to extract different articles from a single text file? 【发布时间】:2021-10-27 23:21:06 【问题描述】:我有一个收集报纸文章的 .rtf /.txt 文件。 The .rtf file can be found here。 And the .txt file can be found here.
我想提取文章的 (1) 日期、(2) 标题和 (3) 正文。最后,我想要一个数据框,其中每一行都是一篇文章,标题、日期和正文有三列。正如我在this screenshot 中所说的,标题是粗体的句子(这里用黄色下划线),正文是下面的几个段落(这里是蓝色方块)。
我已经设法使用正则表达式提取日期。但是,我无法提取文章的标题和正文。
是否可以使用正则表达式从这个 .rtf /.txt 中提取文章的标题和正文?
我使用了以下代码:
library(readr)
library(stringr)
htmlText <- read_file("bild_afd_all.rtf")
#replace "\n" with a space
removeNewLines <- gsub("\n"," ",htmlText)
removeNewLines
# 1. extract the DATE from removedNewLines
date <- str_extract_all(removeNewLines, "\\d1,2 [A-Z][a-z]+ \\d4")[[1]]
# 2. extract the TITLE from removedNewLines
## how?
# 3. extract the BODY from removedNewLines
## how?
这个问题与之前回答的一个问题有关:How do I extract dates from .rtf in R 在那篇文章中,正则表达式用于从 .rtf 文件中提取日期。该文件是报纸文章的集合。
提前非常感谢!
【问题讨论】:
如果你提供一个可重现的例子会更容易。 你能分享一下 rtf 文件吗? 请不要发布代码/数据/错误的图像:它会破坏屏幕阅读器并且无法复制或搜索(参考:meta.***.com/a/285557 和 xkcd.com/2116)。请直接包含代码、控制台输出或数据(例如,data.frame(...)
或来自dput(head(x))
的输出)。
请修剪您的代码,以便更容易找到您的问题。请按照以下指南创建minimal reproducible example。
我现在已经分享了 .rtf 文件 - 请查看原帖。谢谢!
【参考方案1】:
嗯,一些示例数据实际上是有用的。 但是,我建议执行以下操作:
-
加载 R 文件(我在 txt 变量中生成了一个示例替代)
删除空白行
查找字数索引
根据这些索引,画出您感兴趣的所有其余部分。
我假设结构是相同的,并且文章的文本总是从字数以下 9 行开始。
查看我的代码。
library(tidyverse)
#1
txt = c("title1", "", "12 words", "12-12-2004", "BILD", "ZBILD", "BIBU",
"2", "295", "German", "Copyright", "first bla bla bla", "bla bla bla", "bla bla bla",
"bla bla bla", "bla bla bla", "bla bla bla", "bla bla bla", "bla bla bla",
"bla bla bla", "bla bla bla", "bla bla bla", "bla bla bla", "bla bla bla",
"bla bla bla", "bla bla bla", "bla bla bla", "bla bla bla", "bla bla bla",
"bla bla bla", "last bla bla bla", "", "", "", "", "", "title2", "",
"", "12 words", "10-12-2004", "BILD", "ZBILD", "BIBU", "2", "1235",
"German", "Copyright", "first da da da", "da da da", "da da da", "da da da", "da da da",
"da da da", "da da da", "da da da", "da da da", "da da da", "da da da",
"da da da", "da da da", "last da da da", "", "", "", "title3", "",
"", "12 words", "10-12-2004", "BILD", "ZBILD", "BIBU", "2", "1235",
"German", "Copyright", "first info info", "info info", "info info", "info info", "info info",
"info info", "info info", "info info", "last info info")
#2
txt = txt[txt!=""]
#3
idx_word = which(str_detect(txt, "[0-9]+ +words$"))
fart = function(txt, idx_word)
out = rep("", length(idx_word))
for(i in 1:length(idx_word))
if(i<length(idx_word))
idx_txt=(idx_word[i]+9):(idx_word[i+1]-2)
else
idx_txt=(idx_word[i]+9):length(txt)
out[i]=paste(txt[idx_txt], collapse="\n")
out
#4
df = tibble(
title = txt[idx_word-1],
date = txt[idx_word+1],
article = fart(txt, idx_word)
)
输出
# A tibble: 3 x 3
title date article
<chr> <chr> <chr>
1 title1 12-12-2004 "first bla bla bla\nbla bla bla\nbla bla~
2 title2 10-12-2004 "first da da da\nda da da\nda da da\nda ~
3 title3 10-12-2004 "first info info\ninfo info\ninfo info\n~
请根据需要调整
这是该程序的新版本。 不幸的是,在将文本彻底清理为格式化字符串方面,您将不得不自己玩。我不知道你是否需要它。将变音符号转换为 UTF-8、换行符、新页面等也是如此。
这只是如何做到这一点的一般秘诀。正如您在下面看到的那样,它有效。您必须自己完成其余的工作。
library(fs)
library(tidyverse)
readTxt = function(FileName)
lines = character()
if(fs::file_exists(FileName))
con = file(FileName, open = "r")
on.exit(close(con))
lines = readLines(con)
lines
remove_f2_b = function(txt) txt = str_replace(txt, "\\\\f2\\\\b ", "")
remove_f1_b0 = function(txt) txt = str_replace(txt, "\\\\f1\\\\b0 ", "")
remove_f1_fs20 = function(txt) txt = str_replace(txt, "\\\\f1\\\\fs20 ", "")
remove_f0_fs24 = function(txt) txt = str_replace(txt, "\\\\f0\\\\fs24 ", "")
remove_cf0 = function(txt) txt = str_replace(txt, "\\\\cf0 ", "")
remove_format = function(txt) txt %>% remove_f2_b() %>% remove_f1_b0 %>%
remove_f1_fs20() %>% remove_f0_fs24() %>% remove_cf0
txt = suppressWarnings(readTxt("bild_afd_all.rtf")) %>% remove_format()
txt = txt[txt!=""]
txt = txt[txt!="\\"]
view(txt)
#3
idx_word = which(str_detect(txt, "\\d?\\,?\\d+ words\\\\$"))
fart = function(txt, idx_word)
out = rep("", length(idx_word))
for(i in 1:length(idx_word))
if(i<length(idx_word))
idx_txt=(idx_word[i]+9):(idx_word[i+1]-2)
else
idx_txt=(idx_word[i]+9):length(txt)
out[i]=paste(txt[idx_txt], collapse="\n")
out
#4
df = tibble(
title = txt[idx_word-1],
date = str_replace(txt[idx_word+1], "\\\\$", ""),
article = fart(txt, idx_word)
)
head(df)
输出
title date article
<chr> <chr> <chr>
1 "Exklusiv-Umfrage; SO DENKEN DIE DEUTSCHEN \\'dcER PEGIDA" 18 December 2014 "Berlin - Immer mehr Zulauf f\\'fc die sogenannt~
2 "Seite 2" 18 December 2014 "Berlin - Endlich mehr Geld im Portemonnaie: Die~
3 "Ex-Minister Friedrich greift Kanzlerin an" 29 December 2014 "Berlin - Wieder Kurs-Debatten in der Union! Ex-~
4 "Seite 4" 29 December 2014 "KOMMENTAR\\\nVon FRITZ ESSER Zusatzbeitrag, Dur~
5 "Wegen Pegida-Schelte; AUSLAND FEIERT MERKEL" 2 January 2015 "Berlin - \"Ich sage allen, die auf solche Demon~
6 "Seite 2" 2 January 2015 "Von\\\nHANNO KAUTZ u. RALF SCHULER\\\nBerlin - ~
txt 文件的版本
library(fs)
library(tidyverse)
readTxt = function(FileName)
lines = character()
if(fs::file_exists(FileName))
con = file(FileName, open = "r")
on.exit(close(con))
lines = readLines(con)
lines
txt = suppressWarnings(readTxt("bild_afd_all.txt"))
txt = txt[txt!=""]
txt = txt[txt!=" "]
view(txt)
#3
idx_word = which(str_detect(txt, "\\d?\\,?\\d+ words$"))
fart = function(txt, idx_word)
out = rep("", length(idx_word))
for(i in 1:length(idx_word))
if(i<length(idx_word))
idx_txt=(idx_word[i]+9):(idx_word[i+1]-2)
else
idx_txt=(idx_word[i]+9):length(txt)
out[i]=paste(txt[idx_txt], collapse="\n")
out
#4
df = tibble(
title = txt[idx_word-1],
date = str_replace(txt[idx_word+1], "\\\\$", ""),
article = fart(txt, idx_word)
)
head(df, 10)
输出
# A tibble: 10 x 3
title date article
<chr> <chr> <chr>
1 "Exklusiv-Umfrage; SO DENKEN DIE DEUTSCHEN ĂśER PEGIDA" 18 December 2014 "Berlin - Immer mehr Zulauf fĂĽ die sogenannten Pegida-Demonstrationen in Dresden ~
2 "Seite 2" 18 December 2014 "Berlin - Endlich mehr Geld im Portemonnaie: Die verfĂĽbaren Einkommen der deutsch~
3 "Ex-Minister Friedrich greift Kanzlerin an" 29 December 2014 "Berlin - Wieder Kurs-Debatten in der Union! Ex-Innenminister Hans-Peter Friedrich~
4 "Seite 4" 29 December 2014 "KOMMENTAR\nVon FRITZ ESSER Zusatzbeitrag, Durchschnittsbeitrag, Sonderbeitrag - M~
5 "Wegen Pegida-Schelte; AUSLAND FEIERT MERKEL" 2 January 2015 "Berlin - \"Ich sage allen, die auf solche Demonstrationen gehen: Folgen Sie denen~
6 "Seite 2" 2 January 2015 "Von\nHANNO KAUTZ u. RALF SCHULER\nBerlin - Exakt 118 Stufen sind es bis in den se~
7 "ROLF KLEINE " 3 January 2015 "Von\nROLF KLEINE\nAlle Jahre wieder ...\nDie Forderung aus der CSU, abgelehnte As~
8 " AfD -Spitze lät Pegida-Vertreter in Landtag ein" 3 January 2015 "Dresden - Es wird ein brisantes Treffen: AfDCo-Chefin Frauke Petry (39) lud Vertr~
9 "Seite 2" 3 January 2015 "Koblenz - Im Stadtrat von Koblenz kracht es krätig! Anlass ist die geplante Wied~
10 " AfD -Spitze füchtet Zerfall der Partei" 5 January 2015 "Berlin - Der Machtkampf in der AfD-Spitze wird immer häter, die Fürung hät ein~
>
【讨论】:
感谢您的回复。我现在已将 .rtf 文件附加到原始帖子中。我想你会看到,它的格式与你想象的有点不同。因此,我认为您的建议不会适用。非常感谢您查看 .rtf 文件并考虑如何执行此操作。 Fred,您会在顶部找到我的程序的修改版本。如您所见,它有效。但是,这是一个通用配方,您必须根据自己的需要进行调整。现在你必须付出一些努力。但是,我向您展示了应该遵循哪一个。 亲爱的 Marek,非常感谢!但是,使用 .txt 而不是 .rtf 文件后,我收到此错误消息:“(idx_word[i] + 9):length(txt) 中的错误:NA/NaN 参数”。我认为 .txt 文件可能更可取,因为它避免了许多奇怪的格式问题。我将在原始帖子中附加 .txt 文件。也许你可以看看那个。再次感谢您,非常感谢您的帮助! 嗨,弗雷德。作为回应,我已经包含了 txt 文件的版本。它与 rtf 版本并没有太大区别。您必须付出一些努力来构建自己的程序。 如果您对我的工作表示赞赏并接受正确的解决方案,我将不胜感激。以上是关于如何从单个文本文件中提取不同的文章?的主要内容,如果未能解决你的问题,请参考以下文章