论文泛读78建立新闻领域的问答系统

Posted 及时行樂_

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文泛读78建立新闻领域的问答系统相关的知识,希望对你有一定的参考价值。

贴一下汇总贴:论文阅读记录

论文链接:《Building a Question and Answer System for News Domain》

一、摘要

该项目试图在新闻领域中构建一个问答系统,其中“段落”将是新闻文章,任何人都可以对它提问。我们使用注意力机制建立了一个基于跨度的模型,其中该模型预测有关段落中起始标记和结束标记的位置的问题的答案。为了训练我们的模型,我们使用了斯坦福问答(SQuAD 2.0)数据集[1]。为了在SQuAD 2.0上表现出色,系统不仅必须在可能的情况下回答问题,而且还必须确定该段落何时不支持任何答案并放弃回答。我们的模型架构包括三层-嵌入层,RNN层和关注层。对于嵌入层,我们使用了GloVe和通用句子编码器。对于RNN层,我们构建了包括Bi-LSTM和Stacked LSTM在内的RNN层的各种变体,并且使用上下文来询问注意力来构建注意力层,并且还在创新的双向注意力层上进行了即兴创作。我们使用GloVe嵌入结合Bi-LSTM和上下文到问题注意的最佳性能模型分别获得了F1得分和EM,分别为33.095和33.094。我们还利用转移学习,并使用BERT建立了基于Transformer的模型。基于BERT的模型的F1得分和EM分别为57.513和49.769。我们得出的结论是,BERT模型在回答各种类型的问题的各个方面都具有优势。我们使用GloVe嵌入结合Bi-LSTM和上下文到问题注意的最佳性能模型分别获得了F1得分和EM,分别为33.095和33.094。我们还利用转移学习,并使用BERT建立了基于Transformer的模型。基于BERT的模型的F1得分和EM分别为57.513和49.769。我们得出的结论是,BERT模型在回答各种类型的问题的各个方面都具有优势。我们使用GloVe嵌入结合Bi-LSTM和上下文到问题注意的最佳性能模型分别获得了F1得分和EM,分别为33.095和33.094。我们还利用转移学习,并使用BERT建立了基于Transformer的模型。基于BERT的模型的F1得分和EM分别为57.513和49.769。我们得出的结论是,BERT模型在回答各种类型的问题的各个方面都具有优势。

二、结论

我们的模型的主要局限性是它只针对“提取答案”,即答案总是一段文字中的连续跨度。我们的解决方案没有解决“抽象答案”的问题,即答案必须基于多个信息源来推断。我们的解决方案注重简单的推理技巧,如在查询和上下文之间定位、匹配或对齐信息。许多现实生活中的情况需要从多个文档中提取一个问题的答案,然后进行总结。

为了增强我们的解决方案,应该:

  • 增强训练数据的大小
  • 增加训练数据的种类例如:“完形填空式问题”,其中答案是对序列中缺失单词的预测;“叙述性问答”,其中需要高级抽象或推理来回答问题;“选择题”
  • 使用其他变压器和SOTA模型进行语言建模任务。

三、model

模型架构在摘要中说的很是清楚了,模型架构包括三层-嵌入层,RNN层和关注层。对于嵌入层,使用了GloVe和通用句子编码器。对于RNN层,构建了包括Bi-LSTM和Stacked LSTM在内的RNN层的各种变体,并且使用上下文来询问注意力来构建注意力层,并且还在创新的双向注意力层上进行了即兴创作。使用GloVe嵌入结合Bi-LSTM和上下文到问题注意的最佳性能模型分别获得了F1得分和EM,分别为33.095和33.094。还利用转移学习,并使用BERT建立了基于Transformer的模型。

以上是关于论文泛读78建立新闻领域的问答系统的主要内容,如果未能解决你的问题,请参考以下文章

论文泛读190基于子图搜索的在线问答系统

论文泛读190基于子图搜索的在线问答系统

论文泛读108一种基于强化学习的粗到细问答系统

论文泛读63弱监督的开放域问答中的潜在检索(ORQA-开放检索问答)

论文泛读63弱监督的开放域问答中的潜在检索(ORQA-开放检索问答)

论文泛读92地理问答:挑战,独特性,分类和未来方向