Passage Re-ranking with BERT

Posted Facico

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Passage Re-ranking with BERT相关的知识,希望对你有一定的参考价值。

Passage Re-ranking with BERT

task

有一个给定的问题,要给出答案分三个阶段
1、通过一个标准的机制从语料库中见多大量可能与给定相关的文档
2、passage re-ranking:对这些文档打分并重paixu
3、分数前几的(前10、或前15等)的文档将会是这个问题答案的来源,用答案生成模型产出答案

这篇论文主要是研究第二个阶段

方法

要做的工作即是:对于一个询问 q q q,一个候选文章 d i d_i di,给出一个分数 s i s_i si

  • 询问为句子A,限制在64个token内
  • 文章为句子B,有文章截取,其长度与分隔符、询问的和最大不超过512个token

使用BERT_LARGE来做一个二分类网络,取最顶层的[CLS]作为句子的表示:来计算每个文章和询问的相关的概率,最后通关对这个概率排序来进入第三阶段

loss:

L = − ∑ j ∈ J p o s log ⁡ ( s j ) − ∑ j ∈ J n e g log ⁡ ( 1 − s j ) L=-\\sum_{j\\in J_{pos}}\\log (s_j)-\\sum_{j\\in J_{neg}}\\log (1-s_j) L=jJposlog(sj)jJneglog(1sj)

  • J p o s J_{pos} Jpos :相关的文章
  • J n e g J_{neg} Jneg :不相关的文章

实验

在这里插入图片描述效果比之前的好很多

以上是关于Passage Re-ranking with BERT的主要内容,如果未能解决你的问题,请参考以下文章

Passage Re-ranking with BERT

Passage Re-ranking with BERT

Re-ranking Person Re-identification with k-reciprocal Encoding

r-net:machine reading comprehension with self-matching networks

Dense Passage Retrieval for Open-Domain Question Answering

Dense Passage Retrieval for Open-Domain Question Answering