(2020.6.13)文本生成初探

Posted sqlkrad

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了(2020.6.13)文本生成初探相关的知识,希望对你有一定的参考价值。

今天从ACL2020抓下来一堆跟Generation相关的论文,读了一天只读完了3篇,而且读得还不是很透彻,看来读论文的功力需要提升啊。

 

第一篇:One Size Does Not Fit All: Generating and Evaluating Variable Number of Keyphrases

主框架:seq2seq做生成,加入了attention和copy机制。

数据集构建:把关键词用<sep>拼接作为训练文本。这里有个问题,就是关键词拼接的顺序如何确定?

创新点:加入了重构的损失函数,让生成的关键词尽量还原文本语义,保证生成关键词的多样性;构建了一个新的评价指标,适用于不同样本关键词数量不同的情景。

TODO:研究代码,学习实现方法。

 

第二篇:BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension

主要想法:不同于BERT直接预测mask以后的token,BART是用的seq2seq做的重构。其实两者的encoder是一样的,只不过BERT的decoder是一个MLP,而BART的decoder是一个auto-regression的decoder。

数据集构建:尝试了很多种任务,包括token mask、span mask、fooling mask等等。

TODO:试着用transformers加载一下,试试效果怎么样。

 

第三篇:Distilling Knowledge Learned in BERT for Text Generation

主要想法:用BERT当teacher模型,辅助seq2seq做文本生成。感觉确实很有道理,BERT虽然做auto-regression的生成不行,但是当老师还是不错的。

TODO:研究一下知识蒸馏的实现方法和损失函数之类的。

以上是关于(2020.6.13)文本生成初探的主要内容,如果未能解决你的问题,请参考以下文章

论文泛读138BARTScore:将生成的文本评估为文本生成

百度文本编辑器Ueditor如何生成网页

怎么把这个RNN文本分类代码改成文本生成?

初探富文本之编辑器引擎

用R进行文本分析初探——以《红楼梦》为例

文本生成论文集