深度学习核心技术精讲100篇(四十二)-Seq2seq框架下的文本生成
Posted 文宇肃然
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习核心技术精讲100篇(四十二)-Seq2seq框架下的文本生成相关的知识,希望对你有一定的参考价值。
前言
文本生成,旨在利用NLP技术,根据给定信息产生特定目标的文本序列,应用场景众多,并可以通过调整语料让相似的模型框架适应不同应用场景。本文重点围绕Encoder-Decoder结构,列举一些以文本摘要生成或QA系统文本生成为实验场景的技术进展。
Seq2seq框架
2014年NLP界有两份重要的成果,Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation和Sequence to Sequence Learning with Neural Networks。虽然在Decoder的输入上有差别,但结构上两者都将Encoder-Decoder结构应用在翻译场景中,并由此开始,seq2seq框架在机器翻译,对话生成等领域中占据重要位置。另外,前者首次提出GRU结构,后者采用Beam Search改善预测结果,这些都成为如今seq2seq框架的基础技术元素。
随后,Bahdanau在Neural Machine Translation by Jointly Learning to Align and Translate中提出了融合attention和seq2seq结构的NMT模型结构,至此,由Encoder-Attention-Decoder组成的seq2seq框架正式形成。
以上是关于深度学习核心技术精讲100篇(四十二)-Seq2seq框架下的文本生成的主要内容,如果未能解决你的问题,请参考以下文章
深度学习核心技术精讲100篇(四十四)-深度召回在招聘推荐中的挑战和实践
深度学习核心技术精讲100篇(四十一)-阿里飞猪个性化推荐:召回篇
深度学习核心技术精讲100篇(四十七)-做推荐系统之余,我们该思考什么?