深度学习核心技术精讲100篇(四十二)-Seq2seq框架下的文本生成

Posted 文宇肃然

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习核心技术精讲100篇(四十二)-Seq2seq框架下的文本生成相关的知识,希望对你有一定的参考价值。

前言

文本生成,旨在利用NLP技术,根据给定信息产生特定目标的文本序列,应用场景众多,并可以通过调整语料让相似的模型框架适应不同应用场景。本文重点围绕Encoder-Decoder结构,列举一些以文本摘要生成或QA系统文本生成为实验场景的技术进展。

Seq2seq框架

2014年NLP界有两份重要的成果,Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation和Sequence to Sequence Learning with Neural Networks。虽然在Decoder的输入上有差别,但结构上两者都将Encoder-Decoder结构应用在翻译场景中,并由此开始,seq2seq框架在机器翻译,对话生成等领域中占据重要位置。另外,前者首次提出GRU结构,后者采用Beam Search改善预测结果,这些都成为如今seq2seq框架的基础技术元素。

随后,Bahdanau在Neural Machine Translation by Jointly Learning to Align and Translate中提出了融合attention和seq2seq结构的NMT模型结构,至此,由Encoder-Attention-Decoder组成的seq2seq框架正式形成。

以上是关于深度学习核心技术精讲100篇(四十二)-Seq2seq框架下的文本生成的主要内容,如果未能解决你的问题,请参考以下文章

深度学习核心技术精讲100篇(四十九)-深度学习之关联规则

深度学习核心技术精讲100篇(四十四)-深度召回在招聘推荐中的挑战和实践

深度学习核心技术精讲100篇(四十一)-阿里飞猪个性化推荐:召回篇

深度学习核心技术精讲100篇(四十七)-做推荐系统之余,我们该思考什么?

深度学习核心技术精讲100篇(四十三)-人工智能新技术-知识普及篇:一文带你深入认识下联邦学习的前世今生

深度学习核心技术精讲100篇(四十)-微信“看一看“内容理解与推荐,背后深层次的技术知多少?