在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗

Posted Hugging Face 博客

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗相关的知识,希望对你有一定的参考价值。

1. 引言

自然语言生成 (即文本生成) 是自然语言处理 (NLP) 的核心任务之一。本文将介绍神经网络文本生成领域当前最先进的解码方法 对比搜索 (Contrastive Search)。提出该方法的论文 “A Contrastive Framework for Neural Text Generation” 最初发表于 NeurIPS 2022 ([论文][官方实现])。此后, “Contrastive Search Is What You Need For Neural Text Generation” 的作者又进一步证明了对比搜索可以用 现有的 语言模型在 16 种语言上生成可媲美人类水平的文本 ([论文][官方实现])。

[备注] 对于不熟悉文本生成的用户,请参阅 此博文 了解更多详情。


2. Hugging Face

RASATED Policy:Dialogue Transformers

最近工作中使用到rasa,其core部分有一个rasa自己提出的TED Policy框架组建,可用于进行对话决策。今天有空,就来研究下它~

论文《Dialogue Transformers》地址:https://arxiv.org/abs/1910.00486

让我们整体的看一下当 TED Policy从输入到输出进行预测时会发生什么。

在每个对话回合,TED Policy将三条信息作为输入:用户的消息、预测的先前系统动作以及作为插槽保存到助手内存中的任何值。这些中的每一个都在输入到transformer之前进行了特征化和连接。

这就是自注意力机制发挥作用的地方:transformer 在每一轮动态访问对话历史的不同部分,然后评估和重新计算前几轮的相关性。这允许 TED Policy一次考虑用户话语,但在另一轮完全忽略它,这使得transformer 成为处理对话历史的有用架构。

接下来,将dense layer应用于transformer的输出以获得用于近似文本含义的嵌入数值特征,用于对话上下文和系统动作。计算嵌入之间的差异,TED Policy最大化与目标标签的相似性并最小化与错误标签的相似性,这是一种基于Starspace算法的技术。这种比较嵌入之间相似性的过程类似于Rasa NLU pipeline中的EmbeddingIntentClassifier预测意图分类的方式。

当需要预测下一个系统动作时,所有可能的系统动作根据它们的相似度进行排序,并选择相似度最高的动作。

这个过程在每个对话回合中重复,如下所示:


效果:

在极低数据情况下,REDP 优于 TED Policy。应该注意的是,REDP 严重依赖其复制机制来预测非合作题外话后先前提出的问题。然而,TED Policy既简单又通用,在不依赖于重复问题等对话属性的情况下实现了类似的性能。此外,由于transformer架构,TED 政策训练比 REDP 更快,并且需要更少的训练周期来达到相同的精度。

以上是关于在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗的主要内容,如果未能解决你的问题,请参考以下文章

Transformers学习笔记3. HuggingFace管道函数Pipeline

RASATED Policy:Dialogue Transformers

RASATED Policy:Dialogue Transformers

ACL 2022用于多标签文本分类的对比学习增强最近邻机制

RASATED Policy:Dialogue Transformers

NLP(task1)Transformers在NLP中的兴起 + 环境配置