论文阅读 | Robust Neural Machine Translation with Doubly Adversarial Inputs

Posted shona

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文阅读 | Robust Neural Machine Translation with Doubly Adversarial Inputs相关的知识,希望对你有一定的参考价值。

 

(1)用对抗性的源实例攻击翻译模型;

(2)使用对抗性目标输入来保护翻译模型,提高其对对抗性源输入的鲁棒性。

 

生成对抗输入:基于梯度 (平均损失)  ->  AdvGen

技术图片

 

 我们的工作处理由白盒NMT模型联合生成的扰动样本  ->  知道受攻击模型的参数

ADVGEN包括encoding, decoding:

(1)通过生成对训练损失敏感的对抗性源输入来攻击NMT模型;

(2)用对抗性目标输入对NMT模型进行了防御,目的是降低相应对抗性源输入的预测误差。

 

贡献:

1. 研究了一种用于生成反例的白盒方法。我们的方法是一种基于梯度的方法,以平移损失为指导。

2. 我们提出了一种新的方法来提高具有双重对抗输入的NMT的鲁棒性编码器中的对抗性输入旨在攻击NMT模型,而解码器中的对抗性输入能够防御预测中的错误

3.我们的方法在两个常见的转换基准上实现了对以前最先进的Transformer模型的显著改进

 

包括Transformer在内的最先进的模型相比,提高了2.8和1.6的BLEU点。这个结果证实了我们的模型在干净的基准数据集上提高了泛化性能。进一步的噪声文本实验验证了该方法提高鲁棒性的能力。我们还进行消融研究,以进一步了解我们的方法的哪些部分最重要。

 

背景


解码器生成的y:

技术图片

 

 对抗样本:

技术图片

 

 

方法

ATTACK

我们的目标是学习健壮的NMT模型,可以克服输入句中的小扰动。即使是一个单词的变化也可以被感知。NMT是一个序列生成模型,其中每个输出字都有对之前所有预测的限制。因此,一个问题是如何为NMT设计有意义的操作。

 技术图片

↓ 

 

 技术图片

 

sim  相似度计算函数(向量的余弦距离);gxi 梯度;Vx源语言词典

技术图片

 

 Plm 双向语言模型;Q xi x  句子x中i-th词的似然函数;Vxi top_n  < Vx

 

技术图片

 

 

Dpos是位置1,...,|x|上的一个分布(抽取的对抗词)。

对于源函数,我们使用简单的均匀分布U。根据约束R,我们希望输出句与输入句之间不要有太大的偏离,从而只根据超参数改变其组成词的一小部分:技术图片

 

DEFENSE

技术图片

 

 z是decoder的input

 Qtrg是选择目标词候选集Vz的可能性。为了计算它,我们将NMT模型预测与语言模型相结合:

技术图片

 

 技术图片

 

 Mij 是attention的分数 目的是找最相似的词 后面那个是指示函数 不相等的时候=1

 

训练

技术图片

 

 

对x’ 和 z‘  调用ADVGEN两次。在更新参数时,我们没有将梯度反向传播到AdvGen上,只是起到了数据生成器的作用。在我们的实现中,与标准的Transformer模型相比,该函数最多产生20%的时间开销。

计算了S上的鲁棒性损失:

技术图片

 

 最后的训练目标中的L:

技术图片

 

 技术图片:源和目标双向语言模型的参数

 

 技术图片 & 技术图片 分别share word embeddings

 

 

实验

 

以上是关于论文阅读 | Robust Neural Machine Translation with Doubly Adversarial Inputs的主要内容,如果未能解决你的问题,请参考以下文章

论文阅读Whisper: Robust Speech Recognition via Large-Scale Weak Supervision

论文阅读:《Probabilistic Neural-symbolic Models for Interpretable Visual Question Answering》

《Non-local Neural Networks》论文阅读笔记

论文阅读|深读GraLSP: Graph Neural Networks with Local Structural Patterns

论文阅读LaMa: Resolution-robust Large Mask Inpainting with Fourier Convolutions(WACV 2022)

论文阅读LaMa: Resolution-robust Large Mask Inpainting with Fourier Convolutions(WACV 2022)