NLP中的GAN

Posted jiangyaju

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了NLP中的GAN相关的知识,希望对你有一定的参考价值。

为什么GAN不能直接用于NLP中?

生成图像是用随机的向量做实值的映射变换,是连续的过程。因此可以将判别器的误差反向传播到生成器。

在自然语言处理中,encoder解码生成文本的过程中,模型生成词的过程其实是在词表中选词的过程,它是根据当前网络输出的词语的整个概率分布,选取概率最大的词。这个选词的过程argmax是一个离散的过程,是不可导的。因此,无法通过D的梯度反向传播到G,故无法更新G的参数。

文本GAN的解决方法:

1. 直接将生成器softmax之后的概率传给鉴别器,不进行argmax采样,可以反向传播

2. 策略梯度 policy network

3. Gumble-softmax

以上是关于NLP中的GAN的主要内容,如果未能解决你的问题,请参考以下文章

学习笔记GAN003:GANDCGANCGANInfoGAN

基于NLP和GAN的小说影视化

GAN 中的损失函数

python 自我注意GAN中的自我关注机制

将 torch.backward() 用于 GAN 生成器时,为啥 Pytorch 中的判别器损失没有变化?

提高驾驶技术:用GAN去除(爱情)动作片中的马赛克和衣服