自然语言处理中深度学习模型对抗性攻击综述,41页pdf论文

Posted 专知

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了自然语言处理中深度学习模型对抗性攻击综述,41页pdf论文相关的知识,希望对你有一定的参考价值。


随着高计算设备的发展,深度神经网络(DNNs)近年来在人工智能(AI)领域得到了广泛的应用。然而,之前的研究表明,DNN在经过策略性修改的样本(称为对抗性样本)面前是脆弱的。这些样本是由一些不易察觉的扰动产生的,但可以欺骗DNN做出错误的预测。受图像DNNs中生成对抗性示例的流行启发,近年来出现了针对文本应用的攻击DNNs的研究工作。然而,现有的图像扰动方法不能直接应用于文本,因为文本数据是离散的。在这篇文章中,我们回顾了针对这一差异的研究工作,并产生了关于DNN的电子对抗实例。我们对这些作品进行了全面的收集、选择、总结、讨论和分析,涵盖了所有相关的信息,使文章自成一体。最后,在文献回顾的基础上,我们提出了进一步的讨论和建议。

https://arxiv.org/abs/1901.06796

自然语言处理中深度学习模型对抗性攻击综述,41页pdf论文


专知便捷查看

  • 后台回复“ADM” 就可以获取自然语言处理中深度学习模型对抗性攻击综述,41页pdf论文》专知下载链接

自然语言处理中深度学习模型对抗性攻击综述,41页pdf论文

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询!
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源

以上是关于自然语言处理中深度学习模型对抗性攻击综述,41页pdf论文的主要内容,如果未能解决你的问题,请参考以下文章

最新《推荐系统中的对抗性机器学习:现状和挑战》2020综述论文,35页pdf

35页自然语言处理深度学习综述,带你纵览NLP知识全貌

生成式对抗网络模型综述

联邦学习自然语言处理综述论文

自然语言处理预训练模型的研究综述

Keras深度学习实战(19)——使用对抗攻击生成可欺骗神经网络的图像