前沿 | NLP 研究的未来展望

Posted Springer

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了前沿 | NLP 研究的未来展望相关的知识,希望对你有一定的参考价值。

我们最近出版的由邓力博士及刘洋博士等人合著的  一书(本书在 SpringerLink 上线4周,下载量已达3600次,查看电子书请点击“阅读原文”)系统介绍深度学习在 NLP 常见问题中的应用,而且是目前对此方面研究最新、最全面的综述。基于这些分析,我们对 NLP 未来发展的研究方向进行了探讨,包括神经符号整合框架、基于记忆的模型、先验知识融合以及深度学习范式(如无监督学习、生成式学习、多模学习、多任务学习和元学习等)。


基于组合性的推广


在有监督学习条件下,当前深度学习的一个常见缺点是需要大量带有标签的训练数据。在自然语言处理任务中,自然语言数据通常遵循幂律分布,而深度学习方法难以处理长尾现象。也就是说,任何大规模的自然语言训练数据都难以避免出现训练数据无法覆盖全部现象的情况,这是任何学习系统中局部性和符号表示所面临的一个内在的问题。然而,这一挑战为深度学习方法提供了一个很好的研究方向,因为深度学习方法是基于分布式表示的,不受数据覆盖问题的影响,至少在原则上是这样的。


这些方法的研究在于如何设计新的深度学习架构和算法使得能够有效地利用分布式表示的组合性,从而能够理清自然语言数据变化的潜在因素。


近期深度学习方法在视频和图像数据上的可行性研究给出了在没有大规模自然语言数据的情况下如何解决泛化问题的前景。作为第一步,Larsson 和 Nilsson (2017)的最新的研究提出了分解的表示方法,表明在保留语义的同时,可以有效地控制自然语言的情绪色彩。


NLP 中的无监督学习


几个月前,我们在 一书中第一章写到无监督学习和一些先进方法的初步有前景的工作,这些先进方法包括利用序列输出结构、输入输出的关系以及在训练的预测系统中用来消除昂贵的平行语料库(就是指成对的数据和标签)需求的先进的优化方法。 类似的无监督学习模式最近已经扩展到大规模机器翻译任务


Artetx 等2017年以及 Lample 等2017年发表的两种用于机器翻译的无监督学习方法在各自的训练系统中都利用了反向翻译和去噪。训练是在没有成对的输入和输出数据的情况下进行的,与 Chen 等人(2016年)和 Liu 等人(2017年)的非 NLP 任务的工作设置相同,利用的是输出的结构以及输入(图像)与输出(文本)的关系。Lample 等人以及 Artetxe 等人在2017年提出的反向翻译步骤利用了输入(原文本)和输出(目标文本)的关系以及输入和输出的信息率的相似性(比如都是自然语言文本),这是一种更加优雅的方法。更具体地说,在反向翻译中,先将输入源语言中的一个句子近似地翻译成输出目标语言,之后再将输出的目标语言翻译回源语言。如果反向翻译得到的句子与源语言句子不一致,那么深度神经网络就会学习调整它的权重,以便下次它们会变得更相近。 


两个研究中的去噪步骤都有类似的功能,但仅限于对一种语言起作用,只能在一个句子中加入噪声,然后使用去噪的自编码器恢复原始的版本。这样的主要的思想是在源语言和目标语言之间建立一个共同的隐空间,并通过在源域和目标域之间的重构来学习翻译。有效地利用源(输入)域和目标(输出)域之间的关系,可以为训练机器翻译系统构造成对的源语句和目标语句,从而节省大量成本。


最近,Radford 等人在2017年提出了另一项关于 NLP 无监督学习的有趣研究——情绪分析。研究的最初目的是探索字节级 LSTM 语言模型的属性,以便预测输出给定文本(Amazon评论)的下一个字符。令人惊讶的是,研究发现利用无监督方式训练的乘性 LSTM 中的一个神经元能够对评论是积极的还是消极的进行准确分类。当在另一个情绪数据集——Stanford Sentiment Treebank 进行测试时,这个模型取得了良好效果。


NLP 中的强化学习


如上所述,Artetxe 等在2017年和 Lample 等在2017年报告的基于无监督学习的机器翻译的初步成功,令人联想到 Silver 等在最近报告的强化学习在 AlphaGo Zero 中没有人类数据完全利用自我博弈的策略所取得的成功。通过自我博弈,AlphaGo 成为它自己的老师,一个深度神经网络被训练来预测 AlphaGo 自己的以及 AlphaGo 的游戏的获胜者的下棋选择。这个预测是合理的,因为有一个远程老师告知在自我博弈中谁赢谁输,对强化学习算法进行指导。对于无监督机器翻译,反向翻译和 AlphaGo Zero 中自我博弈相似,只不过没有类似的老师来获取胜负信息。然而,如果通过用反向翻译的句子相比源句子质量好坏这种衡量方法来代替强化学习中的胜负信号,那么,这种衡量方法可以作为一个目标函数来指导深层神经网络中对权重参数的无监督学习。


上述比较指出了强化学习的潜力,它为现有和新的 NLP 应用开发了一套强大的算法。如果 NLP 问题能够被精心地形式化以便利用“自我博弈”的概念或者输入-输出关系来定义远距离的教学信号,那么强化学习将非常有前景。在这个研究领域的成功将能够为强化学习增加强有力的方法来攻克当前 NLP 和深度学习瓶颈的一个关键方面:那就是它们主要基于模式识别和监督学习范例,因此需要大量的标记数据并缺乏推理能力。


NLP 中强化学习的一个典型的应用场景是对话系统。正如第三章中的调研所表明的一样,对话管理是强化学习在 NLP 中取得的主要成功之一,它使用了标准的马尔可夫决策过程及其在处理不确定性任务时的部分观察版本。最近,由强化学习控制和训练的深度神经网络已经应用到了所有类型的对话系统或聊天机器人(智能助理)。虽然强化学习的“奖励”已经根据任务完成的启发式组合(或其他方式)、对话的轮数以及聊天机器人和用户之间的互动水平等合理清楚地定义, 但是对于大量会话数据的需求仍然是一个具有挑战性的问题。由于用于人类——聊天机器人对话的良好“世界”模型或模拟器很难形成,在能够以适当的形式结合“自我博弈”的概念之前,强化学习还很难克服对于大量训练数据的需求。现在聊天机器人的对话在实际应用被期望变得更加真实,因此更加迫切需要在这一领域取得进展。


将强化学习应用于 NLP 问题所取得的其它最新进展主要包括用于创作文本生成的 SeqGAN 方法,它通过策略梯度有效地训练序列生成对抗网络。在 Bahdanau 等, (2017)中报告的一项最近的相关研究是在强化学习中使用另一种流行的 Actor-Critic 算法。 对该方法和其实验结果的分析表明它对于许多自然语言生成任务(包括机器翻译,字幕生成和对话建模)都有很好的效果。此外,还发现了强化学习在解决基于文本的游戏的 NLP 问题以及预测文本论坛中的流行趋势的 NLP 问题方面的有效性。具体地,最近的文献中报告的实验表明:状态空间和动作空间都采用自然语言的形式独立建模能够从文本中提取语义信息,而不是简单地记忆字符串文本。最近发布的强化学习在NLP中的另一个应用是文本摘要(它是一个重要的 NLP 任务,但由于深度学习最近才开始应用于处理文本摘要,所以我们在本书中未涉及)。在(Paulus等. 2017)中表明,在神经编码器 - 解码器模型中,当使用监督学习的标准词预测与使用强化学习训练的全局序列预测相结合时,所得到的摘要文本变得更可读。


结语


最后,我们高度关注了近来应用强化学习从自然语言生成结构查询所取得的成功,在本书第二章中称这项 NLP 任务为“槽填充”,它在有限域内是语言理解的核心。过去通常使用第二章中调研的结构化的监督学习方法来解决它。如果强化学习能够在第二章和第三章中描述的许多实际有用的领域都能表现出一致的优势,那么口语理解和对话系统的研究前沿就会被推进。


点击"阅读原文" 至原文页下载精选内容。


*本文翻译自 Deep Learning in Natural Language Processing 一书第11.3.1-11.3.3 


延伸阅读

点击阅读:



版权声明


marketingchina@springernature.com

© 2018 Springer, part of Springer Nature. All Rights Reserved.




以上是关于前沿 | NLP 研究的未来展望的主要内容,如果未能解决你的问题,请参考以下文章

专栏 | 微软研究院:NLP将迎来黄金十年

展望自然语言对话领域:现状与未来

区块链技术发展面临七大关键挑战以及未来的五大展望

区块链技术发展与展望

Odoo中文版的发展问题与未来展望

GIS前沿周成虎院士:GIS的大数据时代展望(PPT分享)