在线培训预告深度学习在自然语言处理领域的应用
Posted GPUS开发者
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了在线培训预告深度学习在自然语言处理领域的应用相关的知识,希望对你有一定的参考价值。
Transformer 是 Google 的团队在 2017 年提出的一种 NLP 经典模型,现在比较火热的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 机制,不采用 RNN 的顺序结构,使得模型可以并行化训练,而且能够拥有全局信息。
近年来,深度学习在自然语言处理领域得到了广泛的应用。基于 Transformer 的模型,比如 BERT (Bidirectional Encoder Representations from Transformers),在问答系统、实体识别、意图识别、情感分析等方面展现了媲美人类的准确率,推动了自然语言处理领域的革命性发展。除此之外,Transformer 也在推荐系统,自动语音识别技术等领域得到了应用。
本次在线研讨会主要针对自然语言处理的初学者,主讲人会对于自然语言处理领域的深度学习模型进行初步的介绍。
内容安排:
介绍自然语言领域的深度学习基础知识
详细介绍 Transformer 和 BERT
简要介绍 Transformer 在自然语言处理领域之外的应用
介绍 BERT 之后的一系列模型
2021 年 4 月 21 日 星期三
晚上 8 点 ~ 9 点 30 分
90 分钟
演讲嘉宾
张静蓉
NVIDIA GPU 计算专家
拥有多年 CUDA 开发经验,参与完成了利用 CUDA 加速自然语言处理领域的 XLNet 模型,推荐系统常用的 TOP-K 算法加速等工作。
识别以下二维码注册本次在线研讨会
以上是关于在线培训预告深度学习在自然语言处理领域的应用的主要内容,如果未能解决你的问题,请参考以下文章