Gavin老师Transformer直播课感悟 - 基于Transformer的Poly-Encoder架构体系解密(三)

Posted m0_49380401

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Gavin老师Transformer直播课感悟 - 基于Transformer的Poly-Encoder架构体系解密(三)相关的知识,希望对你有一定的参考价值。

        本文继续围绕下面这篇论文从试验的角度解析基于Transformer采用Poly-Encoder的架构是如何来平衡模型的速度和质量表现,以及试验中在模型表现和推理时间等方面Poly-encoder与Bi-encoder,Cross-encoder架构的对比等。

五、试验部分

  1. 关于如何选择context vectors

        如下图所示,有以下几种方法来从最基本的Transformer的输出(h 1 ctxt, ..., h N ctxt)推导出context vectors(y 1 ctxt, ..., y m ctxt):

-对m个code(c1,…,cm)进行学习,如上下文ci通过注意力机制和所有输出(h 1 ctxt, ..., h N ctx

以上是关于Gavin老师Transformer直播课感悟 - 基于Transformer的Poly-Encoder架构体系解密(三)的主要内容,如果未能解决你的问题,请参考以下文章

Gavin老师Transformer直播课感悟 - Rasa对话机器人项目实战之教育领域Education Bot项目架构运行测试流程分析及Rasa interactive实验分析(六十)

网课课程收获和感悟5篇精选大全

“上新了!开发”系列直播课 #第六期# DAYU200技术公开课

“上新了!开发”系列直播课 #第六期# DAYU200技术公开课

在线教育直播课和录播课各自有什么优缺点?

印象深刻的三位老师