Gavin老师Transformer直播课感悟 - 基于Transformer的Poly-Encoder架构体系解密(三)
Posted m0_49380401
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Gavin老师Transformer直播课感悟 - 基于Transformer的Poly-Encoder架构体系解密(三)相关的知识,希望对你有一定的参考价值。
本文继续围绕下面这篇论文从试验的角度解析基于Transformer采用Poly-Encoder的架构是如何来平衡模型的速度和质量表现,以及试验中在模型表现和推理时间等方面Poly-encoder与Bi-encoder,Cross-encoder架构的对比等。
五、试验部分
- 关于如何选择context vectors
如下图所示,有以下几种方法来从最基本的Transformer的输出(h 1 ctxt, ..., h N ctxt)推导出context vectors(y 1 ctxt, ..., y m ctxt):
-对m个code(c1,…,cm)进行学习,如上下文ci通过注意力机制和所有输出(h 1 ctxt, ..., h N ctx
以上是关于Gavin老师Transformer直播课感悟 - 基于Transformer的Poly-Encoder架构体系解密(三)的主要内容,如果未能解决你的问题,请参考以下文章
Gavin老师Transformer直播课感悟 - Rasa对话机器人项目实战之教育领域Education Bot项目架构运行测试流程分析及Rasa interactive实验分析(六十)
“上新了!开发”系列直播课 #第六期# DAYU200技术公开课