Multi-gate Mixture-of-Experts(MMoE)
Posted zhiyong_will
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Multi-gate Mixture-of-Experts(MMoE)相关的知识,希望对你有一定的参考价值。
1. 概述
在工业界经常会面对多个学习目标的场景,如在推荐系统中,除了要给用户推荐刚兴趣的物品之外,一些细化的指标,包括点击率,转化率,浏览时长等等,都会作为评判推荐系统效果好坏的重要指标,不同的是在不同的场景下对不同指标的要求不一样而已。在面对这种多任务的场景,最简单最直接的方法是针对每一个任务训练一个模型,显而易见,这种方式带来了巨大的成本开销,包括了计算成本和存储成本。多任务学习(Multi-task Learning)便由此而生,在多任务学习中,希望通过一个模型可以同时学习多个目标。然而在多任务学习中,多个任务之间通常存在着或是彼此联系或是巨大差异的现象,这就导致了多任务模型常常效果不佳。Google于2018年提出了Multi-gate Mixture-of-Experts(MMoE)模型[1]来对任务之间相互关系建模。
2. 算法原理
MMoE模型并不是凭空产出的,是在前人的工作上做了很多改进。多任务学习经过多年的发展,历史上也出现了很多多任务学习的模型。
2.1. Shared-Bottom模型
在多任务学习模型当中,最常见的一种模型就是shared-bottom模型,shared-bottom模型的结构如下图所示:
在shared-bottom模型中,每个任务都共享底部的网络,如上图中的Shared Bottom部分,然后在上层再根据任务的不同划分出多个tower network来分别学习不同的目标,如上图中的TowerA和Tower B。假设当前有 K K K个任务,输入特征通过shared-bottom网络后可以由函数 f f f表示,每一个tower网络的输出为函数 h k h^k hk,其中 k = 1 , 2 , ⋯ , K k=1,2,\\cdots ,K k=1,2,⋯,K,则shared-bottom模型可以表示为:
y k = h k ( f ( x ) ) y_k=h^k\\left ( f\\left ( x \\right ) \\right ) yk=hk(f(x))
2.2. Multi-gate Mixture-of-Experts(MMoE)模型
从MMoE的名称来看,可以看到主要包括两个部分,分别为:Multi-gate(多门控网络)和Mixture-of-Experts(混合专家)。
2.2.1. Mixture-of-Experts(MoE)模型
MoE模型可以表示为
y = ∑ i = 1 n g ( x ) i f i ( x ) y=\\sum_i=1^ng\\left ( x \\right )_if_i\\left ( x \\right ) y=i=1∑ng(x)ifi(x)
其中 ∑ i = 1 n g ( x ) i = 1 \\sum_i=1^ng\\left ( x \\right )_i=1 ∑i=1ng(x)i=1, g ( x ) i g\\left ( x \\right )_i g(x)i表示的是 g ( x ) g\\left ( x \\right ) g(x)的第 i i i个输出值,代表的是选择专家 f i f_i fi的概率值。 f i ( x ) f_i\\left ( x \\right ) fi(x)是第 i i i个专家网络的值。MoE可以看作是基于多个独立模型的集成方法Ensemble,通过Ensemble的知识可知,通过Ensemble能够提高模型的性能。
也有将MoE作为一个独立的层[2],将多个MoE结构堆叠在另一个网络中,一个MoE层的输出作为下一层MoE层的输入,其输出作为另一个下一层的输入,其具体过程如下图所示:
2.2.2. One-gate Mixture-of-Experts(OMoE)模型
在shared-bottom模型中,无法实现对多个任务之间关系的建模,结合shared-bottom和MoE,便有了One-gate Mixture-of-Experts模型,其具体过程如下图所示:
假设当前有
K
K
K个任务,与Shared-Bottom模型一样,输入特征通过多个专家网络后可以由函数
f
i
(
x
)
f_i\\left ( x \\right )
fi(x)表示,假设当前有
n
n
n个专家网络,即
i
=
1
,
2
,
⋯
,
n
i=1,2,\\cdots ,n
i=1,2,⋯,n,每一个任务对应的tower网络的输出为函数
h
k
h^k
hk,其中
k
=
1
,
2
,
⋯
,
K
k=1,2,\\cdots ,K
k=1,2,⋯,K,则OMoE模型可以表示为:
y k = h k ( ∑ i = 1 n g ( x ) i f i ( x ) ) y_k=h^k\\left ( \\sum_i=1^ng\\left ( x \\right )_if_i\\left ( x \\right ) \\right ) yk=hk(i=1∑ng(x)ifi(x))
2.2.3. Multi-gate Mixture-of-Experts(MMoE)模型
Multi-gate Mixture-of-Experts是One-gate Mixture-of-Experts的升级版本,借鉴门控网络的思想,将OMoE模型中的One-gate升级为Multi-gate,针对不同的任务有自己独立的门控网络,每个任务的gating networks通过最终输出权重不同实现对专家的选择。不同任务的门控网络可以学习到对专家的不同组合,因此模型能够考虑到了任务之间的相关性和区别。其具体过程如下图所示:
同样,假设当前有 K K K个任务,输入特征通过多个专家网络后可以由函数 f i ( x ) f_i\\left ( x \\right ) fi(x)表示,假设当前有 n n n个专家网络,即 i = 1 , 2 , ⋯ , n i=1,2,\\cdots ,n i=1,2,⋯,n,每一个任务对应的tower网络的输出为函数 h k h^k hk,其中 k = 1 , 2 , ⋯ , K k=1,2,\\cdots ,K k=1,2,⋯,K,则MMoE模型可以表示为:
y k = h k ( ∑ i = 1 n g k ( x ) i f i ( x ) ) y_k=h^k\\left ( \\sum_i=1^ng^k\\left ( x \\right )_if_i\\left ( x \\right ) \\right ) yk=hk(i=1∑ngk(x)ifi(x))
其中, g k ( x ) i g^k\\left ( x \\right )_i gk(x)i为门控网络,可以由一个最简单的网络表示:
g k ( x ) = s o f t m a x ( W g k x ) g^k\\left ( x \\right )=softmax\\left ( W_gkx \\right ) gk(x)=softmax(Wgkx)
其中, W g k ∈ R n × d W_gk\\in \\mathbbR^n\\times d Wgk∈Rn×d, n n n表示专家的个数, d d d表示的是特征的维度。
3.总结
通过结合门控网络和混合专家组成的MMoE模型,从实验的结论上来看,能够利用同一个模型对多个任务同时建模,同时能够对多个任务之间的联系和区别建模。
参考文献
[1] Ma J, Zhao Z, Yi X, et al. Modeling task relationships in multi-task learning with multi-gate mixture-of-experts[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2018: 1930-1939.
[2] Shazeer, Noam, et al. “Outrageously large neural networks: The sparsely-gated mixture-of-experts layer.” arXiv preprint arXiv:1701.06538 (2017).
以上是关于Multi-gate Mixture-of-Experts(MMoE)的主要内容,如果未能解决你的问题,请参考以下文章
Multi-gate Mixture-of-Experts(MMoE)
推荐系统(十五)多任务学习:谷歌MMoE(Multi-gate Mixture-of-Experts )
推荐系统(十五)多任务学习:谷歌MMoE(Multi-gate Mixture-of-Experts )
推荐系统(十五)多任务学习:谷歌MMoE(Multi-gate Mixture-of-Experts )
MMOE Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts阅读
MMOE Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts阅读