文献阅读10期:ATTENTION, LEARN TO SOLVE ROUTING PROBLEMS!

Posted RaZLeon

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了文献阅读10期:ATTENTION, LEARN TO SOLVE ROUTING PROBLEMS!相关的知识,希望对你有一定的参考价值。


[ 文献阅读·路径规划 ] ATTENTION, LEARN TO SOLVE ROUTING PROBLEMS! [1]

推荐理由:这篇应该不用多说了,ATTENTION模型做路径规划,算是一篇MileStone了。

1. Attention Model

  • 一个TSP实例假定有n个节点, i ∈ 1 , … , n i \\in\\1, \\ldots, n\\ i1,,n,每个节点的特征为 x i \\mathbfx_i xi,对于TSP问题来说, x i \\mathbfx_i xi即节点i的坐标,且构成图为全连接图(其中包括自连接)。
  • 总而言之,TSP问题的模型可以被认为是一个Graph Attention Network。
  • 通过Mask来定义图结构。
  • π = ( π 1 , … , π n ) \\boldsymbol\\pi=\\left(\\pi_1, \\ldots, \\pi_n\\right) π=(π1,,πn)为节点的排列组合
  • 对于给定实例 s \\mathcals s,选择解 π \\pi π的概率即一种随机策略概率 p ( π ∣ s ) p(\\boldsymbol\\pi \\mid s) p(πs),则对于一个完整TSP问题,策略表达如下:
    p θ ( π ∣ s ) = ∏ t = 1 n p θ ( π t ∣ s , π 1 : t − 1 ) (1) p_\\theta(\\boldsymbol\\pi \\mid s)=\\prod_t=1^n p_\\boldsymbol\\theta\\left(\\pi_t \\mid s, \\boldsymbol\\pi_1: t-1\\right)\\tag1 pθ(πs)=t=1npθ(πts,π1:t1)(1)
  • 整个文章的大致思路是:把所有点依次输入编码器,然后解码器输出解序列。

1.1.编码器

  • 如图1所示,本文采用了Transformer结构,但本文不使用位置编码所以节点Embedding的结果相比输入顺序没有改变。
  • 从NodeInput到GraphEmbedding总共分为两步,Multi-Head Attention(MHA)& Feed-Forward(FF):
    h ^ i = B N ℓ ( h i ( ℓ − 1 ) + M H A i ℓ ( h 1 ( ℓ − 1 ) , … , h n ( ℓ − 1 ) ) ) (2) \\hat\\mathbfh_i=\\mathrmB \\mathrmN^\\ell\\left(\\mathbfh_i^(\\ell-1)+\\mathrmMHA_i^\\ell\\left(\\mathbfh_1^(\\ell-1), \\ldots, \\mathbfh_n^(\\ell-1)\\right)\\right)\\tag2 h^i=BN(hi(1)+MHAi(h1(1),,hn(1)))(2)
    h i ( ℓ ) = B N ℓ ( h ^ i + F F ℓ ( h ^ i ) ) (3) \\mathbfh_i^(\\ell)=\\mathrmBN^\\ell\\left(\\hat\\mathbfh_i+\\mathrmFF^\\ell\\left(\\hat\\mathbfh_i\\right)\\right)\\tag3 hi()=BN(h^i+FF(h^i))(3)

2.解码器