如何在pytorch中获得双向2层GRU的最终隐藏状态

Posted

技术标签:

【中文标题】如何在pytorch中获得双向2层GRU的最终隐藏状态【英文标题】:How to get final hidden state of bidirectional 2-layers GRU in pytorch 【发布时间】:2020-07-15 16:18:42 【问题描述】:

我正在努力理解如何获取隐藏层并将它们连接起来。

我以下面的代码为例:

class classifier(nn.Module):

#define all the layers used in model
def __init__(self, vocab_size, embedding_dim, hidden_dim, output_dim, n_layers, 
             bidirectional, dropout):

    #Constructor
    super().__init__()

    self.batch = BATCH_SIZE
    self.hidden = hidden_dim
    self.layers = n_layers
    if(bidirectional):
        self.directions = 2
    else:
        self.directions = 1

    #embedding layer
    self.embedding = nn.Embedding(vocab_size, embedding_dim)

    #lstm layer
    self.gru = nn.GRU(embedding_dim, 
                       hidden_dim, 
                       num_layers=n_layers, 
                       bidirectional=bidirectional, 
                       dropout=dropout,
                       batch_first=True)

    #dense layer
    self.fc = nn.Linear(hidden_dim * 2, output_dim)

    #activation function
    self.act = nn.Sigmoid()

def forward(self, text, text_lengths):

    #text = [batch size,sent_length]
    embedded = self.embedding(text)
    #embedded = [batch size, sent_len, emb dim]

    #packed sequence
    packed_embedded = nn.utils.rnn.pack_padded_sequence(embedded, text_lengths,batch_first=True)

    packed_output, (hidden, cell) = self.lstm(packed_embedded)
    #hidden = [batch size, num layers * num directions,hid dim]
    #cell = [batch size, num layers * num directions,hid dim]

    #concat the final forward and backward hidden state
    hidden = torch.cat((hidden[-2,:,:], hidden[-1,:,:]), dim = 1)

    #hidden = [batch size, hid dim * num directions]
    dense_outputs=self.fc(hidden)

    #Final activation function
    outputs=self.act(dense_outputs)

    return outputs

hidden = torch.cat((hidden[-2,:,:], hidden[-1,:,:]), dim = 1)这行我没听明白。

据我了解,我这样做是行不通的。

hidden2 = hidden.view(batch_size,self.layers,self.directions,self.hidden)  
hidden2 = torch.cat((hidden2[:,:,0,:],hidden2[:,:,1,:]),dim=1)
dense_outputs=self.fc(hidden2)

谁能解释一下。我浏览了 PyTorch 文档,但没有得到。

【问题讨论】:

【参考方案1】:

双向 GRU 的隐藏输出的 shape[0] 为 2。您应该在 dim=1 上连接两个隐藏输出:

hid_enc = torch.cat([hid_enc[0,:, :], hid_enc[1,:,:]], dim=1).unsqueeze(0)

作为使用-1和-2作为索引的解释,正如你在python列表中所知道的,索引-1中的对象是列表的最后一个对象(我们张量列表中的第二个对象)和索引-2指最后一个对象之前的对象(在我们的例子中是第一个对象)。所以你没看懂的代码就相当于我的回答里的代码

【讨论】:

据我所知,双向 GRU 的隐藏输出的 shape[0] 为 4,因为有 2 层和 2 个方向。

以上是关于如何在pytorch中获得双向2层GRU的最终隐藏状态的主要内容,如果未能解决你的问题,请参考以下文章

在 GRU 层 Pytorch 中训练将在一段时间后停止

如何在pytorch LSTM中自定义多个隐藏层单元的数量?

pytorch笔记:torch.nn.GRU

如何在 Pytorch LSTM/GRU/RNN 中指定不同的层大小

NLP循环神经网络实现情感分类

pytorch 中的 torch.nn.gru 函数的输入是啥?