使用 Pytorch 前向传播 RNN

Posted

技术标签:

【中文标题】使用 Pytorch 前向传播 RNN【英文标题】:Forward Propagate RNN using Pytorch 【发布时间】:2020-03-23 15:04:41 【问题描述】:

我正在尝试创建一个 RNN 前向传递方法,该方法可以采用可变的输入、隐藏和输出大小并创建所需的 rnn 单元。对我来说,似乎我正在将正确的变量传递给 self.rnn_cell——x 和前一个隐藏层的输入值。但是,我收到的错误包含在下面。

我也尝试过使用 x[i] 和 x[:,i,i] (正如我的教授所建议的那样),但无济于事。我很困惑,只是在寻找关于我是否在这里做正确的事情的指导。我的教授建议,由于我不断收到错误,我应该在 jupyter notebook 中重新启动内核并重新运行代码。我有,我收到同样的错误......

如果您需要其他上下文,请告诉我。

class RNN(nn.Module):
    def __init__(self, input_size, hidden_size, output_size):
        super(RNN, self).__init__()
        self.hidden_size = hidden_size

        self.rnn_cell = nn.RNNCell(input_size, hidden_size)
        self.fc = nn.Linear(hidden_size, output_size)
        self.softmax = nn.LogSoftmax(dim=1)

    def forward(self, x):
        """
        x: size [seq_length, 1, input_size]
        """
        h = torch.zeros(x.size(1), self.hidden_size)

        for i in range(x.size(0)):
            ### START YOUR CODE ###
            h = self.rnn_cell(x[:,:,i], h)
            ### END YOUR CODE ###

        ### START YOUR CODE ###
        # Hint: first call fc, then call softmax
        out = self.softmax(self.fc(self.hidden_size, h.size(0)))
        ### END YOUR CODE ###

        return out 
IndexError: Dimension out of range (expected to be in range of [-1, 0], but got 1)

【问题讨论】:

【参考方案1】:

我不是 RNN 方面的专家,但可以尝试一下。

class RNN(nn.Module):
def __init__(self, input_size, hidden_size, output_size):
    super(RNN, self).__init__()
    self.hidden_size = hidden_size

    self.rnn_cell = nn.RNN(input_size, hidden_size)
    self.fc = nn.Linear(hidden_size, output_size)


def forward(self, x):
    """
    x: size [seq_length, 1, input_size]
    """
    h = torch.zeros(num_layers(hidden), x.size(0), self.hidden_size)


        ### START YOUR CODE ###
    out,hidden = self.rnn_cell(x, h)
        ### END YOUR CODE ###

    ### START YOUR CODE ###
    # Hint: first call fc, then call softmax
    out = out.contiguous().view(-1, self.hidden_dim) #You need to reshape the output to fit the FC layer
    out = self.fc(out)
    return F.softmax(out)
    ### END YOUR CODE ###

    return out 

请尝试运行它,如果出现错误或任何疑问,请告诉我。 (不能向您询问详细信息,因为我无法评论 rn。)

如果您对我的回答有任何想法,请支持。

【讨论】:

【参考方案2】:
class RNN(nn.Module):
    def __init__(self, input_size, hidden_size, output_size):
        super(RNN, self).__init__()
        self.hidden_size = hidden_size

        self.rnn_cell = nn.RNNCell(input_size, hidden_size)
        self.fc = nn.Linear(hidden_size, output_size)
        self.softmax = nn.LogSoftmax(dim=1)

    def forward(self, x):
        """
        x: size [seq_length, 1, input_size]
        """
        h = torch.zeros(x.size(1), self.hidden_size)

        for i in range(x.size(0)):
            ### START YOUR CODE ###
            h = self.rnn_cell(x[i,:,:], h)
            ### END YOUR CODE ###

        ### START YOUR CODE ###
        # Hint: first call fc, then call softmax
        out = self.fc(h)
        out = self.softmax(out)
        ### END YOUR CODE ###

        return out

【讨论】:

请在答案中添加更多内容,解释为什么 OP 应该使用您的代码以及它如何解决他们的问题。就目前而言,您所做的更改并不是很明显。【参考方案3】:
class RNN(nn.Module):
    def __init__(self, input_size, hidden_size, output_size):
        super(RNN, self).__init__()
        self.hidden_size = hidden_size

        self.rnn_cell = nn.RNNCell(input_size, hidden_size)
        self.fc = nn.Linear(hidden_size, output_size)
        self.softmax = nn.LogSoftmax(dim=1)

    def forward(self, x):
        """
        x: size [seq_length, 1, input_size]
        """
        h = torch.zeros(x.size(1), self.hidden_size)

        for i in range(x.size(0)):
            ### START YOUR CODE ###
            h = self.rnn_cell(x[i,:,:], h)
            ### END YOUR CODE ###

        ### START YOUR CODE ###
        # Hint: first call fc, then call softmax
        out = self.softmax(self.fc(h))
        ### END YOUR CODE ###

        return out

【讨论】:

请在答案中添加更多内容,解释为什么 OP 应该使用您的代码以及它如何解决他们的问题。就像现在一样,您所做的更改并不是很明显。此外,您提出的解决方案似乎与 Dev Taylor 的答案基本相同。

以上是关于使用 Pytorch 前向传播 RNN的主要内容,如果未能解决你的问题,请参考以下文章

深度学习6. 多层感知机及PyTorch实现

深度学习6. 多层感知机及PyTorch实现

深度学习6. 多层感知机及PyTorch实现

pytorch入门Pytorch神经网络工具

人工智能作业一

Pytorch实现线性回归