如何在pytorch LSTM中自定义多个隐藏层单元的数量?

Posted

技术标签:

【中文标题】如何在pytorch LSTM中自定义多个隐藏层单元的数量?【英文标题】:How to customize number of multiple hidden layer units in pytorch LSTM? 【发布时间】:2019-06-02 04:01:21 【问题描述】:

在 pytorch LSTM、RNN 或 GRU 模型中,有一个参数叫做“num_layers”,它控制着一个 LSTM 中隐藏层的数量。我想知道,既然 LSTM 中有多个层,为什么参数“hidden_​​size”只是一个数字,而不是包含多个层中隐藏状态数的列表,例如 [10,20,30]。

我在做一个回归项目时遇到过,其中我将 (seq_len, batch, feature) 的序列数据馈送到 LSTM,我想获得每个时间步的标量输出。

了解 pytorch LSTM 框架的有用链接,here。 如果有人能回答这个问题,我将不胜感激。

【问题讨论】:

【参考方案1】:

似乎我已经找到了解决方案,即改用 LSTMCell。有用的链接:[1]、[2]。但是有没有更简单的方法?

【讨论】:

以上是关于如何在pytorch LSTM中自定义多个隐藏层单元的数量?的主要内容,如果未能解决你的问题,请参考以下文章

使用多个 GPU 运行 LSTM 会得到“输入和隐藏张量不在同一设备上”

PyTorch LSTM 中的“隐藏”和“输出”有啥区别?

PyTorch 中的双向 LSTM 输出问题

PyTorch笔记 - LSTM(Long Short-Term Memory) 和 LSTMP(Projection)

PyTorch笔记 - LSTM(Long Short Term Memory) 和 LSTMP(Projection) 网络结构

PyTorch笔记 - LSTM(Long Short Term Memory) 和 LSTMP(Projection) 网络结构