Keras LSTM 第二层(但不是第一层)的输入形状错误

Posted

技术标签:

【中文标题】Keras LSTM 第二层(但不是第一层)的输入形状错误【英文标题】:Input Shape Error in Second-layer (but not first) of Keras LSTM 【发布时间】:2017-07-08 22:55:27 【问题描述】:

我正在尝试构建一个 LSTM 模型,处理 https://keras.io/layers/recurrent/ 的文档示例

from keras.models import Sequential
from keras.layers import LSTM

以下三行代码(加注释)直接取自上面的文档链接:

model = Sequential()
model.add(LSTM(32, input_dim=64, input_length=10))

# for subsequent layers, not need to specify the input size:
model.add(LSTM(16))

ValueError:输入 0 与层 lstm_2 不兼容:预期 ndim=3,发现 ndim=2

在执行第二个 model.add() 语句之后,但在将模型暴露给我的数据之前,甚至在编译它之前,我得到了上面的错误。

我在这里做错了什么?我正在使用 Keras 1.2.1。

编辑

刚刚升级到当前的 1.2.2,仍然有同样的问题。

【问题讨论】:

【参考方案1】:

感谢 patyork 在Github 上回答这个问题:

第二个 LSTM 层没有得到它所期望的 3D 输入(形状为 (batch_size, timesteps, features)。这是因为第一个 LSTM 层有(由于默认值的幸运)return_sequences=False,这意味着它只输出时间 t-1 的最后一个特征集,其形状为 (batch_size, 32),或不包含时间的 2 个维度。

所以要提供一个代码示例,说明如何使用堆叠 LSTM 实现多对一 (return_sequences=False) 序列分类,只需确保在中间层上使用 return_sequences=True,如下所示:

model = Sequential()
model.add(LSTM(32, input_dim=64, input_length=10, return_sequences=True))
model.add(LSTM(24, return_sequences=True))
model.add(LSTM(16, return_sequences=True))
model.add(LSTM(1,  return_sequences=False))

model.compile(optimizer = 'RMSprop', loss = 'categorical_crossentropy')

(没有错误)

【讨论】:

以上是关于Keras LSTM 第二层(但不是第一层)的输入形状错误的主要内容,如果未能解决你的问题,请参考以下文章

keras中LSTM的units是啥意思

keras: 在构建LSTM模型时,使用变长序列的方法

Keras中 LSTM 模型解读

Keras 功能 api 输入形状错误,lstm 层收到 2d 而不是 3d 形状

Keras使用LSTM时输入问题

Keras LSTM 输入维度设置