如何为 RNN/LSTM 模型重塑数据集? [复制]

Posted

技术标签:

【中文标题】如何为 RNN/LSTM 模型重塑数据集? [复制]【英文标题】:how to reshape a dataset for RNN/LSTM model? [duplicate] 【发布时间】:2018-10-28 05:39:48 【问题描述】:

我正在尝试为二进制分类 0 或 1 构建 RNN/LSTM 模型

我的数据集的一个样本(患者编号、时间(单位为毫米/秒)、XY 和 Z 的归一化、峰度、偏度、俯仰、滚动和偏航、标签)。

1,15,-0.248010047716,0.00378335508419,-0.0152548459993,-86.3738760481,0.872322164158,-3.51314800063,0

1,31,-0.248010047716,0.00378335508419,-0.0152548459993,-86.3738760481,0.872322164158,-3.51314800063,0

1,46,-0.267422664673,0.0051143782875,-0.0191247001961,-85.7662354031,1.0928406847,-4.08015176908,0

1,62,-0.267422664673,0.0051143782875,-0.0191247001961,-85.7662354031,1.0928406847,-4.08015176908,0 

这是我的代码

import numpy as np
from keras.datasets import imdb
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import LSTM
from keras.layers import Bidirectional
from keras.preprocessing import sequence
# fix random seed for reproducibility
np.random.seed(7)

train = np.loadtxt("featwithsignalsTRAIN.txt", delimiter=",")
test = np.loadtxt("featwithsignalsTEST.txt", delimiter=",")

x_train = train[:,[2,3,4,5,6,7]]
x_test = test[:,[2,3,4,5,6,7]]
y_train = train[:,8]
y_test = test[:,8]

# create the model
model = Sequential()
model.add(LSTM(20, dropout=0.2, input_dim=6))
model.add(Dense(4, activation = 'sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit(x_train, y_train, epochs = 2)

我正在尝试重塑数据集,以便能够将其提供给 RNN/LSTM 模型。

因为它给了我以下错误

检查输入时出错:预期 lstm_1_input 有 3 个维度, 但得到了形状为 (1415684, 6) 的数组

谁能帮助我? 提前致谢。

【问题讨论】:

不要多次问同一个问题。您可以通过额外的改进编辑上一个问题,这已经将其置于活动问题提要的顶部,从而为回答者提供新的关注。 【参考方案1】:

您需要的是TimeseriesGenerator,它将您的数据转换为固定窗口大小的序列。目前您正在传递整个数据集(...,6),如果您使用滑动窗口,假设大小为 10(这可能不需要对应于 10ms,具体取决于您的数据),生成器将提供形状输入(... , 10, 6) 这是 LSTM 所期望的。 LSTM 将处理这 10 个时间步长,即该窗口中的数据点,模型将进行预测。

【讨论】:

以上是关于如何为 RNN/LSTM 模型重塑数据集? [复制]的主要内容,如果未能解决你的问题,请参考以下文章

RNN/LSTM 深度学习模型?

Python - RNN LSTM模型精度低

如何为 LSTM 重塑数据 - 时间序列多类分类

python RNN LSTM错误

如何为 LSTM keras 重塑 X_train 和 y_train

快速串联 RNN / LSTM / Attention / transformer / BERT / GPT