LSTM模型预测sin函数详解

Posted ace007

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LSTM模型预测sin函数详解相关的知识,希望对你有一定的参考价值。

注解:

fun_data()
函数生成训练数据和标签,同时生成测试数据和测试标签
HIDDEN_SIZE = 128,使用128维的精度来定义LSTM的状态和输出精度,就是LSTM中的h,c
lstm_model()函数定义了一个可重入的模型,
分别由评估函数和训练函数调用,在训练前使用空模型预测并输出未训练数据并可视化
通过with tf.variable_scope("lstm_model",reuse=tf.AUTO_REUSE) as scope:定义了在多次实例化模型的时候共享训练结果

run_eval()定义了评估函数:实现了训练及可视化结果
run_train()定义了训练函数:实现了训练过程。

如果还要提高拟合精度可以把TRAINING_STEPS设大些,不过比较耗时,我的电脑比较老,感觉训练一千次拟合精度就很高了,再训练已经没意义了,呵呵。

图一:还未训练之间的结果,拟合基本上不行
图二:训练500-2000次基本就能很好的预测sin上的任何点了。

技术图片


技术图片



  1 # LSTM预测sin曲线
  2 #tensorflow 1.13.1
  3 #numpy 1.16.2
  4 import numpy as np
  5 import tensorflow as tf
  6 import matplotlib.pyplot as plt
  7 plt.rcParams[font.sans-serif]=[FangSong] # 用来正常显示中文标签
  8 plt.rcParams[axes.unicode_minus]=False# 用来正常显示负号
  9 ########################################################################################
 10 # RNN模型相关参数
 11 HIDDEN_SIZE = 128                           # LSTM中隐藏节点的个数,定义输出及状态的向量维度。
 12 NUM_LAYERS = 3                              # LSTM的层数。
 13 TIME_STEPS = 10                             # 循环神经网络的训练序列长度
 14 TRAINING_STEPS = 2000                       # 训练轮数。
 15 BATCH_SIZE = 32                             # batch大小。
 16 #数据样本数量
 17 TRAINING_EXAMPLES = 10000                   # 训练数据个数。
 18 TESTING_EXAMPLES = 1000                     # 测试数据个数。
 19 ########################################################################################
 20 def fun_data():
 21     # 用正弦函数生成训练和测试数据集合。
 22     SAMPLE_GAP = 0.01# 采样间隔。
 23     test_start = (TRAINING_EXAMPLES + TIME_STEPS) * SAMPLE_GAP
 24     test_end = test_start + (TESTING_EXAMPLES + TIME_STEPS) * SAMPLE_GAP
 25     MYTRAIN = np.sin(np.linspace(0, test_start, TRAINING_EXAMPLES + TIME_STEPS, dtype=np.float32))
 26     MYTEST  = np.sin(np.linspace(test_start, test_end, TESTING_EXAMPLES + TIME_STEPS, dtype=np.float32))
 27     
 28     def generate_data(seq):
 29         X,Y = [],[]
 30         for i in range(len(seq) - TIME_STEPS):
 31             X.append([seq[i: i + TIME_STEPS]]) # 用[0]至[9]个特征
 32             Y.append([seq[i + TIME_STEPS]])    # 预测[10]这个值 
 33         return np.array(X, dtype=np.float32), np.array(Y, dtype=np.float32)  
 34 
 35     #生成训练数据和测试数据
 36     #(10000, 1, 10) (10000, 1)
 37     train_x, train_y = generate_data(MYTRAIN)
 38     #(1000, 1, 10) (1000, 1)
 39     test_x, test_y = generate_data(MYTEST)
 40     
 41     return train_x, train_y, test_x, test_y   
 42 
 43 def lstm_model(X, y):
 44     # 定义算法图:可重入,共享训练变量
 45     # 每调用一次lstm_model函数会在同一个系统缺省图
 46     # tf.variable_scope("lstm_model",reuse=tf.AUTO_REUSE)定义共享训练变量
 47     with tf.variable_scope("lstm_model",reuse=tf.AUTO_REUSE) as scope:
 48         #定义多层LSTM
 49         cell = tf.nn.rnn_cell.MultiRNNCell(
 50             [tf.nn.rnn_cell.LSTMCell(HIDDEN_SIZE) for _ in range(NUM_LAYERS)])
 51         #根据tf.nn.dynamic_rnn对数据的要求变换shape    
 52         #XX (?, 10, 1),X(?, 1, 10)
 53         XX = tf.reshape(X,[-1, X.shape[-1], X.shape[-2]])
 54         # outputs (?, 10, 128)
 55         outputs, _ = tf.nn.dynamic_rnn(cell, XX, dtype=tf.float32)
 56         # 取TIME_STEPS最后一个单元上的输出作为预测值
 57         # output (?, 128)
 58         output = outputs[:, -1, :]
 59         # 加一层全连接直接输出预测值
 60         # predictions (?, 1)
 61         mypredictions = tf.layers.dense(output,1)
 62         # 平均平方差损失函数计算工时,用这个函数来求loss。
 63         loss = tf.losses.mean_squared_error(labels=y, predictions=mypredictions)
 64         # 使用AdamOptimizer进行优化
 65         train_op = tf.train.AdamOptimizer(0.01).minimize(loss)
 66     return mypredictions, loss, train_op
 67 
 68 def run_eval(sess):
 69     # 评估算法
 70     ds = tf.data.Dataset.from_tensor_slices((self.test_X, self.test_y))
 71     ds = ds.batch(1)#一次取一个样本
 72     X, y = ds.make_one_shot_iterator().get_next()
 73     prediction, loss, train_op = lstm_model(X, y)
 74     predictions = []
 75     labels = []
 76     for i in range(TESTING_EXAMPLES):
 77         p, l = sess.run([prediction, y])
 78         predictions.append(p)
 79         labels.append(l)
 80     predictions = np.array(predictions).squeeze()
 81     labels = np.array(labels).squeeze()
 82     
 83     #对预测的sin函数曲线进行绘图。
 84     plt.figure()
 85     plt.plot(predictions, label=预测,linestyle=solid, color=red)
 86     plt.plot(labels, label=真实数据,linestyle=dotted,color=black)
 87     plt.legend()
 88     plt.show()
 89     
 90     return
 91 
 92 def run_train(sess):
 93     #定义训练过程
 94     for ecoh in range(TRAINING_STEPS):
 95         myloss, _ = sess.run([self.loss, self.train_op])
 96         if ecoh % 100 == 0:
 97             print(训练次数::损失函数值::.format(ecoh,myloss))
 98     return
 99 
100 def run_main():
101       
102     #准备数据  
103     self.train_X, self.train_y,self.test_X, self.test_y = fun_data()
104     ds = tf.data.Dataset.from_tensor_slices((self.train_X, self.train_y))
105     ds = ds.repeat().shuffle(1000).batch(BATCH_SIZE)#一次取BATCH_SIZE个样本
106     X, y = ds.make_one_shot_iterator().get_next()
107     
108     #定义模型  
109     self.prediction, self.loss, self.train_op = lstm_model(X, y)   
110     # 初始化方法定义
111     init = tf.group(tf.global_variables_initializer(), tf.local_variables_initializer())
112             
113     with tf.Session() as sess:
114         sess.run(init)
115         # 测试在训练之前的模型效果。
116         run_eval(sess)
117         # 训练模型。
118         run_train(sess)
119         # 使用训练好的模型对测试数据进行预测。
120         run_eval(sess)
121     return
122             
123 if __name__ == "__main__" :        
124     run_main()

 

以上是关于LSTM模型预测sin函数详解的主要内容,如果未能解决你的问题,请参考以下文章

Tensorflow LSTM实现多维输入输出预测实践详解

Tensorflow LSTM实现多维输入输出预测实践详解

86使用Tensorflow实现,LSTM的时间序列预测,预测正弦函数

LSTM模型预测cos函数

Keras LSTM实现多维输入输出时序预测实践详解

猿创征文|时间序列分析算法之平稳时间序列预测算法和自回归模型(AR)详解+Python代码实现