deep_learning_Function_LSTM_dynamic_rnn

Posted 0405mxh

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了deep_learning_Function_LSTM_dynamic_rnn相关的知识,希望对你有一定的参考价值。

一、 tf.nn.dynamic_rnn的输出

tf.nn.dynamic_rnn的输入参数如下

tf.nn.dynamic_rnn(
    cell,
    inputs,
    sequence_length=None,
    initial_state=None,
    dtype=None,
    parallel_iterations=None,
    swap_memory=False,
    time_major=False,
    scope=None
)
 

 tf.nn.dynamic_rnn的返回值有两个:outputs和state

为了描述输出的形状,先介绍几个变量,batch_size是输入的这批数据的数量,max_time就是这批数据中序列的最长长度,如果输入的三个句子,那max_time对应的就是最长句子的单词数量,cell.output_size其实就是rnn cell中神经元的个数。

outputs. outputs是一个tensor
如果time_major==True,outputs形状为 [max_time, batch_size, cell.output_size ](要求rnn输入与rnn输出形状保持一致)
如果time_major==False(默认),outputs形状为 [ batch_size, max_time, cell.output_size ]
state. state是一个tensor。state是最终的状态,也就是序列中最后一个cell输出的状态。一般情况下state的形状为 [batch_size, cell.output_size ],但当输入的cell为BasicLSTMCell时,state的形状为[2,batch_size, cell.output_size ],其中2也对应着LSTM中的cell state和hidden state
————————————————
原文链接:https://blog.csdn.net/u010960155/article/details/81707498

以上是关于deep_learning_Function_LSTM_dynamic_rnn的主要内容,如果未能解决你的问题,请参考以下文章