deep_learning_Function_LSTM_dynamic_rnn
Posted 0405mxh
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了deep_learning_Function_LSTM_dynamic_rnn相关的知识,希望对你有一定的参考价值。
一、 tf.nn.dynamic_rnn的输出
tf.nn.dynamic_rnn的输入参数如下
tf.nn.dynamic_rnn(
cell,
inputs,
sequence_length=None,
initial_state=None,
dtype=None,
parallel_iterations=None,
swap_memory=False,
time_major=False,
scope=None
)
tf.nn.dynamic_rnn的返回值有两个:outputs和state
为了描述输出的形状,先介绍几个变量,batch_size是输入的这批数据的数量,max_time就是这批数据中序列的最长长度,如果输入的三个句子,那max_time对应的就是最长句子的单词数量,cell.output_size其实就是rnn cell中神经元的个数。
outputs. outputs是一个tensor
如果time_major==True,outputs形状为 [max_time, batch_size, cell.output_size ](要求rnn输入与rnn输出形状保持一致)
如果time_major==False(默认),outputs形状为 [ batch_size, max_time, cell.output_size ]
state. state是一个tensor。state是最终的状态,也就是序列中最后一个cell输出的状态。一般情况下state的形状为 [batch_size, cell.output_size ],但当输入的cell为BasicLSTMCell时,state的形状为[2,batch_size, cell.output_size ],其中2也对应着LSTM中的cell state和hidden state
————————————————
原文链接:https://blog.csdn.net/u010960155/article/details/81707498
以上是关于deep_learning_Function_LSTM_dynamic_rnn的主要内容,如果未能解决你的问题,请参考以下文章