从NN到RNN再到LSTM:神经网络NN前馈和误差反向传播
Posted clear-
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了从NN到RNN再到LSTM:神经网络NN前馈和误差反向传播相关的知识,希望对你有一定的参考价值。
本文将简要介绍神经网络(Neural Network,NN)的相关公式及推导。
转载请注明出处:http://blog.csdn.net/u011414416/article/details/46694877
以下内容主要引自Alex Graves写的Supervised Sequence Labelling with Recurrent Neural Networks 一书。
(http://www.springer.com/cn/book/9783642247965)
如今,有很多工具、库,可以用来实现神经网络。例子可以参见MLP例子,其中包含一个用Theano实现的MLP例子和用TensorFlow实现的例子。
关于代码更加具体的解释,可以参考Theano tutorial,以及TensorFlow tutorial
以上是关于从NN到RNN再到LSTM:神经网络NN前馈和误差反向传播的主要内容,如果未能解决你的问题,请参考以下文章
从NN到RNN再到LSTM: Gated Recurrent Units
从NN到RNN再到LSTM: Gated Recurrent Units
深度学习原理与框架-递归神经网络-RNN_exmaple(代码) 1.rnn.BasicLSTMCell(构造基本网络) 2.tf.nn.dynamic_rnn(执行rnn网络) 3.tf.expa