460循环神经网络 RNN
Posted alex-bn-lee
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了460循环神经网络 RNN相关的知识,希望对你有一定的参考价值。
参考:An Introduction to Recurrent Neural Networks for Beginners
其中每一个彩色框都是一排神经元,相当于普通 NN 的一层,例如 X0 为 input 层,然后 h0 为 hidden 层,y0 为 output 层;
以此类推,X1...Xn 都是 input 层,h0...hn 都是 hidden 层,y1...yn 都是 output 层。
对于一句话来说,每个单词相当于一个 input,因此可以处理不同长度的单词输入,同时前面的输入训练可以影响后面。
$W_{xh}$: (hidden_size, input_size)
$x_t$: (input_size, 1)
$W_{xh} x_t$: (hidden_size, 1)
$W_{hh}$: (hidden_size, input_size)
$h_{t-1}$: (hidden_size, 1)
$W_{hh} h_{t-1}$: (hidden_size, 1)
$b_h$: (hidden_size, 1)
$h_t = tanh(W_{xh} x_t + W_{hh} h_{t-1} + b_h)$: (hidden_size, 1)
$W_{hy}$: (output_size, hidden_size)
$h_{t}$: (hidden_size, 1)
$W_{hy} h_t$: (ouput_size, 1)
$b_y$: (output_size, 1)
$y_t = W_{hy} h_t + b_y$: (output_size, 1)
以上是关于460循环神经网络 RNN的主要内容,如果未能解决你的问题,请参考以下文章