460循环神经网络 RNN

Posted alex-bn-lee

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了460循环神经网络 RNN相关的知识,希望对你有一定的参考价值。

参考:An Introduction to Recurrent Neural Networks for Beginners

技术图片

其中每一个彩色框都是一排神经元,相当于普通 NN 的一层,例如 X0 为 input 层,然后 h0 为 hidden 层,y0 为 output 层;

以此类推,X1...Xn 都是 input 层,h0...hn 都是 hidden 层,y1...yn 都是 output 层。

对于一句话来说,每个单词相当于一个 input,因此可以处理不同长度的单词输入,同时前面的输入训练可以影响后面。

$W_{xh}$: (hidden_size, input_size)

$x_t$: (input_size, 1)

$W_{xh} x_t$: (hidden_size, 1)

 

$W_{hh}$: (hidden_size, input_size)

$h_{t-1}$: (hidden_size, 1)

$W_{hh} h_{t-1}$: (hidden_size, 1)

 

$b_h$: (hidden_size, 1)

 

$h_t = tanh(W_{xh} x_t + W_{hh} h_{t-1} + b_h)$: (hidden_size, 1)

 

$W_{hy}$: (output_size, hidden_size)

$h_{t}$: (hidden_size, 1)

$W_{hy} h_t$: (ouput_size, 1)

$b_y$: (output_size, 1)

$y_t = W_{hy} h_t + b_y$: (output_size, 1)

 

技术图片

 技术图片

 

以上是关于460循环神经网络 RNN的主要内容,如果未能解决你的问题,请参考以下文章

Pytorch_循环神经网络RNN

循环神经网络(RNN)简介

循环神经网络(RNN)的应用

强烈推荐RNN 架构解析(循环神经网络)

强烈推荐RNN 架构解析(循环神经网络)

hello-循环神经网络(RNN)原理