LSTM RNN 反向传播

Posted

技术标签:

【中文标题】LSTM RNN 反向传播【英文标题】:LSTM RNN Backpropagation 【发布时间】:2017-05-24 03:50:45 【问题描述】:

有人可以清楚地解释 LSTM RNN 的反向传播吗? 这是我正在使用的类型结构。我的问题不是关于什么是反向传播,我理解它是一种逆序方法,用于计算用于调整神经网络权重的假设和输出的误差。我的问题是 LSTM 反向传播与常规神经网络有何不同。

我不确定如何找到每个门的初始误差。您是否对每个门使用第一个错误(由假设减去输出计算)?或者你是否通过一些计算来调整每个门的误差?我不确定单元状态如何在 LSTM 的反向传播中发挥作用。我已经彻底寻找了 LSTM 的良好来源,但还没有找到。

【问题讨论】:

This blog 有很大帮助。 【参考方案1】:

我认为您的问题无法在简短的回答中得到解答。 Nico 的simple LSTM 有一个来自 Lipton 等人的优秀论文的链接,请阅读此内容。他的简单 python 代码示例也有助于回答您的大部分问题。 如果你明白 Nico 的最后一句话 ds = self.state.o * top_diff_h + top_diff_s 详细的,请给我反馈。目前,我对他的“将所有这些 s 和 h 派生放在一起”有一个最后的问题。

【讨论】:

【参考方案2】:

这是个好问题。您当然应该查看建议的帖子以了解详细信息,但此处的完整示例也会有所帮助。

RNN 反向传播

我认为先讲一个普通的RNN(因为LSTM图特别容易混淆)并理解它的反向传播是有意义的。

在反向传播方面,关键思想是网络展开,这是将 RNN 中的递归转换为前馈序列的方法(如上图所示)。请注意,抽象 RNN 是永恒的(可以任意大),但是每个特定的实现都是有限的,因为内存是有限的。因此,展开的网络确实一个长的前馈网络,几乎没有复杂性,例如不同层的权重是共享的。

我们来看一个经典的例子,char-rnn by Andrej Karpathy。这里每个 RNN 单元格通过以下公式产生两个输出 h[t](输入下一个单元格的状态)和 y[t](此步骤的输出),其中 WxhWhhWhy 是共享参数:

在代码中,就是三个矩阵和两个偏置向量:

# model parameters
Wxh = np.random.randn(hidden_size, vocab_size)*0.01 # input to hidden
Whh = np.random.randn(hidden_size, hidden_size)*0.01 # hidden to hidden
Why = np.random.randn(vocab_size, hidden_size)*0.01 # hidden to output
bh = np.zeros((hidden_size, 1)) # hidden bias
by = np.zeros((vocab_size, 1)) # output bias

前向传播非常简单,这个例子使用了 softmax 和交叉熵损失。注意每次迭代都使用相同的W*h* 数组,但输出和隐藏状态不同:

# forward pass
for t in xrange(len(inputs)):
  xs[t] = np.zeros((vocab_size,1)) # encode in 1-of-k representation
  xs[t][inputs[t]] = 1
  hs[t] = np.tanh(np.dot(Wxh, xs[t]) + np.dot(Whh, hs[t-1]) + bh) # hidden state
  ys[t] = np.dot(Why, hs[t]) + by # unnormalized log probabilities for next chars
  ps[t] = np.exp(ys[t]) / np.sum(np.exp(ys[t])) # probabilities for next chars
  loss += -np.log(ps[t][targets[t],0]) # softmax (cross-entropy loss)

现在,向后传递的执行与前馈网络完全一样,但W*h* 数组的梯度会累积所有单元格中的梯度:

for t in reversed(xrange(len(inputs))):
  dy = np.copy(ps[t])
  dy[targets[t]] -= 1
  dWhy += np.dot(dy, hs[t].T)
  dby += dy
  dh = np.dot(Why.T, dy) + dhnext # backprop into h
  dhraw = (1 - hs[t] * hs[t]) * dh # backprop through tanh nonlinearity
  dbh += dhraw
  dWxh += np.dot(dhraw, xs[t].T)
  dWhh += np.dot(dhraw, hs[t-1].T)
  dhnext = np.dot(Whh.T, dhraw)

上面的两次传递都是在大小为len(inputs)的块中完成的,它对应于展开的RNN的大小。您可能希望使其更大以捕获输入中更长的依赖关系,但您需要通过存储每个单元格的所有输出和梯度来为此付出代价。

LSTM 的不同之处

LSTM 图片和公式看起来很吓人,但是一旦你编写了普通的 RNN,LSTM 的实现几乎是一样的。例如,这里是向后传递:

# Loop over all cells, like before
d_h_next_t = np.zeros((N, H))
d_c_next_t = np.zeros((N, H))
for t in reversed(xrange(T)):
  d_x_t, d_h_prev_t, d_c_prev_t, d_Wx_t, d_Wh_t, d_b_t = lstm_step_backward(d_h_next_t + d_h[:,t,:], d_c_next_t, cache[t])
  d_c_next_t = d_c_prev_t
  d_h_next_t = d_h_prev_t

  d_x[:,t,:] = d_x_t
  d_h0 = d_h_prev_t
  d_Wx += d_Wx_t
  d_Wh += d_Wh_t
  d_b += d_b_t

# The step in each cell
# Captures all LSTM complexity in few formulas.
def lstm_step_backward(d_next_h, d_next_c, cache):
  """
  Backward pass for a single timestep of an LSTM.

  Inputs:
  - dnext_h: Gradients of next hidden state, of shape (N, H)
  - dnext_c: Gradients of next cell state, of shape (N, H)
  - cache: Values from the forward pass

  Returns a tuple of:
  - dx: Gradient of input data, of shape (N, D)
  - dprev_h: Gradient of previous hidden state, of shape (N, H)
  - dprev_c: Gradient of previous cell state, of shape (N, H)
  - dWx: Gradient of input-to-hidden weights, of shape (D, 4H)
  - dWh: Gradient of hidden-to-hidden weights, of shape (H, 4H)
  - db: Gradient of biases, of shape (4H,)
  """
  x, prev_h, prev_c, Wx, Wh, a, i, f, o, g, next_c, z, next_h = cache

  d_z = o * d_next_h
  d_o = z * d_next_h
  d_next_c += (1 - z * z) * d_z

  d_f = d_next_c * prev_c
  d_prev_c = d_next_c * f
  d_i = d_next_c * g
  d_g = d_next_c * i

  d_a_g = (1 - g * g) * d_g
  d_a_o = o * (1 - o) * d_o
  d_a_f = f * (1 - f) * d_f
  d_a_i = i * (1 - i) * d_i
  d_a = np.concatenate((d_a_i, d_a_f, d_a_o, d_a_g), axis=1)

  d_prev_h = d_a.dot(Wh.T)
  d_Wh = prev_h.T.dot(d_a)

  d_x = d_a.dot(Wx.T)
  d_Wx = x.T.dot(d_a)

  d_b = np.sum(d_a, axis=0)

  return d_x, d_prev_h, d_prev_c, d_Wx, d_Wh, d_b

总结

现在,回到你的问题。

我的问题是 LSTM 反向传播与常规神经网络有何不同

它们是不同层中的共享权重,还有一些您需要注意的额外变量(状态)。除此之外,没有任何区别。

您是否对每个门使用第一个错误(通过假设减去输出计算)?还是你通过一些计算来调整每个门的误差?

首先,损失函数不一定是 L2。在上面的例子中,它是一个交叉熵损失,所以初始误差信号得到它的梯度:

# remember that ps is the probability distribution from the forward pass
dy = np.copy(ps[t])  
dy[targets[t]] -= 1

请注意,它与普通前馈神经网络中的误差信号相同。如果使用 L2 loss,则信号确实等于 ground-truth 减去实际输出。

在 LSTM 的情况下,它稍微复杂一些:d_next_h = d_h_next_t + d_h[:,t,:],其中d_h 是上游梯度损失函数,这意味着每个单元的误差信号都会累积。但是再一次,如果你展开 LSTM,你会看到与网络布线的直接对应关系。

【讨论】:

我无法理解您为什么在此处添加这些数量:dh = np.dot(Why.T, dy) + dhnext?据我了解,np.dot(Why.T, dy) 是计算出的梯度,需要反向传播到前一个时间步。 “上游梯度”到底是什么意思,为什么要添加它?谢谢。 我知道这有一段时间了,但我想我会回应,因为我刚刚发现了这一点。向量dhnext 包含从级别 t+1 传播到级别 t 的梯度。由于h_t+1 依赖于h_t,当您计算h_t 的反向传播梯度时,有两个分量:步骤t 的误差梯度和步骤t+1 的误差梯度。

以上是关于LSTM RNN 反向传播的主要内容,如果未能解决你的问题,请参考以下文章

深度学习基础-基于Numpy的循环神经网络(RNN)实现和反向传播训练

深入理解RNN与LSTM

深入理解RNN与LSTM

深度学习与图神经网络核心技术实践应用高级研修班-Day2循环神经网络(RNN)

LSTM反向传播原理——LSTM从零实现系列

深度学习系列经典博客收藏