第一门课:神经网络和深度学习(第四周)——深层神经网络

Posted 青春是首不老歌丶

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第一门课:神经网络和深度学习(第四周)——深层神经网络相关的知识,希望对你有一定的参考价值。

1. 深层神经网络

  深层神经网络其实就是包含更多的隐藏层神经网络。
  如下图所示,分别列举了逻辑回归、1个隐藏层的神经网络、2个隐藏层的神经网络和5个隐藏层的神经网络它们的模型结构。

  命名规则上,一般只参考隐藏层个数和输出层。例如,上图中的逻辑回归又叫1 layer NN,1个隐藏层的神经网络叫做2 layer NN,2个隐藏层的神经网络叫做3 layer NN,以此类推。如果是L-layer NN,则包含了L-1个隐藏层,最后的L层是输出层。

  下面以一个4层神经网络为例来介绍关于神经网络的一些标记写法。如下图所示,首先,总层数用L表示, L = 4 ∘ L=4_{\\circ} L=4 输入层是第 0 层,输出层 是第L层。 n [ l ] n^{[l]} n[l] 表示第 l l l 层包含的单元个数, l = 0 , 1 , ⋯ , L ∘ l=0,1,\\cdots,L_{\\circ} l=0,1L 这个模型中, n [ 0 ] = n x = 3 n^{[0]}=n_{x}=3 n[0]=nx=3,表示三个输入特征 x 1 , x 2 , x 3 ∘ n [ 1 ] = 5 x_{1},x_{2},x_{3 \\circ} n^{[1]}=5 x1x2x3n[1]=5 n [ 2 ] = 5 , n [ 3 ] = 3 , n [ 4 ] = n [ L ] = 1 ∘ n^{[2]}=5,n^{[3]}=3,n^{[4]}=n^{[L]}=1_{\\circ} n[2]=5n[3]=3n[4]=n[L]=1 第l层的激活函数输出用 a [ l ] a^{[l]} a[l] 表示, a [ l ] = g [ l ] ( z [ l ] ) ∘ W [ l ] a^{[l]}=g^{[l]}\\left(z^{[l]}\\right)_{\\circ} W^{[l]} a[l]=g[l](z[l])W[l] 表示第 l l l 层的权重,用于计算 z [ l ] z^{[l]} z[l] 。另外,我们把输入层记为 a [ 0 ] a^{[0]} a[0],把输出层 y ^ \\hat{y} y^ 记为 a [ L ] a^{[L]} a[L]

  注意 a [ l ] a^{[l]} a[l] W [ l ] W^{[l]} W[l] 中的上标 l l l 都是从1开始的, l = 1 , ⋯ , L l=1,\\cdots,L l=1L

2. 深层网络中的前向传播

  接下来,我们来推导一下深层神经网络的正向传播过程。仍以上面讲过的4层神经网络为例,对于单个样本:

  如果有m个训练样本,其向量化矩阵形式为:

  综上所述, 对于第 l l l 层, 其正向传播过程的 Z [ l ] Z^{[l]} Z[l] A [ l ] A^{[l]} A[l] 可以表示为:
Z [ l ] = W [ l ] A [ l − 1 ] + b [ l ] A [ l ] = g [ l ] ( Z [ l ] ) \\begin{gathered} Z^{[l]}=W^{[l]} A^{[l-1]}+b^{[l]} \\\\ A^{[l]}=g^{[l]}\\left(Z^{[l]}\\right) \\end{gathered} Z[l]=W[l]A[l1]+b[l]A[l]=g[l](Z[l])  其中 l = 1 , ⋯   , L 。 l=1, \\cdots, L。 l=1,,L

3. 核对矩阵的维数


4. 为什么使用深层表示?

  在图像处理领域,深层神经网络随着层数由浅到深,神经网络提取的特征也是从边缘到局部特征到整体,由简单到复杂。如果隐藏层足够多,那么能够提取的特征就越丰富、越复杂,模型的准确率就会越高。

  在语音识别领域,浅层的神经元能够检测一些简单的音调,然后较深的神经元能够检测出基本的音素,更深的神经元就能够检测出单词信息。如果网络够深,还能对短语、句子进行检测。

  除了从提取特征复杂度的角度来说明深层网络的优势之外,深层网络还有另外一个优点,就是能够减少神经元个数,从而减少计算量。

5. 前向传播和反向传播

前向传播: