深度学习吴恩达网易公开课练习(class2 week1)

Posted 匡子语

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习吴恩达网易公开课练习(class2 week1)相关的知识,希望对你有一定的参考价值。

权重初始化

参考资料:

  1. 知乎
  2. CSDN
  1. 权重初始化不能全部为0,不能都是同一个值。原因是,如果所有的初始权重是相同的,那么根据前向和反向传播公式,之后每一个权重的迭代过程也是完全相同的。结果就是,无论迭代多少次,这些权重都是一样的。
  2. 不可以初始化为较大的随机值。原因是在输出层的激活函数是sigmoid,当采用较大的值初始化权重后,sigmoid输入会是一个较大的值,结果就是对应的梯度很小,结果难以收敛。并且,由于sigmoid输入大,输出就会是一个接近0或1的值。在计算损失时,log(0) = 无穷大,导致损失函数结果接近inf
  3. 正确的初始化方法应该是,将权重初始化为随机值*\(\sqrt{\frac{2}{\text{dimension of the previous layer}}}\)("He Initialization"; this is named for the first author of He et al., 2015)

以上是关于深度学习吴恩达网易公开课练习(class2 week1)的主要内容,如果未能解决你的问题,请参考以下文章

深度学习吴恩达网易公开课练习(class1 week2)

吴恩达《深度学习》第一门课深度学习引言

吴恩达深度学习网课

斯坦福吴恩达教授机器学习公开课第二讲笔记——有/无监督学习+线性回归

斯坦福吴恩达教授机器学习公开课第四讲笔记——牛顿方法/广义线性模型

斯坦福公开课-机器学习2.监督学习应用-梯度下降(吴恩达 Andrew Ng)