深度学习吴恩达网易公开课练习(class2 week1 task2 task3)

Posted 匡子语

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习吴恩达网易公开课练习(class2 week1 task2 task3)相关的知识,希望对你有一定的参考价值。

正则化

定义:正则化就是在计算损失函数时,在损失函数后添加权重相关的正则项。
作用:减少过拟合现象
正则化有多种,有L1范式,L2范式等。一种常用的正则化公式
\[J_{regularized} = \small \underbrace{-\frac{1}{m} \sum\limits_{i = 1}^{m} \large{(}\small y^{(i)}\log\left(a^{[L](i)}\right) + (1-y^{(i)})\log\left(1- a^{[L](i)}\right) \large{)} }_\text{cross-entropy cost} + \underbrace{\frac{1}{m} \frac{\lambda}{2} \sum\limits_l\sum\limits_k\sum\limits_j W_{k,j}^{[l]2} }_\text{L2 regularization cost}\]
使用正则化,需要分别在计算损失函数和反向传播计算导数时做相应的修改。
上述正则化对应的反向传播公式需添加一项:
\[\frac{d}{dW} ( \frac{1}{2}\frac{\lambda}{m} W^2) = \frac{\lambda}{m} W\]

dropout

梯度校验

以上是关于深度学习吴恩达网易公开课练习(class2 week1 task2 task3)的主要内容,如果未能解决你的问题,请参考以下文章

深度学习吴恩达网易公开课练习(class1 week2)

吴恩达《深度学习》第一门课深度学习引言

吴恩达深度学习网课

斯坦福吴恩达教授机器学习公开课第二讲笔记——有/无监督学习+线性回归

斯坦福吴恩达教授机器学习公开课第四讲笔记——牛顿方法/广义线性模型

斯坦福公开课-机器学习2.监督学习应用-梯度下降(吴恩达 Andrew Ng)