神经网络优化 - 正则化

Posted gengyi

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了神经网络优化 - 正则化相关的知识,希望对你有一定的参考价值。

---恢复内容开始---

在机器学习中,有时候我们基于一个数据集训练的模型对该模型的正确率非常高,而该模型对没有见过的数据集很难做出正确的响应;那么这个模型就存在过拟合现象。

为了缓解或避免过拟合现象,我们通常用的方法是采用正则化方法(Regularization)。

1 正则化基本理解

1.1 正则化公式的引入

 正则化在损失函数中引入模型复杂度指标,利用给W加权值,弱化了训练数据的噪声(注:一般不正则化 b,仅正则化 w

 

技术分享图片

1.2 loss(w)函数的两种表述方式

# 表达方式1
loss(w) = tf.contrib.l1_regularizer(regularizer)(w)
# 表达方式2
loss(w) = tf.contrib.l2_regularizer(regularizer)(w)

其对应的数学表达式为

技术分享图片

 将正则化计算好的 w 添加到 losses 中

 

 

技术分享图片

 

 

 

 

 

 

---恢复内容结束---

以上是关于神经网络优化 - 正则化的主要内容,如果未能解决你的问题,请参考以下文章

第九节,改善深层神经网络:超参数调试正则化以优化(下)

改善深层神经网络:超参数调试正则化及优化

第十一节,全连接网络中的优化技巧-正则化,dropout等

神经网络中的损失函数正则化和 Dropout 并手写代码实现

人脸神经网络及算法整理

TensorFlow(三)---------正则化