神经网络优化 - 正则化
Posted gengyi
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了神经网络优化 - 正则化相关的知识,希望对你有一定的参考价值。
---恢复内容开始---
在机器学习中,有时候我们基于一个数据集训练的模型对该模型的正确率非常高,而该模型对没有见过的数据集很难做出正确的响应;那么这个模型就存在过拟合现象。
为了缓解或避免过拟合现象,我们通常用的方法是采用正则化方法(Regularization)。
1 正则化基本理解
1.1 正则化公式的引入
正则化在损失函数中引入模型复杂度指标,利用给W加权值,弱化了训练数据的噪声(注:一般不正则化 b,仅正则化 w )
1.2 loss(w)函数的两种表述方式
# 表达方式1 loss(w) = tf.contrib.l1_regularizer(regularizer)(w) # 表达方式2 loss(w) = tf.contrib.l2_regularizer(regularizer)(w)
其对应的数学表达式为
将正则化计算好的 w 添加到 losses 中
---恢复内容结束---
以上是关于神经网络优化 - 正则化的主要内容,如果未能解决你的问题,请参考以下文章