深度学习之权重衰减——2020.27

Posted somedayli

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习之权重衰减——2020.27相关的知识,希望对你有一定的参考价值。

?????过拟合现象,即模型的训练误差远?于它在测试集上的误差。虽然增?训练数据集可能会减轻过拟合,但是获取额外的训练数据往往代价?昂。本节介绍应对过拟合问题的常??法:权重衰减(weight decay)。

一、方法

?????权重衰减等价于 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较?,是应对过拟合的常??段。我们先描述 范数正则化,再解释它为何?称权重衰减。
?????范数正则化在模型原损失函数基础上添加 范数惩罚项,从?得到训练所需要最?化的函数。 范数惩罚项指的是模型权重参数每个元素的平?和与?个正的常数的乘积。以3.1节(线性回归)中的线性回归损失函数

以上是关于深度学习之权重衰减——2020.27的主要内容,如果未能解决你的问题,请参考以下文章

深度学习之反向传播算法

深度学习之图像分类ResNet50学习

深度学习之初识篇——小白也能跑通的深度学习万能框架交通标识牌检测

机器学习之深度学习常用的模型和方法

深度学习之梯度下降法

深度学习之二:神经网络的实践与优化