机器学习正则化(L1正则化L2正则化)

Posted 小葵花幼儿园园长

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习正则化(L1正则化L2正则化)相关的知识,希望对你有一定的参考价值。

正则化

正则化

1. 正则化介绍

正则化 (Regularization)

正则化是什么?

  • 正则化(Regularization)是一类通过限制模型复杂度,从而避免过拟合,提高泛化能力的方法

PS(
传统的机器学习中,提高泛化能力的方法主要是限制模型复杂度,比如采用ℓ1 和ℓ2 正则化等方式.

在训练深度神经网络时,特别是在过度参数化(Over-Parameterization)时,ℓ1 和ℓ2 正则化的效果往往不如浅层机器学习模型中显著.

过度参数化是指模型参数的数量远远大于训练数据的数量.因此训练深度学习模型时,往往还会使用其他的正则化方法,比如数据增强、提前停止、丢弃法、集成法等.
)

正则化干什么用?

  • 要让AI模型不过于信赖样本数据
  • 是的函数更加平滑,防止模型过拟合

小结:

为什么要正则化:让模型不要过于依赖样本数据
正则化主要思想:降低模型的复杂度
正则化主要目的:防止模型过拟合
正则化实现思路:最小化损失Loss+ 最小复杂度
正则化终极目标:提升模型泛化Generalization的能力

2. 常见正则化方法

正则化有不同的策略,目前来讲主要有参数正则化、经验正则化

参数正则的L2/L1 Regularization 范数正则化目前用的是最多的

正则化目的:对损失函数加上一个约束(也叫惩罚项),减小其解的范围

2.1 0范数

概念: L0范数是指向量中非0的元素的个数。

2.2 L1范数

概念: L1范数是指向量中各个元素绝对值之和。

对于向量:

对于矩阵:

特点:

  • ℓ1 范数.ℓ1 范数的引入通常会使得参数有一定稀疏性
  • 缺点:优化的慢

2.3 L2范数

概念: L2范数是指向量各元素的平方和然后求平方根。

对于向量:

对于矩阵:

特点:

  • 相对于L1正则化,L2正则化收敛的更加快一点。
  • L2 正则化能够得到比较小的参数,小到可以被忽略,但是无法小到0,也就不具有稀疏性

2.4 q-范数

概念: 向量元素绝对值的q次幂的累加和再1/q次幂

小结

不同范数q对应的曲线 :

对应三维图:

以上是关于机器学习正则化(L1正则化L2正则化)的主要内容,如果未能解决你的问题,请参考以下文章

机器学习中L1,L2正则化项

机器学习中L1正则化和L2正则化是什么?区别是什么?

机器学习100天(二十四):024 L1L2正则化

机器学习100天(二十四):024 L1L2正则化

L1、L2正则化

深度学习L1正则化和L2正则化