浅析L2参数正则化的数学含义

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了浅析L2参数正则化的数学含义相关的知识,希望对你有一定的参考价值。

参考技术A (L2正则化就是在原目标函数J中添加一个二次正则项(即下式等号右边第二项)(为简化分析,本文假设偏置项全为零,那么参数仅剩权重):

记原目标函数J的最优点是:

,则原目标函数J可在该点用二次多项式近为:

其中H表示J的Hessian矩阵,可以看到上式没有一阶项,这是因为原目标函数在最优点的一阶导等于零。同理,正则化后的目标函数在该点二阶近似的表达式是:

记正则化后的目标函数的最优点是:

应该满足,正则化后的目标函数在该点的一阶导数等于零,即以上二次近似式在最优点的一阶导等于零:

因此,L2正则化之后的最优点是:

上式表达了L2正则化前后最优点之间的关系,但物理意义还不是很明显。注意到H矩阵是实对称矩阵,可以分解为一个对角矩阵和一组特征向量构成的标准正交基:

将上式带入上上式,得到:

由上式,可以看出: L2正则化相当于沿着H矩阵特征向量所定义的方向对原最优点进行缩放 ,缩放因子为:

可见特征值越大,缩放影响越小;特征值越小,缩放影响越大。那么这个缩放有什么意义呢?意义是:在显著减小目标函数的方向(对应较大的特征值)保留原参数;在无助于目标函数减小的方向(对应较小的特征值)上,尽量将相应的参数往0上靠近(即衰减掉)。这么处理,就将训练(参数寻优)的范围缩小了,不仅有效提升了训练效率,还避免了在小特征上耗费过多代价造成过拟合。

《深度学习》Ian Goodfellow等著,赵申剑等译.人民邮电出版社

理解平滑

平滑的目的也是正则化的目的之一,它是针对参数w而言,本质上就是要使得w的变化不要那么剧烈,有如下数学模型(假设最小化J):

技术图片

左侧是一个典型的线性回归模型,(xi,yi)就是实际的观测值,w就是估计的参数,右侧就是一个正则化项。可以直观的感受到,正则化项实际上起到了限制参数w的“变化程度或变化幅值”的作用,具体来说,它可以令w的任何一个分量相比较于剩余分量变化程度保持一致,不至于出现变化特别明显的分量。直接的作用就是防止模型“过拟合”,提高了模型的泛化性能。关于这一点,具体请见http://blog.csdn.net/wsj998689aa/article/details/39547771

 

拉普拉斯平滑应用在正则化上的时候,往往被称做“拉普拉斯惩罚”,惩罚的参数是w

背景:机器学习中,大部分算法直接将图像(假设为M*N)按行或者列拉成向量,这样肯定会损失结构化信息。结构化信息是指,一个像素本来和它周围8个像素都有关系,你直接给拉成向量了,那么这种关系就直接被你给毁掉了,这就叫空间结构信息。这种信息属于先验信息,NFL定理说的很清楚:能够尽可能利用先验信息的学习算法才是好算法。看来,空间结构信息的破坏,会降低算法的”品味“。此时,拉普拉斯惩罚会帮助找回品味。一幅图像拉成向量x(M*N维),如果我们要通过拉普拉斯惩罚,补偿x上失去的结构信息。很简单,如下式:
技术图片

那个乘法是Kronecke积,相当于将乘号右边的每个元素替换成为左边矩阵数乘对应元素,如果A是一个 m x n 的矩阵,而B是一个 p x q 的矩阵,克罗内克积则是一个 mp x nq 的矩阵。

上述公式实际上起到的效果是,求一个矩阵中每个元素的水平方向和垂直方向的二阶差分之和,这个矩阵在这里可以被看错参数w的矩阵形式(按列reshape)。进一步,如果对一个线性回归模型加上拉普拉斯惩罚,模型就会变为如下形式:

技术图片

拉普拉斯惩罚使得模型更加平滑,比简单的2范数(岭回归)要好,因为它考虑了空间结构信息。常被用于PCA,LDA,LPP,NPE等子空间学习算法的改造上面,一般会使算法性能得到提升。

参考文献:Learning a Spatially Smooth Subspace for Face Recognition

 

原文:https://blog.csdn.net/wsj998689aa/article/details/40303561 

 


以上是关于浅析L2参数正则化的数学含义的主要内容,如果未能解决你的问题,请参考以下文章

L1正则化和L2正则化的区别

正则化项L1和L2的直观理解及L1不可导处理

L1正则化和L2正则化

L1范数与L2范数正则化

机器学习笔记:岭回归(L2正则化)

正则化——参数范数惩罚