NLP教程:啥是范数(norm)?以及L1,L2范数的简单介绍
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了NLP教程:啥是范数(norm)?以及L1,L2范数的简单介绍相关的知识,希望对你有一定的参考价值。
参考技术A范数,是具有“距离”概念的函数 。我们知道距离的定义是一个宽泛的概念,只要满足 非负、自反、三角不等式就可以称之为距离。范数是一种强化了的距离概念 ,它在定义上比距离多了一条 数乘 的运算法则。有时候为了便于理解,我们可以把范数当作距离来理解。
在数学上,范数包括向量范数和矩阵范数,向量范数表征向量空间中向量的大小,矩阵范数表征矩阵引起变化的大小。一种非严密的解释就是,对应向量范数,向量空间中的向量都是有大小的,这个大小如何度量,就是用范数来度量的,不同的范数都可以来度量这个大小,就好比米和尺都可以来度量远近一样;对于矩阵范数,学过线性代数,我们知道,通过运算AX=B,可以将向量X变化为B,矩阵范数就是来度量这个变化大小的。
这里简单地介绍以下几种向量范数的定义和含义
2、L0范数
当P=0时,也就是L0范数,由上面可知, L0范数并不是一个真正的范数 ,它主要被用来度量向量中非零元素的个数。用上面的L-P定义可以得到的L-0的定义为:
这里就有点问题了,我们知道非零元素的零次方为1,但零的零次方,非零数开零次方都是什么鬼,很不好说明L0的意义,所以在通常情况下,大家都用的是:
表示向量x中非零元素的个数。对于L0范数,其优化问题为:
在实际应用中,由于L0范数本身不容易有一个好的数学表示形式,给出上面问题的形式化表示是一个很难的问题,故被人认为是一个NP难问题。所以在 实际情况中 , L0的最优问题会被放宽到L1或L2下的最优化。
3、L1范数
L1范数是我们经常见到的一种范数,它的定义如下:
表示向量x中非零元素的绝对值之和。
L1范数有很多的名字,例如我们熟悉的 曼哈顿距离、最小绝对误差 等。使用 L1范数可以度量两个向量间的差异,如绝对误差和(Sum of Absolute Difference) :
对于L1范数,它的优化问题如下:
由于L1范数的天然性质,对L1优化的解是一个稀疏解, 因此L1范数也被叫做稀疏规则算子 。 通过L1可以实现特征的稀疏,去掉一些没有信息的特征 ,例如在对用户的电影爱好做分类的时候,用户有100个特征,可能只有十几个特征是对分类有用的,大部分特征如身高体重等可能都是无用的,利用L1范数就可以过滤掉。
4、L2范数
L2范数是我们最常见最常用的范数了,我们用的最多的度量 距离欧氏距离就是一种L2范数 ,它的定义如下:
表示向量元素的平方和再开平方。
像L1范数一样,L2也可以度量两个向量间的差异 ,如平方差和(Sum of Squared Difference):
对于L2范数,它的优化问题如下:
L2范数通常会被用来做优化目标函数的正则化项,防止模型为了迎合训练集而过于复杂造成过拟合的情况,从而提高模型的泛化能力 。
5、L ∞ 范数
当 p=∞时,也就是L ∞ 范数,它主要被用来 度量向量元素的最大值 ,与L0一样,通常情况下表示为
使用机器学习方法解决实际问题时,我们通常要用L1或L2范数做正则化(regularization),从而限制权值大小,减少过拟合风险。特别是在使用梯度下降来做目标函数优化时,
L1范数(L1 norm)是指向量中各个元素绝对值之和,也有个美称叫“ 稀疏规则算”(Lasso regularization )。
比如 向量A=[1,-1,3], 那么A的L1范数为 |1|+|-1|+|3|.
简单总结一下就是:
L1范数: 为x向量各个元素绝对值之和。
L2范数: 为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或者Frobenius范数
Lp范数: 为x向量各个元素绝对值p次方和的1/p次方.
L1正则化产生稀疏的权值, L2正则化产生平滑的权值为什么会这样?
在支持向量机学习过程中,L1范数实际是一种对于成本函数求解最优的过程,因此,L1范数正则化通过向成本函数中添加L1范数,使得学习得到的结果满足 稀疏化 ,从而方便提取特征。
L1范数可以使权值稀疏,方便特征提取。 L2范数可以防止过拟合,提升模型的泛化能力。
L1和L2正则先验分别服从什么分布
面试中遇到的,L1和L2正则先验分别服从什么分布,L1是拉普拉斯分布,L2是高斯分布。
“星空智能对话研学社”
以上是关于NLP教程:啥是范数(norm)?以及L1,L2范数的简单介绍的主要内容,如果未能解决你的问题,请参考以下文章
常见的一些范数及其应用场景,如L0,L1,L2,L∞,Frobenius范数