标签平滑(label smoothing)的通俗理解

Posted whustczy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了标签平滑(label smoothing)的通俗理解相关的知识,希望对你有一定的参考价值。

具体公式和思想可以看

https://www.cnblogs.com/itmorn/p/11254448.html

先说结果:label平滑可以减小过拟合

  说白了,这个平滑就是一定程度缩小label中min和max的差距。损失函数实际上就是鼓励模型去接近对应的label,越接近loss越小,巴不得label为1的时候output是0.999。。。

但是这样真的好吗?或者说,是不是太过了,尤其针对像交叉熵这类loss,一旦output有些偏差,loss值就往无穷大走了,就逼迫模型去接近真实的label。

  万一好不容易接近label了,结果这条training data还是错的(是很有可能的),或者training data并没有完整覆盖所有类型,那就必须过拟合了,好比拼命学会的公式如果本来就是错的,或者你做了100道学习三角函数的题目,结果就做了2题几何题,那等你考试(test data)时候遇到几何题老想着把三角函数思想带入,那肯定得崩。

  所以,适当调整label,让两端的极值往中间凑凑,可以增加泛化性能

  对于DL:过犹不及,90就优秀了,为啥还要追求100?

 

以上是关于标签平滑(label smoothing)的通俗理解的主要内容,如果未能解决你的问题,请参考以下文章

深度学习面试题28:标签平滑(Label smoothing)

InceptionV3----Label Smoothing

a标签平滑滚动加偏移

a标签平滑滚动加偏移

通俗理解交叉熵和KL散度(包括标签平滑的pytorch实现)

通俗理解交叉熵和KL散度(包括标签平滑的pytorch实现)