softmax上溢和下溢

Posted yqpy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了softmax上溢和下溢相关的知识,希望对你有一定的参考价值。

很简单的一个问题,当softmax的变量过大或过小怎么办,比如

softmax([100,101,102])的结果是什么?

有一个方法计算上溢的情况,也就是每个变量都减去最大值,然后做softmax,

所以softmax([100,101,102])和softmax([-2,-1,0])是一样的结果;同样也适用于softmax([-100,-101,-102])的情况

还有一种方法是直接用log softmax

 

以上是关于softmax上溢和下溢的主要内容,如果未能解决你的问题,请参考以下文章

pytorch CrossEntropyLoss(), Softmax(), logSoftmax, NLLLoss

underflow overflow 下溢和上溢

最优化学习 数值优化的例子:实现最小二乘法

softmax数值溢出 与 softmax-loss问题

如何在 softmax 分数中添加阈值

如何防止softmax函数overflow和underflow?