Logstic与Softmax比较

Posted Data+Science+Insight

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Logstic与Softmax比较相关的知识,希望对你有一定的参考价值。

Logstic与Softmax比较

 

联系

对于Softmax回归当分类数目k=2的时候,Softmax将会退化为Logistic回归,则其概率函数可以描述为。 

区别:

(1)对于分类中存在概念交叉的分类,使用多个Logistic回归;

(2)对于分类中不存在概念交叉的分类,使用多分类的Softmax回归;

 

Softmax回归用于处理多分类问题,是Logistic回归的一种推广。这两种回归都是用回归的思想处理分类问题。这样做的一个优点就是输出的判断为概率值,便于直观理解和决策。

 

 

上面一句话可谓是精辟,Softmax回归是logistics回归在多分类问题上的推广。max就是比较大小取大呗,但是有时不能直接取,不然会造成分值小的饥饿,怎么解决,也要雨露均沾,经常取大的,偶尔取小的就好了,概率和大小有关这也就是为啥是soft max。

softmax = soft + max

 

Softmax回归具体的典型实例就是MNIST手写数字分类(关于Softmax部分)

这个函数在

以上是关于Logstic与Softmax比较的主要内容,如果未能解决你的问题,请参考以下文章

softmax数值溢出 与 softmax-loss问题

softmax与CrossEntropyLoss(),log_softmax与 NLLLoss()

softmax与CrossEntropyLoss(),log_softmax与 NLLLoss()

softmax与CrossEntropyLoss(),log_softmax与 NLLLoss()

softmax与CrossEntropyLoss(),log_softmax与 NLLLoss()

机器学习中的损失函数 (着重比较:hinge loss vs softmax loss)