sigmoid 和 soft-max总结

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了sigmoid 和 soft-max总结相关的知识,希望对你有一定的参考价值。

1)sigmoid函数(也叫逻辑斯谛函数): 
     

        引用wiki百科的定义:

  A logistic function or logistic curve is a common “S” shape (sigmoid curve).

  其实逻辑斯谛函数也就是经常说的sigmoid函数,它的几何形状也就是一条sigmoid曲线。

                                                

                                                         技术分享

  logistic曲线如下: 
  技术分享

 

2)softmax函数的定义:

      softmax is a generalization of logistic function that “squashes”(maps) a K-dimensional vector z of arbitrary real values to a K-dimensional vector σ(z) of real values in the range (0, 1) that add up to 1.  

     这句话既表明了softmax函数与logistic函数的关系,

     也同时阐述了softmax函数的本质就是将一个K 维的任意实数向量压缩(映射)成另一个K维的实数向量,其中向量中的每个元素取值都介于(0,1)之间。

 softmax函数形式如下: 
                                                      技术分享

总结:   sigmoid将一个real value映射到(0,1)的区间(当然也可以是(-1,1)),这样可以用来做二分类。 
                而softmax把一个k维的real value向量(a1,a2,a3,a4….)映射成一个(b1,b2,b3,b4….)其中bi是一个0-1的常数,然后可以根据bi的大小来进行多分类的任务,如取权重最大的一维。 
  






以上是关于sigmoid 和 soft-max总结的主要内容,如果未能解决你的问题,请参考以下文章

Sigmoid函数总结

神经网络中激活函数总结

NNDL第三次作业

激活函数总结

sigmoid的通俗理解

神经网络与深度学习 作业3:分别使用numpy和pytorch实现FNN例题