tf.nn.softmax

Posted elitphil

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tf.nn.softmax相关的知识,希望对你有一定的参考价值。

tf.nn.softmax(
    logits,
    axis = None,
    name = None
    dim = None
)
  • 作用:softmax函数的作用就是归一化。
  • 输入:全连接层(往往是模型的最后一层)的值,一般代码中叫做logits
  • 输出:归一化的值,含义是属于该位置的概率,一般代码叫做probs,例如输出[0.4, 0.1, 0.2, 0.3],那么这个样本最可能属于第0个位置,也就是第0类。这是由于logits的维度大小就设定的任务的类别,所以第0个位置就代表第0类。softmax函数的输出不改变维度的大小。
  • 用途:如果做单分类的问题,那么输出的值就取top1(最大, argmax); 如果做多分类问题,那么输出的值就取topN

例子:

技术图片

 

 输出:

技术图片

 

从结果中分析出array最有可能属于第0类(一共四类)

 

如果想进一步了解softmax的原理,可以参考这篇文章:https://zhuanlan.zhihu.com/p/93054123

以上是关于tf.nn.softmax的主要内容,如果未能解决你的问题,请参考以下文章

tensorflow-tf.nn.softmax,tf.nn.sparse_softmax_cr

tf.nn.softmax 分类

tf.nn.softmax_cross_entropy_with_logits

关于 tf.nn.softmax_cross_entropy_with_logits_v2

tf.nn.softmax_cross_entropy_with_logits的用法

tensorflow中四种不同交叉熵函数tf.nn.softmax_cross_entropy_with_logits()