tf.nn.softmax 分类

Posted smallredness

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tf.nn.softmax 分类相关的知识,希望对你有一定的参考价值。

tf.nn.softmax(logits,axis=None,name=None,dim=None)
参数:
logits:一个非空的Tensor。必须是下列类型之一:half, float32,float64
axis:将在其上执行维度softmax。默认值为-1,表示最后一个维度
name:操作的名称(可选)
dim:axis的已弃用的别名

返回:
一个Tensor,与logits具有相同的类型和shape

sample

import tensorflow as tf

#tf.enable_eager_execution()
tf.compat.v1.enable_eager_execution()

ones = tf.ones(shape=[2,3])
print(ones)

temp1 = tf.nn.softmax(ones,axis=0) # 列
print(temp1)

temp2 = tf.nn.softmax(ones,axis=1) # 行
print(temp2)

output

tf.Tensor(
[[1. 1. 1.]
 [1. 1. 1.]], shape=(2, 3), dtype=float32)
tf.Tensor(
[[0.5 0.5 0.5]
 [0.5 0.5 0.5]], shape=(2, 3), dtype=float32)
tf.Tensor(
[[0.33333334 0.33333334 0.33333334]
 [0.33333334 0.33333334 0.33333334]], shape=(2, 3), dtype=float32)

以上是关于tf.nn.softmax 分类的主要内容,如果未能解决你的问题,请参考以下文章

tensorflow log_softmax tf.nn.log(tf.nn.softmax(predict)) tf.nn.softmax_cross_entropy_with_logits

tensorflow-tf.nn.softmax,tf.nn.sparse_softmax_cr

深度学习中分类任务的损失函数详解

深度学习中分类任务的损失函数详解

深度学习中分类任务的损失函数详解

tf.nn.softmax