TensorFlow 的softmax实例理解

Posted 今夜无风

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了TensorFlow 的softmax实例理解相关的知识,希望对你有一定的参考价值。

  对于理论,简单的去看一下百度上的说明,这里直接上实例,帮助理解。

1 # softmax函数,将向量映射到0~1的范围内,P=exp(ax)/(sum(exp(a1x)+exp(a2x)+...))
2 inputdata = tf.Variable([[0.2, 0.1, 0.9]], dtype=np.float32)
3 output = tf.nn.softmax(inputdata)
4 with tf.Session() as sess:
5     sess.run(tf.global_variables_initializer())
6     print (sess.run(inputdata))
7     print (sess.run(output))

  输出:

[[ 0.2 0.1 0.89999998]]
[[ 0.25519383 0.23090893 0.51389724]]

以上是关于TensorFlow 的softmax实例理解的主要内容,如果未能解决你的问题,请参考以下文章

[03]tensorflow实现softmax回归(softmax regression)

如何在 tensorflow mnist_softmax.py 中打印张量的值

TensorFlow 训练 MNIST —— softmax 单层神经网络

tensorflow softmax应用

为啥 TensorFlow 的文档将 softmax 的输入称为“logits”?

TensorFlow 入门之手写识别(MNIST) softmax算法