TensorFlow实现Softmax
Posted mydream6
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了TensorFlow实现Softmax相关的知识,希望对你有一定的参考价值。
我们先来理解理解Softmax:任意事件发生的概率都在 0 和 1 之间,且总有某一个事件发生 (概率的和为 1 )。如果将分类问题中“ 一个样例属于某一个类别”看成一个概率事件,
那么训练数据的正确答案就符合一个概率分布。因为事件“一个样例属于不正确的类别”的概率为0,
而“ 一个样例属于正确的类别”的概率为 1。如何将神经网络前向传播得到的结果也变成
概率分布呢? Softmax 回归就是一个非常常用的方法 。
Softmax 回归本身可以作为 一个学习算法来优化分类结果,但在TensorFlow中, softmax
回归的参数被去掉了,它只是一层额外的处理层,将神经网络的输出变成一个概率分布 。 总结:softmax就是把输出结果变成概率分布。
TensorFlow实现Softmax:result = tf.nn.softmax( tf.matmul(x,w)+b ),其中 tf.matmul(x,w)+b为神经网络的输出结果。
以上是关于TensorFlow实现Softmax的主要内容,如果未能解决你的问题,请参考以下文章
TensorFlow从0到1之TensorFlow多层感知机实现MINIST分类(22)
TensorFlow从0到1之TensorFlow多层感知机实现MINIST分类(22)
资源 | 数十种TensorFlow实现案例汇集:代码+笔记