softmax 归一化

Posted kuipertan

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了softmax 归一化相关的知识,希望对你有一定的参考价值。

在数学,尤其是概率论和相关领域中,归一化指数函数,或称Softmax函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量z“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1。该函数多于多分类问题中。

https://baike.baidu.com/item/%E5%BD%92%E4%B8%80%E5%8C%96%E6%8C%87%E6%95%B0%E5%87%BD%E6%95%B0/22660782?fr=aladdin

 

 

import math
 
= [1.02.03.04.01.02.03.0]
 
z_exp = [math.exp(i) for in z]  
 
print(z_exp)  # Result: [2.72, 7.39, 20.09, 54.6, 2.72, 7.39, 20.09] 
 
sum_z_exp = sum(z_exp)  
print(sum_z_exp)  # Result: 114.98 
# Result: [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]
 
softmax = [round(i / sum_z_exp, 3for in z_exp]
print(softmax)  
 

以上是关于softmax 归一化的主要内容,如果未能解决你的问题,请参考以下文章

归一化指数函数:softmax loss function

学习率衰减局部最优Batch归一化Softmax回归

学习率衰减局部最优Batch归一化Softmax回归

tf.nn.softmax

Tensorflow:权重衰减与 logits 归一化

如何在特定层 Keras 上进行范围归一化