cross-entropy(交叉熵)是什么?用了表征什么东西?

Posted Data+Science+Insight

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了cross-entropy(交叉熵)是什么?用了表征什么东西?相关的知识,希望对你有一定的参考价值。

cross-entropy(交叉熵)是什么?用了表征什么东西?

 

一句话概括:softmax把分类输出标准化成概率分布,cross-entropy(交叉熵)刻画预测分类和真实结果之间的相似度(只不过用距离来刻画相似)。

 

cross-entropy 不是机器学习独有的概念,本质上是用来衡量两个概率分布的相似性的。

 

softmax 和 cross-entropy 本来没有太大的关系,只是把两个放在一起实现的话,算起来更快,也更数值稳定。同理sigmoid+cross-entropy

 

理解推到下一下softmax具体公式,可知,多分类简化成二分类时候softmax公式就转化为sigmoid公式,损失函数由cross entropy 转化为binary cross entropy的形式。

 

交叉熵损失是分类任务中的常用损失函数,但是是否注意到二分类与多分类情况下的交叉熵形式上的不同呢?

 

相对熵(relative entropy)又称为KL散度(Kullback-Leibler divergence),KL距离

以上是关于cross-entropy(交叉熵)是什么?用了表征什么东西?的主要内容,如果未能解决你的问题,请参考以下文章

交叉熵(cross-entropy)探讨

彻底理解 softmax、sigmoid、交叉熵(cross-entropy)

sklearn基于make_scorer函数为Logistic模型构建自定义损失函数+代码实战(二元交叉熵损失 binary cross-entropy loss)

[Reinforcement Learning] Cross-entropy Method

二次代价函数交叉熵(cross-entropy)对数似然代价函数(log-likelihood cost)

机器学习基础熵KL散度交叉熵