机器学习中常见的损失函数

Posted AINotesClub

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习中常见的损失函数相关的知识,希望对你有一定的参考价值。

1月29日,外媒报道微软公开发行 DirectML 机器学习 API,微软预计约有超过2亿台设备可以使用DirectML API。可以预见,机器学习正在不知不觉间走进我们的生活。今天就来介绍一下机器学习中常见的损失函数。

损失函数是指导模型能够有效学习的基础,根据具体任务的不同可以选择或设计不同的损失函数,从而使模型可以从数据中学习到有价值的信息。今天先介绍两个常见的损失函数。

平方损失函数

平方损失函数的定义如下式所示:   这里的   是样本数量,它衡量的是模型预测的结果与标签之间的平方差,常用于回归类问题。

交叉熵损失函数

交叉熵,又称cross entropy损失,常用于分类问题中。实际问题中,分类模型通常输出的是类别的概率分布,而交叉熵衡量的是数据标签的真实分布与分类模型预测的概率分布之间的差异程度,损失值越小,它们之间的差异也就越小,模型就越能准确地进行类别预测。其离散的形式表示如下式:   其中,   和   分别表示数据标签的真实分布和模型预测给出的分布,   表示样本   标签的真实分布。上式可以简化为:

 这里的   即为样本所属的某个类别。

对于二分类来说,目标值只可能是1或0,那么我们就可以得到其逻辑回归的损失函数,也称为二元交叉熵损失:   好了,这里介绍了两个机器学习中特别常用的损失函数,之后的内容更精彩~

码字不易,欢迎关注AINotesClub

以上是关于机器学习中常见的损失函数的主要内容,如果未能解决你的问题,请参考以下文章

从损失函数的角度详解常见机器学习算法

机器学习中的损失函数(Loss Function)介绍说明

机器学习基础常见二分类损失函数距离度量的Python实现

机器学习中常见优化方法汇总

机器学习算法面试为什么逻辑回归的损失函数是交叉熵?

机器学习SVM函数