损失函数总结

Posted huangyc

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了损失函数总结相关的知识,希望对你有一定的参考价值。

1. 前言

在机器学习中,不同的问题对应了不同的损失函数,不同的损失函数也直接会影响到收敛的快慢和结果的好坏,下面就从不同的损失函数的角度进行一下梳理。

2. 0-1损失函数

0-1损失是指,预测值和目标值不相等为1,否则为0

3. log对数损失函数

逻辑回归的损失函数就是对数损失函数,在逻辑回归的推导中,它假设样本服从伯努利分布(0-1)分布,然后求得满足该分布的似然函数,接着用对数求极值。逻辑回归并没有求对数似然函数的最大值,而是把极大化当做一个思想,进而推导它的风险函数为最小化的负的似然函数。从损失函数的角度上,它就成为了log损失函数。
log损失函数的标准形式:

[ L(Y,P(Y|X))=-logP(Y|X) ]

4. 平方损失函数

最小二乘法是线性回归的一种方法,它将回归的问题转化为了凸优化的问题。最小二乘法的基本原则是:最优拟合曲线应该使得所有点到回归直线的距离和最小。通常用欧几里得距离进行距离的度量。平方损失的损失函数为:

[ L(Y|f(X))=sum_N(Y-f(X))^2 ]

5. 指数损失函数

AdaBoost就是一指数损失函数为损失函数的
指数损失函数的标准形式:

[ L(Y|f(X))=exp[-yf(x)] ]

6. Hinge损失函数(合页损失函数)

Hinge损失函数和SVM是息息相关的。在线性支持向量机中,最优化问题可以等价于

[ minsum_i^N(1-y_i(w^Tx_i+b))_++λ||w||^2 ]

7. 损失函数比较

技术分享图片

(欢迎转载,转载请注明出处。欢迎沟通交流: [email protected]

以上是关于损失函数总结的主要内容,如果未能解决你的问题,请参考以下文章

机器学习总结2 - 关于激活函数损失函数正则化异常检测算法总结

Pyotorch自定义损失函数

深度学习补充和总结

回归问题常用的损失函数总结

深度学习常见的损失函数

损失函数和分类器评估方法