回归与分类器 predict_proba

Posted

技术标签:

【中文标题】回归与分类器 predict_proba【英文标题】:Regression vs Classifier predict_proba 【发布时间】:2017-08-29 04:10:59 【问题描述】:

只是一个简单的问题,如果我想将对象分类为 0 或 1,但我希望模型返回一个“可能性”概率,例如,如果一个对象是 0.7,这意味着它有 0.7 的机会进入第 1 类,我是做回归还是坚持分类器并使用 predict_proba 函数?

regression 和 predict_proba 函数有何不同?

非常感谢任何帮助!

谢谢!

【问题讨论】:

回归(例如特征向量的一些线性函数)通过​​逻辑 sigmoid 函数给出与后验概率相关的连续值。 【参考方案1】:

一般来说,对于一个定性问题,即在类别或类之间进行分类,我们更喜欢分类。

例如:识别是晚上还是白天。

对于定量问题,我们更喜欢回归来解决问题。

例如:识别它是第 0 类还是第 1 类。

但在特殊情况下,当我们只有两个类时。然后,我们可以像您的情况一样使用分类和回归来解决两类问题。

请注意,这个解释是代表二类观点或多类问题。虽然回归是为了处理真正的定量问题而不是分类。

概率与方法无关。每种方法都推导出一个概率,并在此基础上预测结果。

您最好解释一下您对predict_proba 的引用 问题。

希望对你有帮助!

【讨论】:

【参考方案2】:

既然您提到了predict_probafunction,我假设您指的是 scikit-learn API。

要获得类成员概率,这是正确的函数。在逻辑回归的情况下,这个函数在某种程度上是自然输出。

您还应该检查probability calibration

【讨论】:

以上是关于回归与分类器 predict_proba的主要内容,如果未能解决你的问题,请参考以下文章

sklearn 分类器 - 最大化 auc 的 predict_proba 阈值

Sci-kit分类阈值

高斯贝叶斯分类器与逻辑回归的概率分类

为啥逻辑回归分类器的准确率与 k 近邻不同? [关闭]

创建分类器笔记

数据挖掘 GBDT面试题:其中基分类器CART回归树,节点的分裂标准是什么?与RF的区别?与XGB的区别?