scikit-learn - Explained_variance_score

Posted

技术标签:

【中文标题】scikit-learn - Explained_variance_score【英文标题】:scikit-learn - explained_variance_score 【发布时间】:2013-08-20 12:27:45 【问题描述】:

我正在使用 scikit-learn 构建一个样本分类器,该分类器由 svm 训练和测试。现在我想分析分类器并找到explained_variance_score 但我不明白这个分数。例如,我得到了 clf 的分类报告,它看起来像这样......

             precision    recall  f1-score   support

        0.0       0.80      0.80      0.80        10
        1.0       0.80      0.80      0.80        10

avg / total       0.80      0.80      0.80        20 

不错,但 EVS 只有 0.2...有时是 -0.X...所以这怎么会发生?拥有一个好的EVS重要吗?也许有人可以解释一下...

Y_true 和 Y_pred:

[ 1.  1.  1.  1.  1.  1.  1.  1.  1.  1.  0.  0.  0.  0.  0.  0.  0.  0.
  0.  0.]

[ 1.  1.  1.  1.  1.  0.  0.  1.  1.  1.  1.  0.  0.  0.  0.  0.  1.  0.
  0.  0.]

【问题讨论】:

你试过用谷歌搜索“解释的差异”吗? 【参考方案1】:

解释的方差是一个回归指标,这对于分类问题没有很好的定义,将其应用于此类测试是没有意义的。这是一种用于验证支持向量回归、线性回归等模型的方法。

【讨论】:

逻辑回归是一个分类模型,所以解释的_variance_score是不合适的;) 确实,从答案中删除了逻辑回归。 虽然这是一篇相当老的帖子,但我要补充一点,严格来说,逻辑回归是一种独立的回归算法,而不是分类。我会参考stats.stackexchange.com/questions/127042/…【参考方案2】:

explained_variance_score,EVS 告诉您模型解释了多少方差。最大值为一。 EVS 越高,您的模型越好。

【讨论】:

以上是关于scikit-learn - Explained_variance_score的主要内容,如果未能解决你的问题,请参考以下文章

Python: __new__ magic method explained

sklearn 中的因子分析:解释方差

NetBeans Lookups Explained!

The JVM Architecture Explained

回归评估+解释方差分

[转] Linux Asynchronous I/O Explained