使用 Scikit-Learn 计算平均 AUC 的差异

Posted

技术标签:

【中文标题】使用 Scikit-Learn 计算平均 AUC 的差异【英文标题】:Difference in calculating mean AUC using Scikit-Learn 【发布时间】:2017-03-20 20:25:18 【问题描述】:

我有以下代码:

from sklearn import svm, datasets
from sklearn.metrics import roc_curve, auc
from sklearn.model_selection import StratifiedKFold, cross_val_score
import numpy as np
from scipy import interp

seed = 7
np.random.seed(seed)

iris = datasets.load_iris()
X = iris.data
y = iris.target
X, y = X[y != 2], y[y != 2]
n_samples, n_features = X.shape

# Add noisy features
random_state = np.random.RandomState(0)
X = np.c_[X, random_state.randn(n_samples, 200 * n_features)]

cv = StratifiedKFold(n_splits=10)
classifier = svm.SVC(kernel='linear', probability=True, random_state=seed)

mean_tpr = 0.0
mean_fpr = np.linspace(0, 1, 100)

i= 0
for train, test in cv.split(X, y):
    probas_ = classifier.fit(X[train], y[train]).predict_proba(X[test])
    # Compute ROC curve and area the curve
    fpr, tpr, thresholds = roc_curve(y[test], probas_[:, 1])
    mean_tpr += interp(mean_fpr, fpr, tpr)
    mean_tpr[0] = 0.0
    roc_auc = auc(fpr, tpr)

    i += 1


mean_tpr /= cv.get_n_splits(X, y)
mean_tpr[-1] = 1.0
mean_auc_1 = auc(mean_fpr, mean_tpr)
print "#--- Method 1 to calculate mean AUC ---"
print mean_auc_1


print "#--- Method 2 to calculate mean AUC ---"
results = cross_val_score(classifier, X, y, cv=cv)
mean_auc_2 =  ":.3f".format(results.mean())
print mean_auc_2

它产生以下结果:

#--- Method 1 to calculate mean AUC ---
0.801818181818
#--- Method 2 to calculate mean AUC ---
0.700

计算平均AUC的方法1是通过this Scikit Tutorial建议的循环。 方法 2 使用 Scikit 的内置 cross_val_score() 方法计算平均 AUC。

我的问题是,为什么会有差异?我应该相信哪个意思的 AUC? 我应该如何修改方法2,以使结果与方法1相同?

我正在使用这个版本的 Scikit-Learn:

In [442]: sklearn.__version__
Out[442]: '0.18'

【问题讨论】:

【参考方案1】:

您的第二个示例没有 auc 计算。 您应该添加自定义评分功能。请参阅cross_val_score 的 api。

您只是在计算平均准确度。这通常是用于classifier 的标准评分函数。您可以在documentation 中查看 svm 的标准评分函数

类似的东西

cross_val_score(classifier, X, y, cv=cv, scoring='roc_auc')

应该工作

【讨论】:

谢谢。你能给出示例代码吗?我应该如何修改方法2,使结果与方法1相同? 这就是他们在第一种方法中所做的 @neversaint,不,没有必要。您可以定义自定义评分函数或使用我更新示例中的选项。 我也有同样的差异。当您取消注释 mean_tpr[0] = 0.0 时,您会得到更接近的 0.80444444。可能在 for 循环周围的代码中存在一些小问题 检查我的答案:您正在计算准确度,这是分类器的标准指标。

以上是关于使用 Scikit-Learn 计算平均 AUC 的差异的主要内容,如果未能解决你的问题,请参考以下文章

Scikit-learn 和 Yellowbrick 给出不同的分数

VotingClassifier 中的 roc_auc,scikit-learn (sklearn) 中的 RandomForestClassifier

python计算auc指标

python计算auc指标

计算auc的代码-python

使用 scikit-learn SVM 将预测标记为概率分数预测/AUC