为啥 scikit-learn SVM 分类器交叉验证这么慢?

Posted

技术标签:

【中文标题】为啥 scikit-learn SVM 分类器交叉验证这么慢?【英文标题】:Why is scikit-learn SVM classifier cross validation so slow?为什么 scikit-learn SVM 分类器交叉验证这么慢? 【发布时间】:2018-10-17 09:54:07 【问题描述】:

我正在尝试在我拥有的数据集上比较多个分类器。为了获得分类器的准确准确度分数,我现在对每个分类器执行 10 倍交叉验证。除了 SVM(线性和 rbf 内核)之外,这对所有这些都很好。数据是这样加载的:

dataset = pd.read_csv("data/distance_annotated_indels.txt", delimiter="\t", header=None)

X = dataset.iloc[:, [5,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26]].values
y = dataset.iloc[:, 4].values

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)

from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)

例如随机森林的交叉验证可以正常工作:

start = time.time()
classifier = RandomForestClassifier(n_estimators = 100, criterion = 'entropy')
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
cv = ShuffleSplit(n_splits=10, test_size=0.2)
scores = cross_val_score(classifier, X, y, cv=10)
print(classification_report(y_test, y_pred))
print("Random Forest accuracy after 10 fold CV: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2) + ", " + str(round(time.time() - start, 3)) + "s")

输出:

             precision    recall  f1-score   support

          0       0.97      0.95      0.96      3427
          1       0.95      0.97      0.96      3417

avg / total       0.96      0.96      0.96      6844

Random Forest accuracy after 10 fold CV: 0.92 (+/- 0.06), 90.842s

但是对于 SVM,这个过程需要很长时间(等待了 2 个小时,仍然没有结果)。 sklearn 网站并没有让我变得更聪明。对于 SVM 分类器,我应该做些什么不同的事情吗? SVM代码如下:

start = time.time()
classifier = SVC(kernel = 'linear')
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
scores = cross_val_score(classifier, X, y, cv=10)
print(classification_report(y_test, y_pred))
print("Linear SVM accuracy after 10 fold CV: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2) + ", " + str(round(time.time() - start, 3)) + "s")

【问题讨论】:

另外,首先要标准化您的数据。SVM 可以很好地处理标准化数据。 【参考方案1】:

如果您有大量样本,问题的计算复杂性会妨碍您,请参阅Training complexity of Linear SVM。

考虑使用cross_val_scoreverbose 标志来查看有关进度的更多日志。此外,将n_jobs 设置为> 1 的值(或者甚至使用所有CPU 并将n_jobs 设置为-1,如果内存允许),您可以通过并行化加速计算。 http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.cross_val_score.html 可用于评估这些选项。

如果性能不佳,我会考虑降低 cv 的值(有关此问题的讨论,请参阅 https://stats.stackexchange.com/questions/27730/choice-of-k-in-k-fold-cross-validation)

【讨论】:

【参考方案2】:

您还可以通过更改 max_iter 来控制时间。如果它设置为 -1,它可以根据解决方案空间永远存在。设置一些整数值,比如 10000 作为停止标准。

【讨论】:

【参考方案3】:

或者,您可以尝试使用优化的 SVM 实现 - 例如使用 scikit-learn-intelex - https://github.com/intel/scikit-learn-intelex

第一个安装包

pip install scikit-learn-intelex

然后添加你的python脚本

from sklearnex import patch_sklearn
patch_sklearn()

【讨论】:

以上是关于为啥 scikit-learn SVM 分类器交叉验证这么慢?的主要内容,如果未能解决你的问题,请参考以下文章

如何进行交叉验证 SVM 分类器

Python scikit-learn SVM 分类器“ValueError:找到昏暗 3 的数组。预期 <= 2”

在 Scikit-Learn 分类器上使用交叉验证

如何使用 SIFT 和 SVM 实现通用图像分类器

scikit-learn 中自定义内核 SVM 的交叉验证

在 MapReduce 中组合 SVM 分类器