为啥 scikit-learn SVM 分类器交叉验证这么慢?
Posted
技术标签:
【中文标题】为啥 scikit-learn SVM 分类器交叉验证这么慢?【英文标题】:Why is scikit-learn SVM classifier cross validation so slow?为什么 scikit-learn SVM 分类器交叉验证这么慢? 【发布时间】:2018-10-17 09:54:07 【问题描述】:我正在尝试在我拥有的数据集上比较多个分类器。为了获得分类器的准确准确度分数,我现在对每个分类器执行 10 倍交叉验证。除了 SVM(线性和 rbf 内核)之外,这对所有这些都很好。数据是这样加载的:
dataset = pd.read_csv("data/distance_annotated_indels.txt", delimiter="\t", header=None)
X = dataset.iloc[:, [5,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26]].values
y = dataset.iloc[:, 4].values
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)
例如随机森林的交叉验证可以正常工作:
start = time.time()
classifier = RandomForestClassifier(n_estimators = 100, criterion = 'entropy')
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
cv = ShuffleSplit(n_splits=10, test_size=0.2)
scores = cross_val_score(classifier, X, y, cv=10)
print(classification_report(y_test, y_pred))
print("Random Forest accuracy after 10 fold CV: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2) + ", " + str(round(time.time() - start, 3)) + "s")
输出:
precision recall f1-score support
0 0.97 0.95 0.96 3427
1 0.95 0.97 0.96 3417
avg / total 0.96 0.96 0.96 6844
Random Forest accuracy after 10 fold CV: 0.92 (+/- 0.06), 90.842s
但是对于 SVM,这个过程需要很长时间(等待了 2 个小时,仍然没有结果)。 sklearn 网站并没有让我变得更聪明。对于 SVM 分类器,我应该做些什么不同的事情吗? SVM代码如下:
start = time.time()
classifier = SVC(kernel = 'linear')
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
scores = cross_val_score(classifier, X, y, cv=10)
print(classification_report(y_test, y_pred))
print("Linear SVM accuracy after 10 fold CV: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2) + ", " + str(round(time.time() - start, 3)) + "s")
【问题讨论】:
另外,首先要标准化您的数据。SVM 可以很好地处理标准化数据。 【参考方案1】:如果您有大量样本,问题的计算复杂性会妨碍您,请参阅Training complexity of Linear SVM。
考虑使用cross_val_score
的verbose
标志来查看有关进度的更多日志。此外,将n_jobs
设置为> 1 的值(或者甚至使用所有CPU 并将n_jobs
设置为-1,如果内存允许),您可以通过并行化加速计算。 http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.cross_val_score.html 可用于评估这些选项。
如果性能不佳,我会考虑降低 cv
的值(有关此问题的讨论,请参阅 https://stats.stackexchange.com/questions/27730/choice-of-k-in-k-fold-cross-validation)
【讨论】:
【参考方案2】:您还可以通过更改 max_iter 来控制时间。如果它设置为 -1,它可以根据解决方案空间永远存在。设置一些整数值,比如 10000 作为停止标准。
【讨论】:
【参考方案3】:或者,您可以尝试使用优化的 SVM 实现 - 例如使用 scikit-learn-intelex - https://github.com/intel/scikit-learn-intelex
第一个安装包
pip install scikit-learn-intelex
然后添加你的python脚本
from sklearnex import patch_sklearn
patch_sklearn()
【讨论】:
以上是关于为啥 scikit-learn SVM 分类器交叉验证这么慢?的主要内容,如果未能解决你的问题,请参考以下文章