用于 SVR 回归的 Scikit Learn 包的问题

Posted

技术标签:

【中文标题】用于 SVR 回归的 Scikit Learn 包的问题【英文标题】:Issue with Scikit Learn Package for SVR Regression 【发布时间】:2016-08-27 16:21:17 【问题描述】:

我正在尝试使用 Scikit Learn 包拟合 SVM 回归模型,但它没有像我预期的那样工作。

你能帮我找出错误吗?我想使用的代码是:

from sklearn.svm import SVR
import numpy as np


X = []
x = np.arange(0, 20)
y = [3, 4, 8, 4, 6, 9, 8, 12, 15, 26, 35, 40, 45, 54, 49, 59, 60, 62, 63, 68]
X.append(x)

clf = SVR(verbose=1)
clf.fit(np.transpose(X), y)

print("Expecting Result:")
print(y)
print("Predicted Result:")
print(clf.predict(np.transpose(X)))

我的输出是:

[LibSVM]*
optimization finished, #iter = 10
obj = -421.488272, rho = -30.500000
nSV = 20, nBSV = 20
Expecting Result:
[3, 4, 8, 4, 6, 9, 8, 12, 15, 26, 35, 40, 45, 54, 49, 59, 60, 62, 63, 68]
Predicted Result:
[ 29.1136814   28.74580196  28.72748632  28.72736291  28.7273628
  28.7273628   28.72736302  28.72760984  28.76424112  29.5         31.5
  32.23575888  32.27239016  32.27263698  32.2726372   32.2726372
  32.27263709  32.27251368  32.25419804  31.8863186 ]

我们可以看到预测结果与训练数据相差甚远。 如何改善拟合?

谢谢

大卫

【问题讨论】:

【参考方案1】:

这是一个边缘情况,其中 RBF(scikit-learn 上的 SVM 默认)内核不能很好地工作。

将 SVR 行更改为: clf = SVR(verbose=1, kernel='linear'),你会看到更合理的结果。

[LibSVM]Expecting Result: [3, 4, 8, 4, 6, 9, 8, 12, 15, 26, 35, 40, 45, 54, 49, 59, 60, 62, 63, 68] Predicted Result: [ -6.9 -2.9 1.1 5.1 9.1 13.1 17.1 21.1 25.1 29.1 33.1 37.1 41.1 45.1 49.1 53.1 57.1 61.1 65.1 69.1]

我了解到您只是想了解一下 SVM 的工作原理。查看 this 博客文章,了解 RBF 内核的工作原理。

【讨论】:

感谢您的帮助。我测试过,它有效。我会更加警惕内核的选择。

以上是关于用于 SVR 回归的 Scikit Learn 包的问题的主要内容,如果未能解决你的问题,请参考以下文章

python机器学习库scikit-learn:SVR的基本应用

Scikit Learn:如何在回归中设置 SVM 输出范围?

Scikit-Learn SVR 预测总是给出相同的值

sklearn (scikit-learn) 逻辑回归包——设置训练的分类系数。

SciKit Learn SVR 运行时间很长

使用 scikit-learn 对 SVR 进行递归特征消除和网格搜索