SVR中超参数C的定义是不是与SVM中对应的C相反?

Posted

技术标签:

【中文标题】SVR中超参数C的定义是不是与SVM中对应的C相反?【英文标题】:Is the definition of hyperparameter C in SVR opposite to the corresponding C in SVM?SVR中超参数C的定义是否与SVM中对应的C相反? 【发布时间】:2021-09-25 10:17:27 【问题描述】:

感谢nice article,我刚刚意识到支持向量机可以用于回归但是,我对超参数C的定义感到很困惑。

我很清楚与每个数据点相关的松弛变量 \xi_i 和分类 SVM 中的超参数 C。在那里,目标函数是 \min_w, b \frac|w|2 + C\sum_i=1^N \xi_i,这样

y_i (w \cdot x_i + b) \ge 1 - \xi_i 和 \xi_i \ge 0。

在 SVM 中,C 越大,惩罚越大,因此当 C 趋于无穷大时,软 SVM 减少为硬 SVM。 (对不起原始乳胶代码,我记得乳胶是支持的,但似乎不是这样)

从链接的文章中,目标函数和约束如下 我认为这些等式也意味着 C 越大,惩罚越大。然而,文章的作者声称相反,

我注意到有人在文章末尾问了作者同样的问题,但没有得到回应。

我想等式中可能有错字,所以我从任何参考资料中寻找支持,然后我发现SVR in Python 使用相同的约定,即正则化的强度与 C 成反比。我试图检查SVR 的源代码,但我找不到任何公式。有人可以帮助解决这个问题吗?谢谢!

【问题讨论】:

【参考方案1】:

C是正则化参数,表示它在W的平方之前,而不是在松弛之前,所以C参数可能等于1/C。

【讨论】:

以上是关于SVR中超参数C的定义是不是与SVM中对应的C相反?的主要内容,如果未能解决你的问题,请参考以下文章

SVR 超参数选择和可视化

SVM 回归的交叉验证

SVR不断预测平线

ML-9-4支持向量机--SVM回归模型(SVR)

sklearn.svm在建立好模型后怎么使用

svr算法和svm算法哪个好