SVR中超参数C的定义是不是与SVM中对应的C相反?
Posted
技术标签:
【中文标题】SVR中超参数C的定义是不是与SVM中对应的C相反?【英文标题】:Is the definition of hyperparameter C in SVR opposite to the corresponding C in SVM?SVR中超参数C的定义是否与SVM中对应的C相反? 【发布时间】:2021-09-25 10:17:27 【问题描述】:感谢nice article,我刚刚意识到支持向量机可以用于回归但是,我对超参数C的定义感到很困惑。
我很清楚与每个数据点相关的松弛变量 \xi_i 和分类 SVM 中的超参数 C。在那里,目标函数是 \min_w, b \frac|w|2 + C\sum_i=1^N \xi_i,这样
y_i (w \cdot x_i + b) \ge 1 - \xi_i 和 \xi_i \ge 0。
在 SVM 中,C 越大,惩罚越大,因此当 C 趋于无穷大时,软 SVM 减少为硬 SVM。 (对不起原始乳胶代码,我记得乳胶是支持的,但似乎不是这样)
从链接的文章中,目标函数和约束如下 我认为这些等式也意味着 C 越大,惩罚越大。然而,文章的作者声称相反,
我注意到有人在文章末尾问了作者同样的问题,但没有得到回应。
我想等式中可能有错字,所以我从任何参考资料中寻找支持,然后我发现SVR in Python 使用相同的约定,即正则化的强度与 C 成反比。我试图检查SVR 的源代码,但我找不到任何公式。有人可以帮助解决这个问题吗?谢谢!
【问题讨论】:
【参考方案1】:C是正则化参数,表示它在W的平方之前,而不是在松弛之前,所以C参数可能等于1/C。
【讨论】:
以上是关于SVR中超参数C的定义是不是与SVM中对应的C相反?的主要内容,如果未能解决你的问题,请参考以下文章