支持向量基
Posted 郑哲
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了支持向量基相关的知识,希望对你有一定的参考价值。
提供了一种更为清晰 更加强大的方式
Logistic回归的替代观点
J(θ)=-(yloghθ(x)+(1-y)log(1-hθ(x)))
因为当Z足够大时,产生的误差几乎可以忽略不计。
所以我们用新的代价函数来代替逻辑回归的代价函数。
对比逻辑回归和支持向量机的代价函数:
C=1/λ
支持向量机的预测函数:
大间距器:
在C很大的情况下,为了使代价函数减小,我们希望当y=1时,我们的z能大于等于1(不是仅仅大于等于0)
所以支持向量机的决策边界为:
大间距分类器的可视化
当C不是很大的时候可以忽略掉一些异常点
大间距分类器的数学原理
在C很大的情况下,为了使代价函数减小,代价函数变成
前缀近似等于0
假如分类边界为下图:
因为输入集在边界的投影长度较短,导致θ的范式距离较大
显然这使代价函数的值增大。
所以在C较大时我们得到以下的分类边界:
以上是关于支持向量基的主要内容,如果未能解决你的问题,请参考以下文章
[机器学习与scikit-learn-34]:算法-分类-支持向量机SVM的基本简介与基本原理-线性分类
[机器学习与scikit-learn-35]:算法-分类-支持向量机-线性分类代码示例