支持向量基
Posted 郑哲
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了支持向量基相关的知识,希望对你有一定的参考价值。
提供了一种更为清晰 更加强大的方式
Logistic回归的替代观点
![](https://image.cha138.com/20210608/879cf113e86246c1b89a6b9aeb834e75.jpg)
J(θ)=-(yloghθ(x)+(1-y)log(1-hθ(x)))
![](https://image.cha138.com/20210608/039152c53fe345a9b476328339f69d3a.jpg)
因为当Z足够大时,产生的误差几乎可以忽略不计。
所以我们用新的代价函数来代替逻辑回归的代价函数。
对比逻辑回归和支持向量机的代价函数:
![](https://image.cha138.com/20210608/54f7b0265a504b9bb915af455af1a98d.jpg)
C=1/λ
支持向量机的预测函数:
![](https://image.cha138.com/20210608/f4eac58c66c74f75a68fcb3e50d7f270.jpg)
大间距器:
![](https://image.cha138.com/20210608/769d7e1b62854914a877bcdb948c5f19.jpg)
在C很大的情况下,为了使代价函数减小,我们希望当y=1时,我们的z能大于等于1(不是仅仅大于等于0)
所以支持向量机的决策边界为:
![](https://image.cha138.com/20210608/c3d00d0b6bbe427c8c6ad8129bdf5488.jpg)
大间距分类器的可视化
![](https://image.cha138.com/20210608/f9f1c34e459246a3b21cfa74110ae2e1.jpg)
当C不是很大的时候可以忽略掉一些异常点
![](https://image.cha138.com/20210608/d0fe008b62ea4739a9e0b080d5fa2f12.jpg)
大间距分类器的数学原理
在C很大的情况下,为了使代价函数减小,代价函数变成
![](https://image.cha138.com/20210608/a0263ea478124b57a596a322c39797bd.jpg)
![](https://image.cha138.com/20210608/23a6ea44cb8748078631ef3d7a3edc6d.jpg)
前缀近似等于0
假如分类边界为下图:
![](https://image.cha138.com/20210608/c4e5dd0f253c4887898c2e15a5f600e2.jpg)
因为输入集在边界的投影长度较短,导致θ的范式距离较大
显然这使代价函数的值增大。
所以在C较大时我们得到以下的分类边界:
![](https://image.cha138.com/20210608/4081a35a59a54d1eb2db62136eb84b64.jpg)
以上是关于支持向量基的主要内容,如果未能解决你的问题,请参考以下文章
[机器学习与scikit-learn-34]:算法-分类-支持向量机SVM的基本简介与基本原理-线性分类
[机器学习与scikit-learn-35]:算法-分类-支持向量机-线性分类代码示例