SVM基础理论(1):通俗讲解

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SVM基础理论(1):通俗讲解相关的知识,希望对你有一定的参考价值。

参考技术A 支持向量机的最核心的想法就是 从输入空间到更加高维度的特征空间 映射,这里有一点像是神经网络中的,针对输入在隐含层进行一个转换,最后所生成的特征拿去进行分类。

就是说不是在原始空间中进行分类,而是在一个新的空间中进行分类,在新的空间(高维度)中,会认为这个分类问题会得到一定程度的简化。

在高维度空间中,之前(低纬度空间)的线性不可分的问题就会被认为是一个线性可分的问题。

很多的超平面都可以使得在当前的训练集的条件之下,做到训练误差为0,那么问题来了,到底选择哪个呢?

其实问题的关键不是其在训练集上面的表现,而是其在 测试集 上面的表现是怎么样的(也就是说需要考察其泛化性能)。

support vectors 决定了分离超平面所能够移动的范围,这个范围就是叫做margin。

只有使用数学的形式定义margin才可以去优化和求解。

假设我的样本是线性可分的,那么,我就一定可以找到平行的两条线:

使得:

然后通过一系列的缩放变换可以得到,周老师的书中(周志华《机器学习》,也就是上面截图的书)的样子:

下面我给出相关的变换的思路:

然后我们就是找到间隔最大的这个w0(我这里设置的就是w0),然后 w 0 x + b 0  = 0 就是我们要找的分离超平面。

线性可分的支持向量机其实有两个目标:

第一,就是你需要把所有的样本都分对:

第二,就是在所有的样本全部都分对的情况之下使得间隔(margin)最大化:

所以,目标函数的数学形式如下:

原始问题:

对偶问题:一般而言,原始问题和对偶问题是不等价的,但是在SVM中的原始问题同对偶问题之间是等价的(这个是不用深究的),我们现在所要研究的问题就是变成了如何优化新的目标函数的问题。

下面是w和b的解:

下面是一个简单的例子展示svm如何求解:

目标函数和拉格朗日函数:

回代以及对偶问题求解:

优点:数据的可分性增加

缺点:计算的复杂度增加

即利用了高维空间中的数据比较好分。

又避免了高维空间中的计算复杂度较高这个缺点。

所谓的VC dimension就是你的模型最多可以shatter多少个点:

VC dimension是一个比较保守的估计,其认为样本可以进行任意打标签,但是实际的问题是没有这么复杂的:

所谓的VC dimension,就是模型的能力,对于h个点,不管如何打标签,这个模型都可以将其分开,那么我们就可以说这个模型的VC dimension就是h:

超平面在n维空间中,其VC dimension就是n + 1。

树的叶子节点的数量决定了其VC dimensiion,越复杂的决策树,其VC dimension就越高。

对于SVM而言,其VC dimension就是取决于其使用了何种的核函数。

数据挖掘中所使用的数据都被假设是有规律分布的,如果都是噪声,那么你怎么进行数据挖掘的行为都是没有用处的。

所以,基于以上假设,我们可以使用线性模型去对成千上万的点进行分类,如果严格按照VC dimension的理论的话线性模型是无法做到对成千上万个随机的点进行分类的。

h值越大,这里的后面的公式就是bound,就会越大,说明训练误差和测试误差之间的距离越大。

也就是说,同样的两个模型,如果具有相同的训练误差,我们应该是偏向于使用比较简单的那个模型的,而不是比较复杂的那个模型(也就是VC dimension较高的那个模型)。

越复杂的模型,其risk一般而言会比较大,其在未知样本上的performance就更加难以把握。

解密SVM系列:SVM的理论基础

上节我们探讨了关于拉格朗日乘子和KKT条件。这为后面SVM求解奠定基础,本节希望通俗的细说一下原理部分。

一个简单的二分类问题例如以下图:
技术分享
我们希望找到一个决策面使得两类分开。这个决策面一般表示就是WTX+b=0,如今的问题是找到相应的W和b使得切割最好。知道logistic分类 机器学习之logistic回归与分类的可能知道,这里的问题和那里的一样。也是找权值。在那里,我们是依据每个样本的输出值与目标值得误差不断的调整权值W和b来求得终于的解的。当然这样的求解最优的方式仅仅是当中的一种方式。那么SVM的求优方式是如何的呢?

这里我们把问题反过来看,如果我们知道了结果。就是上面这样的分类线相应的权值W和b。

那么我们会看到,在这两个类里面,是不是总能找到离这个线近期的点。向以下这样:
技术分享
然后定义一下离这个线近期的点到这个分界面(线)的距离分别为d1,d2。

那么SVM找最优权值的策略就是,先找到最边上的点。再找到这两个距离之和D,然后求解D的最大值。想想如果依照这个策略是不是能够实现最优分类,是的。好了还是如果找到了这样一个分界面WTX+b=0,那么做离它近期的两类点且平行于分类面,如上面的虚线所看到的。

好了再如果我们有这两个虚线。那么真实的分界面我们觉得正好是这两个分界面的中间线,这样d1就等于d2了。由于真实的分界面为WTX+b=0,那么就把两个虚线分别设置为WTX+b=1WTX+b=?1能够看到虚线相对于真实面仅仅是上下移动了1个单位距离。可能会说你怎么知道正好是一个距离?确实不知道,就如果上下是k个距离吧,那么如果上虚线如今为WTX+b=k。两边同一时候除k能够吧,这样上虚线还是能够变成WT1X+b1=1,同理下虚线也能够这样。然后他们的中线就是WT1X+b1=0吧。能够看到从k到1。权值无非从w变化到w1,b变到b1,我在让w=w1,b=b1,不是又回到了起点吗。也就是说,这个中间无非是一个倍数关系。所以我们仅仅须要先确定使得上下等于1的距离,再去找这一组权值。这一组权值会自己主动变化到一定倍数使得距离为1的。

好了再看看D=d1+d2怎么求吧,如果分界面WTX+b=0。再如果X是两维的。那么分界面再细写出来就是:w1x1+w2x2+b=0。上分界线:w1x1+w2x2+b=1,这是什么。两条一次函数(y=kx+b)的曲线是不是,那么初中就学过两直线的距离吧,d=|c2?c1|w21+w22???????=1||W||

这里W=(w1,w2),是个向量,||W||为向量的距离。那么||W||2=WTW。下界面同理。

这样D=d1+d2=2||W||=2WTW?????2WTW,要使D最大。就要使分母最小。这样优化问题就变为min(12WTW),乘一个系数0.5没影响,可是在后面却实用。

我们知道。如果一个一次函数分界面为WTX+b=0,那么线上方的x能够使得WTX+b>0,下方的x能够使得WTX+b<0吧。那么对于上界面以上的点就有WTX+b>1,下界面以下的点就有WTX+b<?1。我们如今再如果上界面以上的点的分类标签为1,下界面以下的点的分类标签为-1。

那么这两个不等式再分别乘以他们的标签会怎么样?是不是能够统一为yi(WTxi+b)1了(这也是为什么SVM在使用之前为什么要把两类标签设置为+1。-1,而不是0,1等等之类的了)。好了如果分界面一旦确定,是不是全部点都得满足这个关系。那么终于的带约束的优化问题转化为:

min12WTWs.t.yi(Wxi+b)1
把约束条件换成小于号的形式:
s.t.1?yi(Wxi+b)0
注意的是这可不是一个约束条件。而是对全部的每个样本xi都有一个这样的约束条件。
转换到这样的形式以后是不是非常像上节说到的KKT条件下的优化问题了。就是这个。

可是有一个问题。我们说上节的KKT是在凸函数下使用的,那么这里的目标函数是不是呢?答案是的。想想WT?W,函数乘出来应该非常单一,不能有非常多极点,当然也也能够数学证明是的。

好了那样的话就能够引入拉格朗日乘子法了,优化的目标变为:

L(w,b,α)=12wTw+α1h1(x)+...+αnhn(x)=12wTw?α1[y1(wx1+b)?1]?...?αn[yn(wxn+b)?1]=12wTw?i=1Nαiyi(wxi+b)+i=1Nαi

然后要求这个目标函数最优解,求导吧,
?L?w=w?i=1Nαiyixi=0?w=i=1Nαiyixi?L?b=?i=1Nαiyi=0?i=1Nαiyi=0

这两个公式非常重要。简直是核心公式。
求导得到这个应该非常easy吧,那我问你为什么WTW对w求导是w呢?如果你知道,那么你非常厉害了,反正開始我是一直没转过来。

事实上说起来也非常easy。如果光去看看为什么求导以后,转置就没了。不太好想明确,设想一下如果如今是二维样本点。也就是终于的W=(w1,w2)。那么WTW=w1?w1+w2?w2那么对w1求导就是2w1,对w2就是2w2,这样写在一起就是对w求导得到(2w1,2w2)=2w了。然后乘前面一个1/2(这也就是为什么要加一个1/2),就变成w了。

好了得到上面的两个公式,再带回L中把去w和b消掉,你又可能发现,w确实能够消,由于有等式关系,那b怎么办?上述对b求导的结果居然不含有b,上天在开玩笑吗?事实上没有,尽管没有b,可是有那个求和为0呀,带进去你会惊人的发现。b还真的能够消掉,就是由于了那个等式。

简单带下:

W(α)=L(w,b,α)=12(i=1Nαiyixi)T(j=1Nαjyjxj)?i=1Nαiyi((i=1Nαiyixi)xi+b)+i=1Nαi=12(i,j=1Nαiyiαjyjxi?xj)?i,j=1Nαiyiαjyjxi?xj+bi=1Nαiyi+i=1Nαi=?12(i,j=1Nαiyiαjyjxi?xj)+i=1Nαi

那么求解最最開始的函数的最小值等价到这一步以后就是求解W的最大值了,由于使用了拉格朗日乘子法后,原问题就变为其对偶问题了,最小变成了最大,至于为什么,等到具体研究过对偶问题再来解释吧。不了解的。仅仅须要知道求W的极值就可以。


整理一下。经过这么一圈的转化。终于的问题为:

maxW(α)=?12(i,j=1Nαiyiαjyjxi?xj)+i=1Nαis.t.αi0i=1Nαiyi=0

为什么有αi0,这是上节说到的KKT条件的必须。至此问题来源部分到这。

细心的你肯可能会发现。上述全部的构造等等都是在数据全然线性可分,且分界面全然将两类分开。那么如果出现了以下这样的情况:
技术分享
正负两类的最远点没有明显的分解面,搞不好正类的最远点反而会跑到负类里面去了,负类最远点跑到正类里面去了,要是这样的话,你的分界面都找不到。由于你不可能找到将它们全然分开的分界面,那么这些点在实际情况是有的。就是一些离群点或者噪声点,由于这一些点导致整个系统用不了。当然如果不做不论什么处理确实用不了。可是我们处理一下就能够用了。SVM考虑到这样的情况,所以在上下分界面上增加松弛变量?i,觉得如果正类中有点到上界面的距离小于?i,那么觉得他是正常的点。哪怕它在上界面略微偏下一点的位置,同理下界面。还是以上面的情况,我们目測下的是理想的分解面应该是以下这样的情况:
技术分享
如果依照这样的分会发现4个离群点。他们到自己相应分界面的距离表示如上,理论上讲,我们给每个点都给一个自己的松弛变量?i,如果一个分界面求出来了,那么比較这个点到自己相应的界面(上、下界面)的距离是不是小于这个值,要是小于这个值。就觉得这个界面分的能够,比方上面的?3这个点。尽管看到明显偏离了正轨,可是计算发现它的距离d小于等于我们给的?3,那么我们说这个分界面能够接受。你可能会说那像上面的?10,距离那么远了,他肯定是大于预设给这个点的?i了对吧,确实是这样的,可是我们还发现什么?这个点是分对了的点呀。所以你管他大不大于预设值,反正不用调整分界面。

须要调整分界面的情况是仅仅有当相似?3这样的点的距离大于了?3的时候。

好了那么由于松弛变量的增加。导致每个点的约束条件就变化了点,像上界面以上的点,它满足的条件可能就是:WTxi+b1??i,yi=1
而下界面可能就是:WTxi+b?1+?i,yi=?1
而且?i0
统一在一起,整个问题就变成:

min12WTW+Ci=1N?is.t.1+?i?yi(Wxi+b)0?i0

你发现目标函数里面多了一点东西。而加上这个是合理的,我们在优化的同一时候。也使得总的松弛变量之和最小。常数C决定了松弛变量之和的影响程度。如果越大,影响越严重。那么在优化的时候会很多其它的注重全部点到分界面的距离,优先保证这个和小。
好了将问题写在一起吧:
L(x,α,β)=12WTW?i=1Nαi(yi(Wxi+b)+?i?1)+Ci=1N?i?i=1Nri?i

然后对w,b,?分别求导数:
?L?w=w?i=1Nαiyixi=0?w=i=1Nαiyixi?L?b=?i=1Nαiyi=0?i=1Nαiyi=0?L??i=0?C?αi?ri=0

观察第三个式子,由于ri0,所以c?αi0?αiC,结合αi0那么0αiC,把这三个导数结果带到目标函数中去消掉相应的w,b以及ri,你会惊人的发现。连?i也消掉了。而且目标函数和没有加松弛变量的一模一样:
W(α)=?12(i,j=1Nαiyiαjyjxi?xj)+i=1Nαi

这么说。溜了一圈下来。无非多了个αiC,其它的什么也没有变,真好。那么统一一下。更一般的带松弛变量的优化函数以及约束条件就变为:
W(α)=?12(i,j=1Nαiyiαjyjxi?xj)+i=1Nαis.t.0αiCi=1Nαiyi=0

剩下的问题是怎么去找这样一组最优解αi了。

看过上节的可能会知道。在上节的最后那个实例中也是寻找αi。只是那里仅仅有两个αi。而αi要么等于0。要么大于0。而αi大于0的时候,相应的另外一个因子就等于0。

然后讨论这四种情况找到满足解。

可是我们这里的αi可不止2个,想挨着讨论是不行的,且这里的KKT条件和上节的那个还不太一样。那么这里的KKT条件是什么呢?具体又要怎么解这样一堆αi的问题呢?请看下节的SMO算法求解SVM问题。

































以上是关于SVM基础理论(1):通俗讲解的主要内容,如果未能解决你的问题,请参考以下文章

机器学习基础:通俗理解支持向量机SVM及代码实践

解密SVM系列:SVM的理论基础

支持向量机----分类中的“王者”

经典排序算法的零基础通俗讲解

java基础面试+深度讲解—泛型 泛型讲解中最通俗易懂,最详细的一个版本

2023最新教程最通俗的神经网络基础讲解