支持向量机之一:约束优化问题硬间隔SVM

Posted Hellsegamosken

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了支持向量机之一:约束优化问题硬间隔SVM相关的知识,希望对你有一定的参考价值。

约束优化问题

带约束的优化问题可以描述为以下形式
min ⁡ x   f ( x ) s . t .   ∀ i , g i ( x ) ≤ 0 , ∀ j , h j ( x ) = 0 (1.1) \\tag1.1 \\beginaligned \\min_x\\ &f(x)\\\\ s.t.\\ &\\forall i, g_i(x)\\leq 0, \\\\ &\\forall j, h_j(x)=0& \\endaligned xmin s.t. f(x)i,gi(x)0,j,hj(x)=0(1.1)

f ( x ) f(x) f(x) 为目标函数, g i ( x ) g_i(x) gi(x) 为不等式约束, h j ( x ) h_j(x) hj(x) 为等式约束。

若目标函数为二次函数,约束全为线性函数,称为二次规划。

f ( x ) f(x) f(x) 为凸函数, g i ( x ) g_i(x) gi(x) 为凸函数, h j ( x ) h_j(x) hj(x) 为仿射函数,则该问题称为凸优化。注意这里不等式约束 g i ( x ) ≤ 0 g_i(x)\\leq0 gi(x)0 则要求 g i ( x ) g_i(x) gi(x) 为凸函数,若 g i ( x ) ≥ 0 g_i(x)\\geq0 gi(x)0 则要求为凹函数。对于凸优化问题,全局有唯一的极小值点。

构造拉格朗日函数:
L ( x , λ , μ ) = f ( x ) + ∑ i λ i g i ( x ) + ∑ j μ j h j ( x ) (1.2) \\tag1.2 L(x, \\lambda, \\mu)=f(x)+\\sum_i\\lambda_ig_i(x) + \\sum_j \\mu_jh_j(x) L(x,λ,μ)=f(x)+iλigi(x)+jμjhj(x)(1.2)
原问题等价于:
min ⁡ x   max ⁡ λ , μ L ( x , λ , μ ) s . t .   λ i ≥ 0 (1.3) \\tag1.3 \\beginaligned \\min_x\\ &\\max_\\lambda, \\muL(x, \\lambda, \\mu)\\\\ s.t.\\ &\\lambda_i\\geq 0 \\endaligned xmin s.t. λ,μmaxL(x,λ,μ)λi0(1.3)
简单理解:如果某个条件不满足,一定可以调整相应的 λ / μ \\lambda/\\mu λ/μ 使得函数值任意大,从而不可能成为最优解;如果所有条件都满足,那么后面两个求和号里的东西都为 0,拉格朗日函数就等于原函数。

这样,我们就把关于 x x x 的限制给去除掉了。

对于约束优化问题,最优解 x ∗ x^* x 需要满足 KKT 条件:
∇ x L ( x ∗ , λ ∗ , μ ∗ ) = 0 λ i ∗ ≥ 0 λ i g i ( x ∗ ) = 0 g i ( x ∗ ) ≤ 0 h j = 0 (1.4) \\tag1.4 \\left\\ \\beginmatrix \\nabla_x L(x^*, \\lambda^*,\\mu^*)=0\\\\ \\lambda_i^*\\geq 0\\\\ \\lambda_ig_i(x^*)=0\\\\ g_i(x^*)\\leq 0 \\\\h_j=0 \\endmatrix \\right. xL(x,λ,μ)=0λi0λigi(x)=0gi(x)0hj=0(1.4)
对于凸优化问题,这个条件是充要的。

直观解释是:对于某条不等式约束 i i i,要么 λ i = 0 \\lambda_i=0 λi=0 ,表示该限制无用;要么 λ i > 0 \\lambda_i> 0 λi>0,此时有 g i ( x ∗ ) = 0 g_i(x^*)=0 gi(x)=0,即最优解在边界上,同时 f ( x ) f(x) f(x) 负梯度方向一定与 g ( x ) g(x) g(x) 梯度方向相同,即 ∇ x L ( x ∗ , λ ∗ , μ ∗ ) = 0 \\nabla_x L(x^*, \\lambda^*,\\mu^*)=0 xL(x,λ,μ)=0 (否则可以沿着 g i ( x ) = 0 g_i(x)=0 gi(x)=0 上的某个方向移动使得函数值减小)。梯度为零也意味着最优解处 f ( x ) f(x) f(x) 的梯度方向一定与 h j ( x ) = 0 h_j(x)=0 hj(x)=0 的法线方向共线。

几何理解见 拉格朗日乘子法和KKT条件 - PilgrimHui - 博客园 (cnblogs.com)

对偶问题

以式 ( 1.3 ) (1.3) (1.3) 为例,它的对偶问题为
max ⁡ λ , μ   min ⁡ x L ( x , λ , μ ) s . t .   λ i ≥ 0 (2.1) \\tag2.1 \\beginaligned \\max_\\lambda, \\mu\\ &\\min_xL(x, \\lambda, \\mu)\\\\ s.t.\\ &\\lambda_

以上是关于支持向量机之一:约束优化问题硬间隔SVM的主要内容,如果未能解决你的问题,请参考以下文章

支持向量机的基本原理

SVM详解

SVM之KKT条件理解

吴恩达机器学习-7-支持向量机SVM

SVM -支持向量机原理详解与实践之二

分类和回归-支持向量机SVM算法