svm的为啥要 转化为对偶问题求解

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了svm的为啥要 转化为对偶问题求解相关的知识,希望对你有一定的参考价值。

主要是降低问题的复杂度,设想f(x,y)有两个变量,拉个朗日函数L=f(x,y)-p*h(x,y)有三个变量,你求偏导数要之后,要求解一个三元(可能是高次)方程,问题比较复杂,转化为对偶问题后,你只需要求解一个二元方程,和一个一元方程,使复杂问题简单化。
svm的目标函数是求解一个凸优化问题,在凸优化中,kkt点,局部极小点,全局极小点三者等价
参考技术A SVM叫做支持向量机( Support Vector Machines)是由Vanpik领导的ATTBell实验室研究小组 在1963年提出的一种新的非常有潜力的分类技术, SVM是一种基于统计学习理论的模式识别方法,主要应用于模式识别领域.由于当时这些研究尚不十分完善,在解决模

机器学习解释对偶的概念及SVM中的对偶算法?(面试回答)

对偶的概念?

(1)概念
对偶一般来说是以一对一的方式,常常通过某个对合算子,把一种概念、公理或数学结构转化为另一种概念、公理或数学结构:如果A的对偶是B,那么B的对偶是A。在强对偶性成立的情况下由对偶问题可以得到主问题的最优下界,对偶问题是凸优化问题,可以进行较好的求解。

(2)SVM中的对偶算法
原始最大间隔最优化问题,先转为拉格朗日函数问题,再将拉格朗日函数转为求其对偶问题,即将朗格朗日优化问题中的 min(max) 求解顺序对调,变为max(min)。

原朗格朗日最优化目标函数
m i n ( m a x ( L ( x , α , β ) ) ) min(max(L(x,\\alpha,\\beta))) min(max(L(x,α,β)))
对偶最优化目标函数
m a x ( m i n ( L ( x , α , β ) ) ) max(min(L(x,\\alpha,\\beta))) max(min(L(x,α,β)))

原始问题外层的优化目标参数直接是 x ,无法直接去优化得到这个参数,因为还存在着其他未知的拉格朗日参数。所以,对偶问题外层的优化目标参数是拉格朗日参数,然后通过求得的拉格朗日参数,间接得到最终要求的超平面的参数 x 。这样就可以通过求解对偶问题得到原始问题的最优解。

以上是关于svm的为啥要 转化为对偶问题求解的主要内容,如果未能解决你的问题,请参考以下文章

机器学习SVM面试题:简单介绍一下SVM?支持向量机SVM逻辑回归LR决策树DT的直观对比和理论对比,该如何选择?SVM为什么采用间隔最大化?为什么要将求解SVM的原始问题转换为其对偶问题?

最全面的SVM介绍(从拉格朗日对偶到SMO算法)

Support Vector Machine:求解线性可分SVM的最佳边界

SVM3 Soft Margin SVM

机器学习解释对偶的概念及SVM中的对偶算法?(面试回答)

SVM之KKT条件理解