感知机模型原理(二)
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了感知机模型原理(二)相关的知识,希望对你有一定的参考价值。
参考技术A 在之前我们提到过感知机模型的损失函数为 , 感知机的算法本质上就是求解损失函数最优的过程, 可以采用梯度下降法和拟牛顿法进行求解, 其中最常用的是梯度下降法.首先, 任选一个超平面, 然后通过梯度下降法不断地极小化损失函数.需要注意的是,在极小化过程中不是一次性选择所有误分类点进行梯度下降,而是随机地选取一个误分类点进行梯度下降,也就是说,这里采用的是梯度下降法中的随机梯度下降.
根据梯度的定义,我们可以得到损失函数的梯度:
假设随机选择一个误分类点 , 对w,b进行更新:
其中, 为学习效率,有时也称为步长.通过反复的迭代使得损失函数的数值不断的减小,直到0为止.
上述的算法是感知机模型的基本算法,也称为原始形式,其具体的过程可以解释为:当一个实例点被误分类(即位于分类错误的一侧)时,调整w,b的值,使得分类超平面向该误分类点的一侧移动,目的是减少该误分类点到超平面间的距离,直至超平面越过该误分类点使其能够被正确分类.
不同的初始值以及选取不同的误分类点,可能会导致不同的感知机模型.也就是说感知机模型的结果不唯一.
当训练数据集线性可分时,那么感知机算法的原始形式迭代是收敛的.也就是说,经过有限次迭代可以得到一个将训练数据集完全正确划分的超平面及感知机模型.反之,当训练数据集线性不可分时,感知机学习算法不收敛.
对偶形式的基本思想是:将w和b表示维实例 和分类标记 的线性组合的形式,然后通过求解其系数而求得w和b.
假设第i个实例点 由于误分类而进行更新的次数为 , 从学习过程中不难得到w,b的表示:
将上式中的w,b分别代入感知机模型后,可以发现结果与w,b无关, 而与 有关.另外, 实例点更新的次数越多(即 值越大),意味着它距离超平面越近,也就经常被误分类.
通过以上,也可以看出对偶形式是基于原始形式推导得到的,而且对偶形式中的训练实例仅以内积的形式出现,通常会预先将训练集中实例间的内积计算出来并以矩阵(即Gram矩阵)的形式存储,这样可以优化计算速度.
参考:
李航博士著《统计学习方法》
以上是关于感知机模型原理(二)的主要内容,如果未能解决你的问题,请参考以下文章