机器学习基石第一讲:PLA
Posted 氵冫丶
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习基石第一讲:PLA相关的知识,希望对你有一定的参考价值。
机器学习的模型
简单的描述:根据训练数据集
D
训练一个模型
Perceptron Learning Algorithm
PLA,感知机学习算法
对于二分类:
数据集:
X=x1,x2,...,n
类别:
Y=+1,−1
模型的原理:寻找一个超平面把两类数据点完全正确分开。
决策超平面:
h(x)=wTx+b
其中
w
叫做权值向量,
在课件中,在第一维增加为1的变量,
xi=(1,xTi)T
这样决策平面可以写为:
h(x)=wTx
最终分类函数:
g(x)=sign(h(x))
其中:
如何在假设空间中,找到合适的 g ?
对决策错误的数据点进行修正的方式,更新权值向量
如何更新
w
?
为什么这样更新?
假设根据现在的超平面出现了错误的点
对于+1 类:
当分类错误,说明
wTx
的值小于0,需要增加,而
x
的值是不能改变的,所有需要增加
+1类时候
yn=+1
,上面更新
w
可以增加
所以:
wTt+1xn≥wTtxn
对于-1类:
分类错误,说明
wTx
的值大于0,需要降低,而
x
的值是不能改变的,所有需要降低
-1类时候
yn=−1
,上面更新
w
可以降低
所以:
wTt+1xn≤wTtxn
写在一起:
ynwTt+1xn≥ynwTtxn
最后对上面右侧的两个图就很容易看懂了。
感知机学习算法
其中:
t
是循环次数
证明:对于线性可分数据集PLA算法可以收敛
不知道下面怎么证明了!!!
关于循环的最大次数:
优点:
1.对线性可能的情况,存在解
2.实现简单
缺点:
1.线性不可能时候不适应
2.选取不同的初始参数,会得到不同的超平面
修正的PLA算法
以上是关于机器学习基石第一讲:PLA的主要内容,如果未能解决你的问题,请参考以下文章
机器学习基石第一讲:the learning problem