机器学习基石第一讲:PLA

Posted 氵冫丶

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习基石第一讲:PLA相关的知识,希望对你有一定的参考价值。

机器学习的模型

简单的描述:根据训练数据集 D 训练一个模型g,使得这个假设模型 g 和原始数据的模型f尽可能接近

Perceptron Learning Algorithm

PLA,感知机学习算法

对于二分类:
数据集: X=x1,x2,...,n
类别: Y=+1,1
模型的原理:寻找一个超平面把两类数据点完全正确分开。
决策超平面: h(x)=wTx+b
其中 w 叫做权值向量,b叫做偏置
在课件中,在第一维增加为1的变量, xi=(1,xTi)T
这样决策平面可以写为: h(x)=wTx
最终分类函数: g(x)=sign(h(x))

其中:

如何在假设空间中,找到合适的 g ?

对决策错误的数据点进行修正的方式,更新权值向量w

如何更新 w ?

为什么这样更新?
假设根据现在的超平面出现了错误的点(xn,yn)
对于+1 类:
当分类错误,说明 wTx 的值小于0,需要增加,而 x 的值是不能改变的,所有需要增加w的值
+1类时候 yn=+1 ,上面更新 w 可以增加w
所以: wTt+1xnwTtxn
对于-1类:
分类错误,说明 wTx 的值大于0,需要降低,而 x 的值是不能改变的,所有需要降低w的值
-1类时候 yn=1 ,上面更新 w 可以降低w
所以: wTt+1xnwTtxn

写在一起: ynwTt+1xnynwTtxn
最后对上面右侧的两个图就很容易看懂了。

感知机学习算法

其中: t 是循环次数
n是第 n <script type="math/tex" id="MathJax-Element-2044">n</script>个数据点,这个数据点在当前超平面下被错误分类

证明:对于线性可分数据集PLA算法可以收敛


不知道下面怎么证明了!!!

关于循环的最大次数:

优点:
1.对线性可能的情况,存在解
2.实现简单

缺点:
1.线性不可能时候不适应
2.选取不同的初始参数,会得到不同的超平面

修正的PLA算法

以上是关于机器学习基石第一讲:PLA的主要内容,如果未能解决你的问题,请参考以下文章

台大林轩田·机器学习基石记要

机器学习基石第一讲:the learning problem

机器学习基石感知机模型+PLA

(机器学习基石)Perceptron Learning Algorithm(PLA)

台湾大学林轩田教授机器学习基石课程

机器学习基石训练与测试