06 Theory of Generalization

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了06 Theory of Generalization相关的知识,希望对你有一定的参考价值。

若H的断点为k,即k个数据点不能被H给shatter,那么k+1个数据点也不能被H给shatter,即k+1也是H的断点。

如果给定的样本数N是大于等于k的,易得mH(N)<2N,且随着N的增大,小得越来越多。

 

技术分享

技术分享

当断点为k时,记最大可能的成长函数mH(N)为bound函数,记为B(N,k)。\\

注意比较,发现bound函数比起成长函数消除了H。

如果无断点,自然没有B(N,k)什么事;

如果断点为k,

那么mH(N)是给定H下,可能的最大假设类数;

B(N,k)是不限H下,可能的最大假设类数。

B(N,k)=maxH mH(N),只和样本数N和断点k有关。

 

技术分享

 

通过数学归纳法可证得:B(N,k)实际被Nk-1所框住,既然成长函数的上限被N的多项式给框住,易得,如果断点存在的话,成长函数也是多项式型的。------证明了上一节的猜想。

 

技术分享

技术分享

 

再看保证Ein和Eout的不等式,

技术分享

证明,

1.用和训练集同样大小的测试集上的表现替代整体输入空间上的表现,认为使得训练集内和整体表现差异过大的坏数据也会使得训练集和测试集上的表现差异过大;

2.用有限类数替代无限|H|;

3.使用不放回下的霍夫丁不等式。

技术分享

技术分享

技术分享

 

得到VC bound。

技术分享

 

所以,

2维感知机的断点为4,

成长函数<=bound函数(受限于O(N3)),

即2维感知机的学习是PAC可能的!

那多维感知机呢?

 

以上是关于06 Theory of Generalization的主要内容,如果未能解决你的问题,请参考以下文章