统计机器学习理论:随机熵vc熵退火VC熵生长函数VC维定义理解

Posted 宏斌PKUCIS

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了统计机器学习理论:随机熵vc熵退火VC熵生长函数VC维定义理解相关的知识,希望对你有一定的参考价值。

一、定义:

      有n个训练样本Zn={zi(xi,yi), i=1,2,...,n},定义N(Zn)为函数集中的函数能对样本分类的数目。

       解释:xi 代表特征向量如d维特征向量,yi代表一个标记如0或1, 因此zi就是对一个特征的标记,Zn中有n个样本,可能的标记方式2n种,一种标记方式就生成一种样本集;

N(Zn)为Zn的标记空间中能被正确分类的标记数量。

      举例:在二维特征空间中,不共线的3个二维特征向量,其标记方式有23=8种,每一种标记方式都能被指示函数集二维线性分类器正确分类,因此这3个特征组成的集合的N(Z3)=8,如图1所示;但是共线的3个二维特征向量,其标记方式也有23=8种,但只有两种方式能够被指示函数集二维线性分类器正确分类,因此这3个特征组成的集合的N(Z3)=2,如图2所示。

图1:不共线的3个二维特征的8种标记都能够被二维线性分类器分类

图2:共线的3个二维特征的8种标记中有6种标记不能被二维线性分类器分类

      1、随机熵:指示函数集能够实现分类组合数的自然对数,称为函数集在样本上的随机熵,表示为H(Zn)=lnN(Zn)。

           显然对于二维线性分类器,图1中的三个特征样本集的随机熵H(Z3)=lnN(Z3)=ln23=3ln2;图2中的三个特征样本集的随机熵为H(Z3)=lnN(Z3)=ln2=ln2;

      2、VC熵:n个样本的随机熵的期望值H(n)=E(lnN(Zn))。

           显然对于二维线性分类器,三个特征样本集的VC熵为H(3)=1/2 x 3ln2 + 1/2 x ln2 =2ln2;

      3、退火的VC熵:Hann(n)=ln E(N(Zn))。

           显然对于二维线性分类器,三个特征样本集的VC熵为Hann(3)=ln(1/2 x 8 + 1/2 x 2) =ln5;

      4、生长函数:函数集的最大随机熵,G(n)=ln maxZnN(Zn)。

           显然对于二维线性分类器,三个特征样本集的生长函数为G(3)=3ln2;

       5、打散:在由n个特征组成的集合中(这种集合无限多),只要存在一种集合,它的所有2n种记方式都能够被标记函数集分类,那么就称n个特征构成的样本集能够被该标记函数集打散。

           显然3个二维特征构成的样本集能够被二维线性分类器打散,因为3个二维特征存在一种不共线的情况,它的8终标记方式能够被二维线性分类器正确分类。

       6、VC维:指示函数集能打散的最大样本数。

            显示对于二维线性分类器,3个特征的样本集是能够被打散的,但是4个特征的样本集不能够被打散,因为4个特征构成的所有特征集中,任何一个特征集都不存在24=16种标记方式能被正确分类,即对于所有的N(Z4)< 16。因此二维线性分类器的VC维是3。

二、性质

       1、三者之间关系:H(n) <= Hann(n)<= G(n)<=nln2;(证明忽略,以二维线性分类器为例理解)

       2、标记函数集的生长函数或者与样本数成正比,即G(n)=nln2,或者以样本数的某个对数函数维上界,即G(n)<=h*(ln(n/h) + 1), n>h,h是VC维。(证明忽略,以二维线性分类器为例理解)

       3、d维空间中的N个样本线性可分的数目,即N(Zn)=D(n,d)=2n,当 n<=d 时;N(Zn)=D(n,d)=2n2(sigma{C(n-1,i)},i=0,...,d),当n>d时。sigma以为是从i=0到i=d对组合数C(n-1,i)累加。

       4、从性质2中,可以看出随着样本数目增加,生长函数G(n)不是线性增加的。

以上是关于统计机器学习理论:随机熵vc熵退火VC熵生长函数VC维定义理解的主要内容,如果未能解决你的问题,请参考以下文章

逻辑回归与最大熵模型

机器学习深度学习中的信息熵相对熵(KL散度)交叉熵条件熵

logistic regression与最大熵模型·最大熵模型

logistic regression与最大熵模型·最大熵模型

机器学习 | 交叉熵公式

机器学习 | 交叉熵公式