《统计学习方法》--提升方法
Posted 兜里有糖心里不慌
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《统计学习方法》--提升方法相关的知识,希望对你有一定的参考价值。
《统计学习方法》第八章–提升方法
提升方法的核心思想是在给定基础模型的基础上,通过不断调整样本的权重分布训练一系列的模型,尽最大可能的减少训练误差,最后将多个模型按照一定的权重系数进行组合得到最终的模型。通过采用多模型结合的方式,可以提升模型的稳定性,使模型更准确。
理论基础
PAC理论(Probably Approximately Correct)
PAC理论(概率近似正确理论)主要是论证了在概率学习框架下,一个概念是强可学习的充分必要条件是这个概念是弱可学习的。即对于一个问题,如果能够发现解决该问题的"弱学习算法",即该问题是弱可学习的,那么该问题也必定有"强学习算法"存在,即该问题也必定是强可学习的。
弱可学习:弱可学习是指,对于一个概念,如果存在一个多项式的学习算法能够学习他,学习的正确率仅比随机猜测略好,那么这个概念就是弱可学习的。
强可学习:强可学习是指,对于一个概念,如果存在一个多项式的学习算法能够学习他,并且正确率很高,那么这个概念就是强可学习的。
PAC理论实际上论证了提升方法的可靠性,即可以从一个弱分类器通过一定的算法将其变成一个强分类器,这也是集成类模型的通用指导思想。各类型集成模型的区别只是在于如何从基础的弱分类模型不断向强分类模型改进。
关于PAC理论的更多资料可以参看:
【ML学习笔记】8:PAC可能近似正确
30分钟了解PAC学习理论——计算学习理论第一讲
AdaBoost算法
AdaBoost算法通过不断更新样本的权重分布,使得在上一个基础模型中误分类大的数据在下轮的模型训练中占据更大权重,由此得到一系列的基础模型,再依据基础模型的对应权重,将全部基础模型组合起来得到最终的决策模型的一种算法。
输入:训练数据集 T = ( x 1 , y 1 ) , ( x 2 , y 2 ) . . . ( x N , y N ) , 其 中 x i ∈ X ⊆ R n , y ∈ Y = − 1 , 1 ; 若 学 习 算 法 T=\\(x_1,y_1),(x_2,y_2)...(x_N,y_N)\\,其中x_i\\in \\mathcalX \\subseteq R^n,y\\in \\mathcalY=\\-1,1\\;若学习算法 T=(x1,y1),(x2,y2)...(xN,yN),其中xi∈X⊆Rn,y∈Y=−1,1;若学习算法
输出:最终分类器 G ( x ) G(x) G(x)
(1) 初始化训练数据的权值分布 D 1 = ( ω 11 , . . . , ω 1 i , . . . , ω 1 N ) , ω 1 i = 1 N , i = 1 , 2 , 3 , . . . , N D_1=(\\omega_11,...,\\omega_1i,...,\\omega_1N),\\omega_1i=\\frac1N,i=1,2,3,...,N D1=(ω11,...,ω1i,...,ω1N),ω1i=N1,i=1,2,3,...,N即在初始化数据集时先假定是均匀分布,每个样本的权重相同。
(2) 对于 m = 1 , 2 , . . . M m=1,2,...M m=1,2,...M
- (a)使用具有权值分布 D m D_m Dm的训练数据集训练基础模型 G m ( x ) : X → − 1 , + 1 G_m(x):\\mathcalX \\rightarrow \\-1,+1\\ Gm(x):X→−1,+1
- (b)计算 G m ( x ) G_m(x) Gm(x)在训练数据集上的误分类率, e m = ∑ i = 1 N P ( G m ( x i ) ≠ y i ) = ∑ i = 1 N ω m i I ( G m ( x i ) ≠ y i ) e_m=\\sum_i=1^NP(G_m(x_i)\\not =y_i)=\\sum_i=1^N\\omega_miI(G_m(x_i)\\not =y_i) em=i=1∑NP(Gm(xi)=yi)=i=1∑NωmiI(Gm(xi)=yi)这个误分类率本质是对全部误分类样本权重的求和。
- ©计算当前基础模型 G m ( x ) G_m(x) Gm(x)的权重系数 α m = 1 2 log 1 − e m e m \\alpha_m=\\frac12\\log \\frac1-e_me_m αm=21logem1−em
- (d)更新训练数据集的权值分布 D m + 1 = ( ω ( m + 1 ) 1 , ( m + 1 ) 2 , . . . , ( m + 1 ) N ) D_m+1=(\\omega_(m+1)1,(m+1)2,...,(m+1)N) Dm+1=(ω(m+1)1,(m+1)2,...,(m+1)N), ω m + 1 , i = ω m i Z m exp ( − α m y i G m ( x i ) ) , Z m = ∑ i = 1 N ω m i exp ( α m y i G m ( x i ) ) , 其 中 i = 1 , 2 , . . . , N \\omega_m+1,i=\\frac\\omega_miZ_m\\exp(-\\alpha_my_iG_m(x_i)),Z_m=\\sum_i=1^N\\omega_mi\\exp(\\alpha_my_iG_m(x_i)) ,其中i=1,2,...,N ωm+1,i=Zmωmiexp(−αmyiGm(xi)),Zm=i=1∑Nωmiexp(αmyiGm(x常用GWAS统计方法和模型简介