模型树——就是回归树的分段常数预测修改为线性回归 对于非线性回归有较好的预测效果

Posted 将者,智、信、仁、勇、严也。

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了模型树——就是回归树的分段常数预测修改为线性回归 对于非线性回归有较好的预测效果相关的知识,希望对你有一定的参考价值。

说完了树回归,再简单的提下模型树,因为树回归每个节点是一些特征和特征值,选取的原则是根据特征方差最小。如果把叶子节点换成分段线性函数,那么就变成了模型树,如(图六)所示:

技术分享

 

(图六)

      (图六)中明显是两个直线组成,以X坐标(0.0-0.3)和(0.3-1.0)分成的两个线段。如果我们用两个叶子节点保存两个线性回归模型,就完成了这部分数据的拟合。实现也比较简单,代码如下:

[python] view plain copy
 
  1. def linearSolve(dataSet):   #helper function used in two places  
  2.     m,n = shape(dataSet)  
  3.     X = mat(ones((m,n))); Y = mat(ones((m,1)))#create a copy of data with 1 in 0th postion  
  4.     X[:,1:n] = dataSet[:,0:n-1]; Y = dataSet[:,-1]#and strip out Y  
  5.     xTx = X.T*X  
  6.     if linalg.det(xTx) == 0.0:  
  7.         raise NameError(‘This matrix is singular, cannot do inverse,\n\  
  8.         try increasing the second value of ops‘)  
  9.     ws = xTx.I * (X.T * Y)  
  10.     return ws,X,Y  
  11.   
  12. def modelLeaf(dataSet):#create linear model and return coeficients  
  13.     ws,X,Y = linearSolve(dataSet)  
  14.     return ws  
  15.   
  16. def modelErr(dataSet):  
  17.     ws,X,Y = linearSolve(dataSet)  
  18.     yHat = X * ws  
  19.     return sum(power(Y - yHat,2))  

 

       代码和树回归相似,只不过modelLeaf在返回叶子节点时,要完成一个线性回归,由linearSolve来完成。最后一个函数modelErr则和回归树的regErr函数起着同样的作用。

谢天谢地,这篇文章一个公式都没有出现,但同时也希望没有数学的语言,表述会清楚。

 

数据ex00.txt:

0.036098 0.155096

xxx

 

转载请注明来源:http://blog.csdn.net/cuoqu/article/details/9502711

 

参考文献:

      [1] machine learning in action.Peter Harrington 

以上是关于模型树——就是回归树的分段常数预测修改为线性回归 对于非线性回归有较好的预测效果的主要内容,如果未能解决你的问题,请参考以下文章

R语言 | 分段线性回归及对分割点的评估选择及R计算

决策树算法之分类回归树 CART(Classification and Regression Trees)

多元线性回归中自变量减少预测误差变大回归平方怎么变化

挖掘建模

机器学习系列(三十六)——回归决策树与决策树总结

对于分类回归树和lightgbm的理解