贪心算法的地理加权回归特征变量选择方法

Posted 测绘科学

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了贪心算法的地理加权回归特征变量选择方法相关的知识,希望对你有一定的参考价值。

贪心算法的地理加权回归特征变量

选择方法

摘 要:针对建立地理加权回归(GWR)模型时,无法直接应用普通线性回归(OLR)常用的特征变量选择方法,且计算过程较复杂的问题,该文基于贪心算法原理,通过引入Akaike信息法则,设计了适用于GWR 的特征变量选择方法:逐个引入或删除特征变量,判断该变量对模型置信水平影响程度,根据评价准则决定该变量的取舍,最终实现模型外没有关系强的变量、模型内没有关系弱的变量。实验结果表明,比较基于OLR 的逐步回归、向前引入法和向后删除法3种方法选择变量建立模型,向前引入法优于向后剔除法,两者都优于基于OLR 的逐步回归法,更适用于GWR 分析。


特征变量选择是建立回归模型的前提, 它是用一定的方法从多个特征变量中选择影响显著、去掉影响不显著的变量的过程,其结果的准确程度决定着回归模型的可靠性。贪心算法是一种采用局部最优思想获取整体最优解或整体近似最优解的有效方法, 被广泛应用于人工智能、资源配置、社会管理等领域。在普通线性回归的特征变量选择中,基于F 检验的向前引入法和向后剔除法也是贪心算法的应用实例, 其思想是逐个加入或删除特征变量,利用F 检验验证改变后模型的显著性,从而保留显著变量或去掉不显著变量。由于地理加权回归在普通线性回归基础上考虑了各影响因素在空间非平稳性,因此,OLR 常用的特征变量选择方法无法直接应用于GWR。此外,GWR的F检验计算复杂,将其作为评价准则过程繁琐。因此,如何设计一个简单有效的适用于GWR 特征变量的选择方法值得思考。

Akaike信息法则是一种有效的自变量选择评价准则,Hurvich 等(1998)将AIC 准则扩展到非参数回归分析中的光滑参数选择。本文基于贪心算法原理,在OLR 的向前引入法和向后剔除法基础上引入AIC 准则,设计一种适用于地理加权回归分析的特征变量选择方法, 后文提到的向前引入法和向后剔除法是指利用AIC 准则改进的适用于GWR分析的新方法。文章以长江经济带人口空间影响因素为例,从多个角度验证方法的有效性。

基于贪心算法的地理加权回归特征变量选择方法试图寻找相关性强的特征变量, 建立可信度高的回归模型,其基本原理是从特征变量集合中逐个搜索变量,判断变量加入或删除对模型置信水平的影响, 根据评价准则决定变量的取舍, 因此搜索方向和评价准则是关键。

本文基于贪心算法,设计了一种适用于GWR的特征变量选择方法。一方面, 利用贪心新算法能较方便地获取全局最优或近似最优的结果, 方便找到近似最佳组合; 另一方面, 引入GWR 的AIC 值作为评价准则, 能有效地探测特征变量的空间非平稳性,更适用于GWR。实验以长江经济带人口及影响因素为例进行对比分析,结果发现:无论是从计算效率还是选择结果, 向前引入法都比向后剔除法效果好,而两者都比基于OLR 的逐步回归法更适用于GWR。由于贪心算法只是求局部最优,因此向前引入法和向后剔除法的选择结果不一致,建议在实际应用中同时运用两种方法建立不同模型, 综合考虑多个评价指标选择特征变量。

引用格式:赵阳阳,刘纪平,张福浩,等.贪心算法的地理加权回归特征变量选择方法[J].测绘科学,2016,41 (7):41-46.


联系我们


QQ:2298250438
微信: 测绘科学
官网: http://chkd.cbpt.cnki.net




以上是关于贪心算法的地理加权回归特征变量选择方法的主要内容,如果未能解决你的问题,请参考以下文章

案例|基于贪心算法的特征选择

机器学习——树回归

Python 对线性模型进行 特征选择,不断模型线性模型的AIC

什么是贪心算法?

什么是贪心算法?

什么是贪心算法?